2025년 <8월 1주차 AI ISSUE SCANNER> |
|
|
<NOTICE> 본 콘텐츠는 생성형 AI로 요약한 내용을 활용하여 작성하였습니다. 외부 인용 시에는 정보의 정확성과 신뢰성 확보를 위해 원문 확인을 권고합니다. 본 콘텐츠 내의 내용은 한국지능정보사회진흥원의 공식 입장이 아님을 밝힙니다. AI ISSUE SCANNER를 수신하시려면 성함과 이메일 주소를 알려주세요.
본 콘텐츠가 마음에 드신다면, 주변에 구독을 추천해주세요.
|
|
|
중국 국무원 상무회의가 ‘인공지능+’ 심화 계획 실행에 관한 의견을 심의ㆍ통과시키며 인공지능(AI) 기술의 대규모 상용화와 전방위 확산을 위한 종합 실행 방향을 제시했다. 회의에서는 AI 기술의 빠른 발전을 배경으로 완성된 산업 체계, 확대되는 시장 규모, 다양한 활용 분야라는 중국의 강점을 최대한 활용하여 경제·사회 전 영역에서 AI의 신속한 보급과 깊이 있는 융합을 추진해야 한다고 강조했다. 이를 통해 혁신이 활용을 촉진하고 활용이 다시 혁신을 이끄는 선순환 구조를 만들겠다는 목표다.
이번에 통과된 계획에 따르면 정부 부처와 국유기업은 시범적·선도적 역할을 강화하고, 개방형 테스트베드 등 실증 환경을 제공해 혁신 성과가 실제 산업 현장에 적용될 수 있도록 지원해야 한다. 또한 인공지능 혁신 생태계 최적화, 연산력·알고리즘·데이터 공급 강화, 정책 지원 확대, 핵심 인재 육성, 오픈소스 개방형 생태계 조성을 통해 산업 발전의 기반을 공고히 하는 것이 핵심이다.
아울러 AI 안전 역량 강화도 중요한 과제로 제시됐다. 회의는 안전성을 높이는 동시에, 변화에 민첩하게 대응하고 다양한 주체가 협력할 수 있는 인공지능 거버넌스 체계를 조속히 구축해 급변하는 환경에 능동적으로 대처해야 한다고 밝혔다. (2025.07.31, GOV.CN)
|
|
|
중국공정원 정보·전자공학부와 중국 정보·전자공학 과학기술 발전 전략연구센터가 7월 31일 ‘인공지능 신흥 기술 예비 목록’을 발표하며 향후 5~10년간 주목할 만한 인공지능(AI) 잠재 핵심기술 약 300개를 공개했다. 이번 목록은 AI 기술 발전 방향과 산업·학문 융합 전망을 제시해 미래 전략 수립에 참고자료가 될 것으로 기대된다.
목록은 세 가지 범주로 구성됐다. 먼저 정보공학 기술 분야의 기술 혁신과 관련해 6G 기술, 멀티모달 대규모 모델, 초(超)범용 지능 등 163개 기술을 제시했다. 전통 산업의 개조·업그레이드와 학문 간 융합 분야에서는 계산 신경과학, 스마트 웨어러블 기기, AI 기반 신약 설계 등 생산성 변화를 촉발할 122개 기술이 포함됐다. 또한 대규모 모델 기술, 엠보디드(Embodied) AI, 지능형 무인 시스템 등 일상생활과 밀접한 12개 AI 핵심기술도 제안됐다.
중국공정원 원사이자 정보·전자공학부 부주임인 위사오화(余少华)는 “이번 예비 목록은 수십 명의 원사와 수백 명의 전문가 의견을 종합한 결과”라며 “AI가 향후 사회생활에 미칠 영향을 대중이 더 명확히 인식할 수 있도록 하고, AI 발전의 상위 설계와 전략 수립에 참고가 되기를 바란다”라고 말했다.
(2025.07.31, GOV.CN)
|
|
|
# AI 활용ㆍ확산과 안전을 위한 영국의 노력
|
|
|
사법 분야 AI 행동계획(AI Action Plan for Justice) 발표
영국 법무부(MOJ)는 인공지능(AI)을 활용해 사법 체계를 현대화하고 효율성과 공정성을 높이기 위한 ‘사법 분야 AI 행동 계획(AI Action Plan for Justice)’을 발표했다. 이번 계획은 향후 3년간 단계적으로 추진되며, ‘기반 강화–활용 내재화–인력 및 파트너십 투자’라는 3대 축을 중심으로 전개된다.
먼저, 기반 강화를 위해 법무부는 최고AI책임자(Chief AI Officer)가 이끄는 전담 조직 ‘Justice AI Unit’을 신설하고, AI 거버넌스·윤리·데이터 및 디지털 인프라·조달 체계를 체계적으로 정비한다. 또한 독립 사법부와 규제기관과 협력해 안전하고 투명한 AI 활용을 보장하며, ‘SAFE-D’ 원칙을 AI·데이터 윤리 프레임워크 전반에 적용한다.
SAFE-D는 지속가능성(Sustainability), 책임성(Accountability), 공정성(Fairness), 설명가능성(Explainability), 데이터 책임(Data Responsibility)을 의미한다. 이 원칙은 AI 시스템이 환경적·사회적으로 지속 가능해야 하고, 명확한 책임 주체를 갖추며, 차별 없이 공정하게 작동하고, 작동 원리를 설명할 수 있어야 하며, 데이터의 품질과 안전성을 철저히 관리해야 한다는 기준을 제시한다.
다음으로, AI 활용 내재화 단계에서는 “탐색–시범–확대(Scan–Pilot–Scale)” 접근법을 적용해 사법 전 분야에 AI 도입을 확장한다. 행정업무 자동화, 의미 기반 검색, 음성·번역·문서 처리, 자원·인력 스케줄링, 맞춤형 교육·재활, 대국민 AI 상담 서비스 등 다양한 분야에서 AI를 실증하고 확대한다. 이를 위해 마이크로소프트 Copilot과 ChatGPT Enterprise 같은 안전한 AI 어시스턴트를 전 직원에게 보급하고, 법원과 교정기관에서 문서 검색 및 회의록 작성 속도를 대폭 향상시키는 도구를 도입한다.
마지막으로, 인력과 파트너십 투자를 위해 ‘Justice AI Fellowship’과 ‘Justice AI Academy’를 운영해 AI 전문 인재를 영입·육성하고, 전 직원 대상 교육과 인식 제고 활동을 실시한다. 아울러 법률 서비스 업계, 스타트업, 규제기관과의 협력을 통해 AI 기반 법률 혁신을 촉진하고 범죄 대응 역량을 강화한다.
실행 일정은 1년 차에 전 부서 생산성 도구 도입과 주요 시범 사업 착수를 시작으로, 2년 차에 검증된 AI 솔루션을 확산하고, 3년 차에는 상호운용 가능한 솔루션을 전면 배치해 사법 운영 전반에 AI를 완전히 통합하는 것이다. 영국 법무부는 이를 통해 안전성·투명성·공정성을 기반으로 사법 서비스를 현대화하고 국민 신뢰를 높이며, 지속 가능한 혁신을 실현할 계획이다. (2025.07.31, GOV.UK)
|
|
|
AI 개발의 안전성ㆍ신뢰성 확보를 위한 국제 연합 프로젝트 출범
영국 AI 보안연구소(AI Security Institute)가 캐나다 AI 안전연구소, 아마존웹서비스(AWS), Anthropic, 시민사회 단체 등과 손잡고 AI의 행동을 인간 의도에 맞게 제어·관리하는 ‘정렬(Alignment) 프로젝트’를 출범했다. 이번 프로젝트는 세계적 수준의 자문위원단, 1,500만 파운드 이상의 자금, 국제 파트너십을 기반으로 AI 안전·보안·인간 통제를 강화해 국민 보호와 정부의 ‘변화를 위한 계획(Plan for Change)’ 기반 마련을 목표로 한다.
‘정렬’은 AI 연구에서 AI 시스템이 항상 인간의 의도와 가치에 맞게 행동하도록 보장하는 분야를 뜻한다. 이는 AI가 잘못된 방향으로 발전하거나 사회에 위험을 줄 수 있는 행동을 하지 않도록 설계·제어하는 기술과 연구를 포함한다.
이번 프로젝트에는 캐나다 첨단연구소(CIFAR), Schmidt Sciences, Halcyon Futures, Safe AI Fund, 영국 연구혁신청(UKRI), 첨단연구발명청(ARIA) 등이 참여하며, 영국은 이를 통해 AI 정렬 연구 분야에서의 글로벌 리더십을 강화할 계획이다.
연구 주제는 ▲고도화된 AI 시스템이 인간의 목표를 지속적으로 따르게 하는 방법, ▲AI 작동 과정을 투명하게 유지하는 기술, ▲인간 감독에 효과적으로 반응하는 안전장치 개발 등이다. 이는 2025년 국제 AI 안전 보고서에서 제기된 우려와도 맞닿아 있다. 해당 보고서는 최신 AI 모델이 일부 분야에서 이미 박사 수준의 전문 지식을 보유하고 있어, 기존의 제어 방식만으로는 앞으로 등장할 더 강력한 시스템을 관리하는 데 한계가 있을 수 있다고 경고했다.
이번 프로젝트에는 총 3단계 지원이 제공된다. ▲연구자당 최대 100만 파운드의 연구 보조금, ▲AWS로부터 최대 500만 파운드 상당의 클라우드 컴퓨팅 크레딧, ▲민간 투자자의 벤처 투자 지원이다. 이를 통해 학계·산업·정책·시민사회가 협력하는 AI 안전 연구 생태계를 조성하고, AI 안전성과 통제 가능성을 강화한다는 방침이다.
영국 과학·혁신·기술부 장관 피터 카일은 “AI가 이미 일부 영역에서 인간 능력을 뛰어넘고 있는 만큼, 기술이 항상 우리의 이익을 위해 작동하도록 보장하는 연구가 필수적”이라고 강조했다. 이번 연합 프로젝트는 AI 채택의 가장 큰 장벽 중 하나인 ‘신뢰’를 확보함으로써, 영국이 AI 활용과 안전성에서 동시에 글로벌 선두 자리를 유지하도록 하는 핵심 동력이 될 전망이다. (2025.07.30, GOV.UK)
|
|
|
메타 CEO 마크 저커버그는 7월 30일, 초지능(Superintelligence) 개발이 가시권에 들어왔다고 밝혔다. 그는 초지능이 기존 시스템을 혁신하고 지금은 상상하기 어려운 창작과 발견을 가능하게 할 것이라며, 이는 인류를 새로운 생산성·창의성의 시대로 이끌 것으로 전망했다.
메타가 지향하는 개인 초지능(Personal Superintelligence)은 사용자의 목표와 상황을 깊이 이해해 창작, 경험, 인간관계, 자기 성장 등을 지원하는 도구다. 그는 이것이 중앙에서 모든 작업을 자동화하는 방식과 달리, 사람들이 개별적인 열망을 추구하며 과학·건강·문화 발전을 이뤄온 역사적 흐름을 이어가는 모델이라고 설명했다.
앞으로 사람들은 생산성 소프트웨어보다 창작과 소통에 더 많은 시간을 쓰게 될 것이며, 시각·청각·맥락을 실시간 이해하고 하루 종일 상호작용을 하는 개인형 기기가 주요 컴퓨팅 장치가 될 것으로 내다봤다. 저커버그는 초지능의 혜택을 널리 공유하되, 새로운 안전 문제에 대비해 위험 완화와 오픈소스 공개 범위를 신중히 관리하겠다고 밝혔다. 그는 향후 10년을 초지능 방향을 결정짓는 결정적 시기로 보고, 메타가 이를 전 세계 수십억 명이 사용할 수 있는 인프라로 구현하겠다고 강조했다. (2025.07.30, Meta)
|
|
|
구글 딥마인드(Google DeepMind)가 새로운 AI 추론 모델인 ‘Gemini 2.5 Deep Think’를 출시한다고 밝혔다. 이 모델은 하나의 질문에 대해 여러 아이디어를 동시에 탐색·검토한 뒤 최적의 답변을 선택하는 방식으로 작동하며, 다중 에이전트(Multi-Agent) 기술을 활용해 기존 단일 모델보다 높은 정확도를 제공한다.
이번 모델은 월 250달러의 울트라(Ultra) 구독 서비스 가입자에게 8월 2일부터 Gemini 앱을 통해 제공된다. Gemini 2.5 Deep Think는 지난 5월 구글 I/O 2025에서 처음 공개됐으며, 구글이 일반에 제공하는 첫 다중 에이전트 모델이다. 이 시스템은 여러 개의 AI 에이전트를 병렬로 가동해 복잡한 문제를 해결하는데, 더 많은 컴퓨팅 자원이 필요하지만 결과 품질이 높아지는 장점이 있다.
모델의 성능 면에서, Gemini 2.5 Deep Think는 Humanity’s Last Exam(HLE)에서 34.8%를 기록했다. HLE는 수학·인문학·과학 등 여러 분야의 고난도 문제를 종합적으로 풀어내는 AI 능력을 측정하는 평가로, 실제 사람 수준의 종합 문제 해결력을 테스트하는 것으로 알려져 있다. 구글 모델의 점수는 xAI의 Grok 4(25.4%)와 OpenAI의 o3(20.3%)를 앞섰다.
또한 LiveCodeBench 6(고난도 코딩 과제 테스트)에서는 87.6%를 기록하며 Grok 4(79%)와 o3(72%)보다 높은 성과를 보였다. 모델은 코드 실행, 구글 검색 등 다양한 도구와 연동되며, 기존 모델보다 더 길고 정교한 답변을 생성할 수 있다.
구글은 이번 모델이 웹 개발, 연구 보조, 창의적 문제 해결 등에서 경쟁 모델 대비 더 높은 품질의 결과물을 제공한다고 강조했다. 다만, 다중 에이전트 시스템은 높은 운영 비용으로 인해 구글과 xAI 모두 고가 구독 서비스에만 제공하고 있다. (2025.08.01, Techcrunch)
|
|
|
유럽연합(EU) 집행위원회는 8월 2일부터 AI 법(AI Act)상 범용 AI(GPAI) 제공자 의무가 적용됨에 따라, 이를 지원하기 위한 범용 AI 행동강령(Code of Practice) 첫 서명 기업 26곳을 공개했다. 행동강령은 투명성, 저작권, 안전·보안 등 자율 규범을 담아 GPAI 모델 제공자의 법 준수를 돕는 것이 목적이다. 서명 기업에는 아마존, 구글, 마이크로소프트, IBM 등 빅테크와 오픈AI(OpenAI), 프랑스 미스트랄AI(Mistral AI) 등이 포함됐다.
메타(Meta)는 “행동강령이 혁신을 제한한다”라며 불참 의사를 밝혔지만, 8월 2일부터 발효되는 AI 법 의무는 그대로 적용된다. 소셜미디어 X의 AI 개발사 xAI는 안전·보안 챕터에만 서명해, 투명성과 저작권 관련 AI 법 준수는 다른 방식으로 입증해야 한다.
구글도 서명 의사를 밝혔으나, 알파벳(Alphabet) 글로벌 사무 총괄 켄트 워커는 “최종안이 유럽의 혁신과 경제 목표에 더 부합하게 되었지만, AI 법과 행동강령이 유럽의 AI 개발·도입 속도를 늦출 수 있다는 우려가 여전히 있다”라고 말했다.
기존에 GPAI 모델을 출시한 기업은 8월 1일 이전에 서명해야 했으며, 신규 제공자는 추후 서명할 수 있다. 8월 3일부터 EU 27개 회원국은 자국 기업의 AI 법 준수를 감독할 국가 감독기관을 지정해야 하며, 위반 시 최대 1,500만 유로 또는 전 세계 연간 매출의 3% 중 더 높은 금액이 과징금으로 부과될 수 있다. (2025.08.01, Euronews)
|
|
|
2025년 8월 1주차 AI 이슈스캐너를 마칩니다.
감사합니다.
문의: ai_issue_scanner@nia.or.kr
|
|
|
|