SPRi Brain
유재흥
AI정책연구실
유재흥책임연구원
031-739-7352
연구성과물
  • 요약문 1. 제 목 : 2024년 국내외 인공지능 산업 동향 연구 2. 연구 배경 및 목적 디지털 심화시대에 기술 선점은 국가와 기업에게 중대한 경쟁 요소로 부상하고 있다. 과거처럼 기술 선도국의 전략을 추격하는 것만으로는 더 이상 충분하지 않으며, 디지털 환경에서의 선도적 위치 확보는 지속적인 성장을 위한 필수 조건이 되었다. 이러한 상황에서 새로운 유망 기술을 신속하게 감지하고, 효과적으로 개발 및 확산하는 능력은 디지털 강국으로의 도약과 지속 가능한 성장을 위해 필수적이다. SW 유망기술 발굴은 전략적으로 매우 중요한 요소로 인식되지만, 대부분의 연구는 유망분야 및 토픽의 동향을 다루는 데 초점을 맞추고 있어서 구체적인 기술군에 대한 정보를 제공하는 연구가 부족한 상황이다. 이에 본 연구는 디지털의 기반이되는 소프트웨어(SW) 유망 기술 발굴에 중점을 두어, 국가 및 기업이 급변하는 디지털 환경에 능동적으로 대응할 방안을 제안하고, 디지털 경쟁력을 강화하는 데 필요한 근거로 활용할 기초자료를 생성하고자 한다. 3. 연구의 구성 및 방법 본 연구는 총 6장으로 구성되어 있다. 제1장에서 디지털 심화시대에 SW의 중요성과 SW유망기술 발굴의 필요성을 밝히며, 이를 통한 정책 마련에 필요한 기초자료 제공한다는 목적을 제시한다. 제2장에서는 유망기술의 개념과 특성을 설명하고, 유망기술 발굴이 기업 경쟁력에 미치는 영향을 국내외 연구를 통해 분석한다. 제3장에서는 유망기술을 예측하기 위한 데이터 및 분석 방법론을 검토하고, 제4장에서는 특허 데이터와 소프트웨어 산업 연계 방법, 텍스트 마이닝 및 토픽 모델링을 통한 SW 유망기술 발굴 방법론을 제시한다. 제5장에서는 세부 산업별로 도출한 유망기술을 정리하고, 제6장에서는 정책적 시사점과 연구의 한계 및 향후 연구 방향을 제시한다. 본 연구는 SW유망기술 발굴을 위해 다음과 같이 양적 및 질적 연구방법을 병행하였다. 첫째, 국내외 연구논문, 연구보고서, 언론기사를 통해 유망기술의 발굴 방법, 활용 데이터, 기술 동향을 파악했다. 둘째, 특허분석 및 산업계 전문가 10인의 인터뷰를 통해 기술 후보군 검증과 신뢰성 확보, 연구방법론에 대한 자문을 수행했다. 셋째, 특허 데이터베이스를 활용한 정량분석으로, 텍스트 마이닝과 토픽 모델링 방법을 사용하여 R 프로그램을 통해 유망분야 및 기술을 도출했다. 이 연구는 전문가의 직관과 경험을 데이터 분석과 결합하여 객관적이고 전문적인 결과를 도출하고자 했다. 4. 연구 내용 및 결과 본 연구에서는 미국시장에 등록된 특허정보를 수집하여 텍스트 마이닝과 토픽모델링을 수행하였으며, 추가적으로 전문가 자문, 논문 및 보고서 등의 내용과 통합적으로 검토해서 SW세부산업(게임SW, 패키지SW, IT서비스, 인터넷SW 등)에서 총 33개의 유망기술을 발굴하였으며, 유망기술들은 각각 세부 산업별로 게임SW가 9개, 패키지SW가 7개, IT서비스 7개, 인터넷SW 10개 등으로 분류하여 소개한다. 각 해당기술이 어떻게 활용되며, 인공지능, 빅데이터, 클라우드, 블록체인 등 신SW기술들과 어떤 시너지를 발휘할 수 있는지에 대한 추가정보를 제시한다. 추가정보는 인터넷 검색, 최신 뉴스, 관련 논문, 다양한 유망기술 보고서 등의 신뢰할 수 있는 자료를 통해 심도 있게 조사한 결과를 바탕으로 제시하였다. 이 기술들은 데이터 분석, 보안, 사용자 인터페이스, 상호작용 최적화, 네트워크 등 다양한 영역에서 SW혁신을 이끌어내며, SW산업을 넘어 타산업의 디지털 전환과 산업 고도화를 앞당기는 데 핵심적역할을 할 것이다. 게임SW분야에서는 고급 데이터 스트림 처리 및 최적화 프레임워크, 적응형 신경망 시스템, 확장현실 기술 등이 플레이어의 몰입감과 상호작용을 강화시킬 것이다. 이 기술들은 게임 내 경험을 풍부하게 하고, 사용자 맞춤형 콘텐츠를 제공함으로써 게임 산업의 경쟁력을 강화할 것이다. 패키지 소프트웨어 영역에서는 지능형 데이터 융합, 보안 분석 프레임워크, 실시간 3D 재구성 등의 기술이 데이터 관리와 분석의 효율성을 높여 업무 효율성을 개선할 것이며, 보안을 강화시킬 것 이다. 이러한 기술들은 비즈니스 프로세스와 의사결정을 지원하고, 다양한 산업 분야에서 혁신을 이끌 것으로 예상된다. IT 서비스 분야에서는 적응형 암호화 접근 제어, 양자 키 분배 시스템, 분산 지능 아키텍처 등이 정보 기술의 안전성과 협업 효율성을 개선할 것이다. 이 기술들은 조직의 IT 인프라 관리 및 보안을 강화하고, 데이터 기반의 의사결정을 지원할 것이다. 마지막으로, 인터넷 소프트웨어 분야에서는 뇌-컴퓨터 인터페이스, AI 기반의 디자인 시스템, 데이터 스토리텔링 등이 사용자 경험과 참여를 증진시킬 것이다. 이 기술들은 데이터의 가치를 극대화하고, 사용자에게 더 풍부하고 유익한 정보를 제공할 것으로 기대된다. 이러한 유망 기술들은 산업 전반에 걸쳐 혁신을 촉진하며, 기업과 조직의 경쟁력을 강화하는 동시에 사용자의 삶의 질을 개선하는 데 기여할 것이다. 5. 정책적 활용 내용 본 연구 결과는 대한민국 SW산업의 진흥을 위한 전략 수립에 필수적인 정보를 제공한다. 정부 관계자들은 이러한 결과를 기반으로 SW 지원정책 분야의 우선순위를 결정하고 향후 연구개발과 사업화를 지원할 수 있는 방향을 설정하는 데 참고가 될 것이다. 또한 SW산업 및 결합기술과 관련된 진흥사업을 수행하는 전담기관들의 연구개발 사업기획의 방향성을 제시하는 데 참고자료로 활용될 것이다. 6. 기대효과 본 연구 결과는 산업, 정부, 교육 및 연구기관 측면에서 각각 시사점을 제공할 수 있을 것이다. 첫째, 산업계에는 SW유망기술, 유망기술과 시너지를 낼 수 있는 결합기술, 활용분야 등을 제시함으로써 기술 개발 및 사업 재편에 대한 전략적 방향설정에 활용할 수 있을 것이다. 나아가 본 연구결과를 토대로 효율적인 기술 투자와 개발을 진행하여 성공적인 비즈니스 모델을 형성할 수 있을 것으로 기대한다. 둘째, 정부차원에서는 연구 결과를 기반으로 SW유망기술 개발과 확산을 촉진하는 정책 수립에 활용할 수 있을 것이다. 이는 디지털 변혁에 선도적 정책지원으로 기술패권에서 우위를 선점하는 데 기여할 수 있을 것이다. 마지막으로 본 연구의 결과는 대학 및 연구 기관에게 유망 기술에 기반한 교육 및 훈련 프로그램을 개발과 SW분야의 연구개발 활동의 방향성을 수립하는 데 활용할 수 있는 기반자료가 될 것이다.

  • 요약문 1. 제 목 : AI안전의 부상과 정책 대응 방안 연구 2. 연구 배경 및 목적 ㅇ (배경 및 필요성) 고성능 인공지능(AI)의 보급과 확산이 빠르게 진행되며 사회 ·산업 전반에 활용도가 증가하고 있으나, AI의 위험·부작용에 대한 우려도 함께 증가하며 AI 안전이 중요한 아젠다로 부상

  • 스탠퍼드대학교 인간중심 인공지능 연구소(HAI)가 지난 4월 7일 'AI Index 2025' 보고서를 발간했다. 이번 보고서는 2017년부터 발간되어 올해 8번째로, 현재 글로벌 AI 현황에 대한 종합적인 관점의 브리핑을 제공한다. 소프트웨어정책연구소에서는 이 보고서의 주요 내용을 분석‧요약하고 우리의 전략적 대응을 제안하고자 한다. AI 연구개발 경쟁은 매년 더욱 치열해지고 있으며, 선두 주자인 미국과의 경쟁에서 중국의 약진이 두드러진다. AI의 성능은 매년 급격하게 증가하여 이를 측정하기 위한 새로운 벤치마크들이 등장했다. 고성능 모델들은 모델 간 성능 격차가 줄어들어 상향 평준화 되었다. 또한, AI의 활용 확산은 과학과 의료계의 발전을 이끌고 있으며, AI의 활용이 확산됨에 따라 책임있는 AI를 위한 다양한 노력들도 추진되고 있다. 이에 따라 각국에서는 AI에 관련한 규제 법률을 늘리고 있는 추세이다. AI 분야의 `24년의 글로벌 투자 수준은 경기침체로 인해 감소세였던 지난 `22~23년과 달리 크게 증가하였다. 세계적으로 AI 및 CS교육이 빠르게 확산하고 있어 AI 전문가 배출도 가속화되고 있다. AI에 대한 여론은 낙관적인 전망이 증가하고 있는 가운데, 공정성에 대한 신뢰도는 감소하는 양상을 보였다. Executive Summary The Stanford Institute for Human-Centered Artificial Intelligence(HAI) released the 'AI Index 2025' report on April 7th. This report that published since 2017, is the 8th this year and provides a comprehensive perspective briefing on the current global AI situation. The SPRi analyzes and summarizes the main contents of this report and proposes our strategic response. The competition in AI research and development is becoming more intense every year, and China's advances are notable in its competition with the United States, the leader. The performance of AI has increased rapidly every year, and new benchmarks have emerged to measure it. High-performance models have become more standardized as the performance gap between models has narrowed. In addition, the spread of AI utilization is leading to the development of science and medicine, and various efforts for responsible AI are also being promoted as the use of AI spreads. Accordingly, each country is increasing regulatory laws related to AI. The level of global investment in the AI ​​field in 2024 has increased significantly, unlike 2022-2023, when it was decreasing due to the economic recession. As AI and CS education are rapidly spreading worldwide, the production of AI experts is also accelerating. While public opinion on AI is showing an increasing optimism, trust in fairness is showing a decreasing trend.

  • 목차 Table of Contents 정책·법제 ▹ 2025년 중국 양회의 정부 업무보고, AI 플러스 행동의 지속 추진을 천명 ▹ 중국 정부, 2025년 9월부터 AI 생성·합성물 표시 의무화 규정 시행 예정 발표 ▹ 인도 전자정보기술부, AI 강국 실현을 위한 AI 로드맵 공개 ▹ 영국 경쟁시장청, 마이크로소프트와 오픈AI 협력 관련 반독점 조사 종료 발표 기업·산업 ▹ 구글, 단일 GPU로 구동 가능한 오픈소스 AI 모델 ‘젬마 3’ 공개 ▹ 오픈AI, AI 에이전트 구축 지원 도구와 신규 음성·이미지 생성 모델 출시 ▹ 앤스로픽, 트럼프 행정부에 국가 경제와 안보를 고려한 AI 정책 제안 ▹ 오픈AI, 트럼프 행정부에 혁신의 자유 강조하는 AI 정책 제안 ▹ 엔비디아, GTC 2025에서 신규 AI 칩 로드맵과 AI 제품군 공개 ▹ 마누스 AI, 완전 자율 AI 에이전트 ‘마누스’ 공개 ▹ 피규어, 휴머노이드 로봇 제조시설 ‘BotQ’ 발표 ▹ 앱트로닉, 자빌과 전략적 제휴로 휴머노이드 로봇 제작 추진 기술·연구 ▹ 구글 딥마인드, 로봇 특화 AI 모델 ‘제미나이 로보틱스’ 개발 ▹ 사카나 AI의 AI 생성 논문, ICLR 2025 워크숍에서 동료 심사 통과 ▹ AAAI, 주요 AI 연구 주제와 해결 과제를 정리한 보고서 발간 ▹ 2024년 튜링상, 강화학습 연구에 기여한 연구자 2인이 수상 ▹ 카카오, 자체 개발 AI 모델 ‘카나나’의 테크니컬 리포트 공개 인력·교육 ▹ 영국 옥스퍼드大 연구 결과, AI 인력 채용 시 학위보다 실무기술이 중요 ▹ 스탠포드 HAI, AI+교육 서밋에서 AI가 교육에 미치는 영향 논의 ▹ 영국 정부의 AI 저작권 규제 완화 기조에 창작자들의 반발 격화 ▹ IBM CEO, 가까운 미래에 AI가 프로그래머를 대체할 가능성은 희박하다고 예측 주요행사일정

    • 2025.03.10
    • 2024

    목차 Table of Contents Ⅰ. 인공지능 산업의 최신 동향 1. 정책/법제 ▹ 미국 국가AI자문위원회, 트럼프 행정부 대상 AI 정책 보고서 발간 ▹ 파리 AI 행동 정상회의, AI의 공공성·지속가능성과 함께 규제 완화 논의 ▹ EU 집행위원회, 경쟁력 강화 로드맵의 일환으로 AI 기가팩토리 구축 추진 ▹ EU 집행위원회, 2025년 업무 프로그램에서 ‘AI 책임 지침’ 철회 계획 발표 ▹ 영국, AI안전연구소의 명칭 AI보안연구소로 변경하고 앤스로픽과 AI 협력 2. 기업/산업 ▹ 구글, 성능 개선한 ‘제미나이 2.0’ 제품군 확대 출시 ▹ 오픈AI, 심층 조사를 수행하는 에이전트 ‘딥 리서치’ 공개 ▹ 오픈AI, GPT-5 출시 로드맵 발표 및 GPT-4.5 프리뷰 공개 ▹ xAI, 최신 AI 모델 ‘그록 3’ 프리뷰 출시 ▹ 퍼플렉시티, 심층 조사와 분석을 수행하는 ‘딥 리서치’ 무료 출시 ▹ 알리바바, 딥시크 V3 능가하는 성능의 ‘큐원2.5-Max’ 출시 ▹ 아크 인베스트, 2025년 혁신 기술 중 하나로 AI 에이전트 선정 3. 기술/연구 ▹ 상하이교통大 연구진, 소량의 고품질 데이터를 활용한 추론 AI 모델 개발 ▹ 스탠포드大와 워싱턴大 연구진, 저비용으로 고성능 추론 AI 모델 개발 ▹ 바이트댄스, 인물 움직임을 생성하는 AI 모델 ‘옴니휴먼-1’ 개발 ▹ AI안전센터와 스케일 AI, 고난도 벤치마크 ‘HLE’ 공개 4. 인력/교육 ▹ 딜로이트 조사 결과, 전 세계 기업들은 점진적으로 AI 도입 확대 ▹ 마이크로소프트 연구 결과, 생성 AI 신뢰할수록 비판적 사고 감소 ▹ 앤스로픽, AI가 노동시장에 미치는 영향을 분석한 ‘앤스로픽 경제 지수’ 공개 ▹ 앤스로픽을 비롯한 여러 기업들, 입사 지원 시 AI 도구 사용금지 요구

    • 2025.02.17
    • 2683

    목차 Table of Contents 1. 딥시크의 등장과 배경 2. 딥시크 모델의 기술적 특징 3. 기존 AI 모델과의 비교 4. 딥시크 관련 주요 이슈 5. 딥시크의 영향과 정책적 시사점 6. 참고 문헌

    • 2025.02.11
    • 1731

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 상무부, AI 칩과 모델의 수출 통제를 전 세계로 확대하는 규정 발표 ▹ 바이든 전 미국 대통령, AI 인프라 구축 가속화 행정명령에 서명 ▹ 미국 트럼프 대통령, AI 인프라 프로젝트 및 AI 행정명령 발표 ▹ 미국 AI안전연구소, 기반모델 오용 위험관리 지침 2차 초안 발간 ▹ 영국 과학혁신기술부, AI 경쟁력 강화를 위한 AI 기회 행동계획 발표 2. 기업/산업 ▹ MIT 테크놀로지 리뷰, 2025년 AI 트렌드 전망 ▹ 엔비디아, CEO 2025에서 피지컬 AI 시대 예고하며 AI 신제품 대거 공개 ▹ 오픈AI, 트럼프 행정부를 위한 AI 정책 청사진 발표 ▹ 오픈AI, 생명공학 스타트업과 협력해 수명 연장 목표 연구를 위한 AI 모델 개발 ▹ 딥시크, 오픈AI o1과 비슷한 성능의 추론형 AI 모델 ‘R1’ 공개 ▹ 딥시크 R1 출시로 인한 AI 시장의 충격과 함께 보안 우려도 대두 ▹ 지상파 방송 3사, 네이버에 뉴스데이터 저작권 침해 소송 제기 3. 기술/연구 ▹ 니케이 분석 결과, 세계 3대 AI 학회 채택 논문 저자 수에서 중국과 미국의 격차 감소 ▹ AMD와 존스 홉킨스大 연구진, 과학 연구를 자율 수행하는 에이전트 개발 ▹ 사카나 AI, 자체 적응형 머신러닝 프레임워크 ‘트랜스포머2’ 개발 ▹ 구글 연구진, 효율적 메모리 사용을 위한 ‘타이탄’ 아키텍처 개발 4. 인력/교육 ▹ 세계경제포럼, 2030년까지 AI의 영향으로 일자리 시장 급변 예상 ▹ IBM 설문조사 결과, IT 의사결정권자의 85%가 AI 전략에서 성과 달성 ▹ 민주주의기술센터 조사 결과, 미국 교육 현장에서 생성 AI 활용 급증 ▹ 딜로이트, 아시아 태평양 지역 AI 거버넌스 조사 결과 발표 Ⅱ. 주요 행사 ▹ICLR 2025 ▹ICRA 2025 ▹AI & Big Data EXPO (North America)

  • 본 연구에서는 그간의 미국의 인공지능(AI) 안전·신뢰성 정책 흐름을 살펴보고, 트럼프 2.0 시대에 AI 기술의 안전·신뢰성 확보하기 위한 정책 흐름이 어떻게 이어질지 예측하고자 하였다. 분석 결과, 미국은 오바마 행정부부터 트럼프 1기 행정부, 바이든 행정부에 걸쳐 AI 기술을 국가 안보와 직결된 전략 기술로서 인식하고 관련 정책을 수립·추진해왔다. 오바마 행정부에서는 AI가 안보와 글로벌 리더십 확보에 중요한 전략 과제임을 인식하고 안전한 AI 시스템을 보장하기 위한 연구 개발 계획 및 지침을 수립하였고, 트럼프 1기 행정부는 자국의 AI 리더십 확보를 위한 연구 강화와 혁신 투자, 그리고 신뢰할 수 있는 AI 개발 및 보급을 지시하였다. 바이든 행정부에서는 연방정부 차원에서 안전하고 신뢰할 수 있는 AI 혁신에 관한 행정명령을 발동하였다. 공통적으로 AI 개발 및 보급에서 세계를 선도함과 동시에 안전성과 신뢰성을 강화할 수 있는 정책을 마련하는 데 초점을 맞추고 있다. AI의 안전·신뢰성 확보 정책은 국가적으로 일관된 정책 흐름이며, 오히려 국가 안보와 미국 우선주의를 강조하는 트럼프2.0 시대에서는 더욱 강화될 수 있을 것으로 전망된다. Executive Summary This study examines the trajectory of U.S. Policy for Implementing Trustworthiness artificial intelligence (AI) safety and reliability policies and seeks to predict how these policies may evolve Trump 2.0 era. The analysis reveals that since the Obama administration through the first Trump administration, the United States recognized AI as a strategic technology closely tied to national security, developing and implementing policies to support its advancement. The Obama administration acknowledged AI as a critical strategic task for national security and global leadership, establishing research and development plans and guidelines to ensure safe AI systems. The first Trump administration emphasized strengthening U.S. AI leadership by enhancing research, investing in innovation, and directing the development and deployment of trustworthy AI. The Biden administration issued executive orders at the federal level to advance trustworthy AI innovation. All administrations have consistently focused on leading global AI development and deployment while simultaneously reinforcing trustworthiness. Policies to ensure AI trustworthiness thus reflect a unified national strategy. Furthermore, with the Trump 2.0 era’s emphasis on national security and an “America First” agenda, these policies are anticipated to be further strengthened.

    • 2025.01.13
    • 1840
    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ EU 공동연구센터, 공공 부문의 AI 역량 및 거버넌스에 관한 보고서 발간 ▹ 유럽평의회, AI 시스템의 위험과 영향력 평가 방법론 채택 ▹ 영국 정부, 사이버 안보 위협에 대응한 AI안보연구소 신설 계획 발표 ▹ 그리스 AI 고위자문위원회, 국가 AI 정책 제안서 발표 2. 기업/산업 ▹ 아마존, 자체 개발 생성 AI 모델과 AI 신기능 대거 공개 ▹ 오픈AI, ‘챗GPT 프로’ 및 동영상 생성 AI ‘소라’ 출시 ▹ 구글, 제미나이 2.0 플래시 출시와 함께 AI 에이전트 3종 공개 ▹ 마이크로소프트, 코파일럿 신기능과 AI 에이전트 공개 ▹ 퍼플렉시티, 유료 사용자 대상 AI 검색에 쇼핑 기능 도입 ▹ 앨런AI연구소, 완전 개방형 소형 언어모델 ‘올모 2’ 공개 ▹ LG AI연구원, 엑사원 3.5 기반모델 3종 오픈소스로 공개 ▹ 엔비디아, 텍스트-오디오 생성 AI 모델 ‘푸가토’ 발표 3. 기술/연구 ▹ 스탠포드大 인간중심AI연구소, 글로벌 AI 활동성 도구 공개 ▹ ML커먼스, AI 안전성 평가 벤치마크 ‘AI루미네이트’ 발표 ▹ 구글 딥마인드, 3D 가상 세계 생성하는 AI 모델 ‘지니 2’ 개발 ▹ 알리바바, 추론 AI 모델 ‘마르코-o1’ 공개 4. 인력/교육 ▹ OECD, 생성 AI를 활용한 노동시장 과제 해결을 모색한 보고서 발간 ▹ 리눅스 재단 AI 도입 현황 조사 결과, 생성 AI 인프라의 평균 41%가 오픈소스로 확인 ▹ 세계경제포럼, 인재 부족 문제에 대응한 AI 교육 형평성 강조 ▹ 마이크로소프트, AI 도입 기업들의 5대 트렌드 발표 Ⅱ. 주요 행사 ▹World Economic Forum ▹CES ▹AAAI-25
  • 최근 인공지능의 부상과 함께 인공지능의 기능적 한계, 잠재적 위험에 대한 우려도 고조되고 있다. 이러한 상황에서 2023년 11월에는 세계 최초로 세계 정상들이 참여한 ‘AI안전성 정상회의’가 개최되었고, 2024년 5월에는 후속 회의로서 ‘AI 서울 정상회의’도 열렸다. 2024년 8월에는 2021년부터 발의된 EU의 인공지능법이 발효되었다. 앞으로 믿고 쓸 수 있는 인공지능, 인간에 무해한 인공지능의 개발과 보급을 위한 정책적 노력들이 강화될 것으로 예측된다. 하지만, 정책적 대상으로서 인공지능 안전의 개념과 범위는 모호하다. 비슷한 개념으로 인공지능 신뢰성, 인공지능 윤리, 인공지능 견고성, 책임 있는 인공지능 등이 혼재되어 사용되고 있다. 따라서, 무엇보다 ‘인공지능 안전성’에 대한 개념에 대한 합의가 필요한 상황이며, 그 대상이 기술적 영역에 국한되는지, 기업의 책무와 윤리적 영역까지도 포함하는지 개념의 범위에 대한 검토도 필요하다. 이에 본 연구에서는 최근 화두가 되고 있는 ‘인공지능 안전성’을 다른 유사 개념들과 비교하여 그 개념을 정의하고, 그 개념이 포함하는 범위에 대해서도 조망한다. 이를 위해 현재까지 제정된 ISO/IEC의 국제표준 정의와 EU, OECD 등 국제 협력 기구에서의 정의, 그리고 최근 설립된 미국, 영국 등 AI안전연구소들이 준용하는 개념들을 살펴보았다. 이를 토대로 향후 AI 안전성을 확보하기 위해 정책적 시사점을 정리하였다. Executive Summary With the recent rise of artificial intelligence (AI), concerns regarding its functional limitations and potential risks have been increasing. In response, November 2023 saw the world's first AI Safety Summit with the participation of global leaders, followed by the Seoul AI Summit in May 2024. In August 2024, the EU's Artificial Intelligence Act, initially proposed in 2021, came into effect. It is anticipated that policy efforts to develop and promote trustworthy and harmless AI will be strengthened in the future. However, the concept and scope of AI safety as a policy target remain unclear. Similar terms such as AI trustworthiness, AI ethics, AI robustness, AI reliablity, and responsible AI are often used interchangeably. Thus, it is crucial to reach a consensus on the concept of 'AI safety' and to examine whether it is limited to technical aspects or includes corporate responsibility and ethical considerations. This study compares the recently prominent concept of 'AI safety' with similar terms to define its scope and meaning. To do so, we review the definitions provided by ISO/IEC international standards, international organizations like the EU and OECD, and the concepts adopted by newly established AI safety research institutes in the US and UK. Based on this analysis, the study outlines policy implications for ensuring AI safety in the future.
    • 2024.12.10
    • 3980

    목차 Table of Contents 1. AI 에이전트(AI Agent)의 도입 및 부상 2. AI 에이전트 주요 사례 3. AI 에이전트 관련 이슈 및 전망 4. 참고 문헌

    • 2024.12.04
    • 1735
    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 백악관, AI 기술 활용에 관한 최초의 국가안보 각서 발표 ▹ 미국 재무부, AI를 포함한 첨단기술에 대한 對중국 투자 제한 행정규칙 발표 ▹ 호주 국가AI센터, 기업의 AI 영향 평가를 지원하는 프레임워크 발표 ▹ OECD, 기업 간 AI 격차 증대에 포용적 디지털 혁신 강조하는 정책 브리프 발간 ▹ 국제 AI안전연구소 네트워크 출범 및 국내 AI안전연구소 설립 ▹ 캐나다, 혁신과학경제부 산하에 AI안전연구소 설립 2. 기업/산업 ▹ 오픈AI, 챗GPT에 실시간 검색 기능 추가해 유료 사용자에 우선 공개 ▹ 오픈AI, 슈퍼얼라인먼트 팀에 이어 범용 AI 대비팀도 해체 ▹ 앤스로픽, ‘클로드 3.5 소네트’ 업데이트로 AI 에이전트 기능 추가 ▹ 메타와 엔스로픽, 미국 정부 기관에 군사·안보 목적의 AI 모델 제공 ▹ 오픈AI, 브로드컴 및 TSMC와 제휴해 자체 AI 칩 개발 추진 ▹ 가트너, 2027년까지 AI 데이터센터의 40%가 전력 부족을 겪을 것으로 예측 3. 기술/연구 ▹ 가트너, 2025년 10대 전략 기술 트렌드 예측 ▹ 오픈소스 이니셔티브, 오픈소스 AI의 정의 발표 ▹ 구글 딥마인드, 인간의 이중 사고방식 적용한 AI 에이전트 시스템 연구 결과 발표 ▹ 텐센트, 오픈소스 최대 규모 MoE 모델 ‘훈위안-라지’ 공개 ▹ AI 기업들, 사전 훈련을 통한 LLM 성능 한계에 추론 연구에 주목 4. 인력/교육 ▹ 포레스터의 2025년 AI 예측, AI에 대한 투자 조정 불가피 ▹ 세일즈포스, 소비자의 기업 신뢰도와 AI 에이전트 인식 조사 결과 발표 ▹ 중국 베이징市 정부, 교육 분야의 AI 응용 활성화 지침 발표 Ⅱ. 주요 행사 ▹CES 2025 ▹AI & Big Data Expo Global 2025 ▹AAAI 2025
    • 2024.11.06
    • 1309

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 민권위원회, 연방정부의 얼굴인식 기술 사용에 따른 민권 영향 분석 ▹ 미국 백악관 예산관리국, 정부의 책임 있는 AI 조달을 위한 지침 발표 ▹ 유로폴, 법 집행에서 AI의 이점과 과제를 다룬 보고서 발간 ▹ OECD, 공공 부문의 AI 도입을 위한 G7 툴킷 발표 ▹ 세계경제포럼, 생성AI 시대의 거버넌스 프레임워크 제시 2. 기업/산업 ▹ CB인사이츠 분석 결과, 2024년 3분기 벤처 투자 31%가 AI 스타트업에 집중 ▹ 메타, 동영상 생성AI 도구 ‘메타 무비 젠’ 공개 ▹ 메타, 이미지와 텍스트 처리하는 첫 멀티모달 AI 모델 ‘라마 3.2’ 공개 ▹ 앨런AI연구소, 벤치마크 평가에서 GPT-4o 능가하는 성능의 오픈소스 LLM ‘몰모’ 공개 ▹ 미스트랄AI, 온디바이스용 AI 모델 ‘레 미니스트로’ 공개 ▹ 카카오, 통합 AI 브랜드 겸 신규 AI 서비스 ‘카나나’ 공개 3. 기술/연구 ▹ 2024년 노벨 물리학상과 화학상, AI 관련 연구자들이 수상 ▹ 미국 국무부, AI 연구에서 국제협력을 위한 ‘글로벌 AI 연구 의제’ 발표 ▹ 일본 AI안전연구소, AI 안전성에 대한 평가 관점 가이드 발간 ▹ 구글 딥마인드, 반도체 칩 레이아웃 설계하는 AI 모델 ‘알파칩’ 발표 ▹ AI21 CEO, AI 에이전트에 트랜스포머 아키텍처의 대안 필요성 강조 4. 인력/교육 ▹ MIT 산업성과센터, 근로자 관점에서 자동화 기술의 영향 조사 ▹ 다이스 조사, AI 전문가의 73%는 2025년 중 이직 고려 ▹ 가트너 예측, AI로 인해 엔지니어링 인력의 80%가 역량 향상 필요 ▹ 인디드 조사 결과, 생성AI가 인간 근로자 대체할 가능성은 희박 Ⅱ. 주요 행사 ▹NeurIPS 2024 ▹GenAI Summit Maroc 2024 ▹AI Summit Seoul 2024

  • 최근 몇 년간 인공지능(AI) 기술의 발전은 챗GPT의 출시 이후 거대 언어 모델(LLM) 개발 경쟁을 거치며 가속화되었다. 현재 공개된 AI 모델들의 성능은 특정 분야에서는 이미 인간의 능력을 뛰어넘었고, 이에 따라 활용 범위 또한 급격히 확장되었다. 특히 생성 AI를 기반으로 하는 범용 AI는 제조, 의료, 금융, 교육 등의 여러 산업 분야에서 활용되고 있다. 하지만, AI 기반의 서비스들이 다양한 이점을 제공하는 한편, 고성능 AI에 대한 접근성의 향상으로 인해 새로운 위험에 대한 우려 또한 증가했다. 이에 따라, 기존 AI 신뢰성, 책임성, 윤리 등의 논의와 더불어, ‘AI 안전’이 더욱 중요해졌다. 악의적인 사용, 오작동과 같은 위험들이 실제 피해까지 야기하고 있는 만큼, AI의 안전 확보를 위한 대응책 마련이 시급해진 상황이다. 앞으로 등장할 더 강력한 성능을 가진 프론티어 AI 모델은 의도치 않은 결과의 도출, 제어 불가, 사회적 악영향 등 여러 잠재적인 위험을 포함할 가능성이 높아, 규제와 지침 마련을 비롯하여 다양한 국제적 노력이 이루어지고 있다. 각 국의 정부, 기업 등 이해관계자들은 AI의 안전성을 확보하기 위해, 위험을 식별하여 평가 기준을 마련하고, 안전한 AI 개발 및 배포와 위험 대응책을 마련하기 위해 노력하고 있다. 최근 연구들에서는 사고 사례나 발생 가능한 시나리오에 따른 위험들을 분류하여 제시하고 있다. 하지만, 연구마다 다양한 위험 분류 체계를 제시하고 있어, 합의된 AI 안전 평가 체계를 마련하기에는 아직 더 많은 논의가 필요한 상황이다. 미국, 영국, 일본 등은 AI 시스템의 안전성 확보를 위해 AI 안전연구소를 통해 AI 안전 및 위험 연구, 위험성 평가, 안전한 AI 개발·구현을 위한 기준 마련 등의 기능을 수행 중이다. 대표적으로 AI 위험 관리 프레임워크(美), AI 안전에 관한 과학 보고서(英) 등을 통해 AI의 위험에 대한 대응 방안을 제시하고 있으며, 한국도 설립될 AI 안전연구소를 통해 AI 안전 수요에 대응할 예정이다. 본 보고서에서는 AI 안전과 관련된 개념을 정리하고, 최근 수행된 연구들이 제시하고 있는 AI 위험 유형 및 요인을 정리하여, 사례와 함께 분석함으로써 앞으로의 AI 위험 대응에 관한 정책적 시사점을 제공하고자 한다. Executive Summary Advancements in artificial intelligence (AI) technology have accelerated, particularly following the launch of ChatGPT, which has triggered a competitive race in the development of large language models (LLMs). The performance of currently available AI models has already surpassed human capabilities in certain domains, leading to a rapid expansion in their areas of application. General-purpose AI, especially those based on generative AI, is now being utilized across various industries, including manufacturing, healthcare, finance, and education. However, while AI-based services offer numerous benefits, the increased accessibility of high-performance AI has also raised concerns about new risks. As a result, alongside existing discussions on AI reliability, accountability, and ethics, "AI safety" has become an increasingly critical issue. Given that risks such as malicious use and malfunctions are already causing real harm, there is an urgent need for measures to ensure AI safety. Governments, corporations, and other stakeholders are working to ensure the safety of AI by identifying risk factors, establishing evaluation criteria, and developing measures for the safe development and deployment of AI, as well as for responding to potential risks. Recent studies have classified risk factors based on accident cases and possible scenarios. However, since each study presents different classification, further discussion is needed to establish a common AI safety evaluation framework. The United States, the United Kingdom, and Japan are addressing safety of AI through dedicated agency, which focus on AI risk research, risk assessments, and the development of standards for the safe creation and implementation of AI systems. Notable examples include the AI Risk Management Framework (USA) and the Science Report on AI Safety (UK), both of which propose strategies for addressing AI-related risks. Korea also plans to address AI safety demands through the establishment of its own AI safety institute. This report aims to organize the concepts related to AI safety, summarize the risk factors identified in recent studies, and analyze these factors along with real-world cases to offer policy implications for future AI risk response strategies.

    • 2024.10.07
    • 1635

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 법적 구속력 갖춘 유럽평의회의 AI 국제조약에 서명 ▹ 미국 캘리포니아 주지사, AI 규제법안 「SB1047」에 거부권 행사 ▹ 호주 의회, 동의 없는 딥페이크 음란물 공유를 처벌하는 법안 통과 ▹ UN, ‘인류를 위한 AI 거버넌스’ 최종 보고서 발표 2. 기업/산업 ▹ 앤스로픽과 오픈AI, 미국 AI 안전연구소와 모델 평가 합의 ▹ 오픈AI, 추론에 특화된 AI 모델 ‘o1-프리뷰’ 출시 ▹ 메타의 AI 모델 ‘라마’, 다운로드 수 3억 5천만 회 달성하며 활발한 생태계 형성 ▹ 구글, AI 신기능 ‘젬스’와 이미지 생성 모델 ‘이마젠 3’ 출시 ▹ 구글, C2PA 표준 적용으로 AI 생성물의 투명성 향상 추진 ▹ 마이크로소프트, 오픈소스 소형 언어모델 ‘파이 3.5’ 공개 ▹ 하이퍼라이트, 오류를 자체 수정하는 ‘리플렉션 70B’ 오픈소스 모델 공개 3. 기술/연구 ▹ 영국 옥스퍼드大 연구 결과, 글로벌 AI 칩 분포의 양극화 현상 심각 ▹ 메타, LLM의 품질과 정확성을 평가하는 ‘자가학습 평가자’ 개발 ▹ 코히어 연구, LLM 사전학습에 코드 데이터 포함 학습시 LLM의 성능 향상 확인 ▹ 중국 연구진, 재판 시뮬레이션으로 LLM의 법률 역량 향상하는 기법 개발 ▹ AI 연구자들, 벤치마크 ‘챗봇 아레나’의 편향과 투명성 부족 지적 4. 인력/교육 ▹ 영국 정부, AI 교육기업 대상 ‘콘텐츠 스토어’ 프로젝트 발표 ▹ 유고브 조사 결과, 미국 근로자들 AI의 일자리 영향에 엇갈린 의견 표시 ▹ IBM 기업가치연구소, ‘생성 AI 시대 인적 잠재력 재해석’ 보고서 발간 ▹ 서비스나우, AI 도입으로 영국에서 61만 개 일자리 창출 전망 Ⅱ. 주요 행사 ▹Cypher 2024 21 ▹AI World Congress 2024 21 ▹ML and AI Model Development and Governance 21

    • 2024.09.04
    • 3260

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 생성 AI의 공정한 경쟁환경 조성을 위한 공동 성명 발표 ▹ 미국 통신정보관리청, 오픈소스 기반모델의 위험에 대한 모니터링 촉구 ▹ 중국 베이징市, AI 플러스 행동계획(2024~2025) 발표 ▹ 독일 연방정보기술보안청, AI 시스템의 투명성에 관한 백서 발간 2. 기업/산업 ▹ 오픈AI, AI 기반 검색엔진 ‘서치GPT’ 프로토타입 공개 ▹ 메타, 폐쇄형 첨단 AI 모델과 대등한 성능의 오픈소스 모델 ‘라마 3.1’ 공개 ▹ 구글, 소형 오픈소스 모델 ‘젬마2 2B’ 공개 ▹ 메타와 구글, 환각과 딥페이크 등 AI 이슈 대응 ▹ 피규어AI, 최신 휴머노이드 로봇 ‘피규어 02’ 공개 ▹ xAI, ‘그록-2’ 출시 이후 이미지 생성 논란 확산 3. 기술/연구 ▹ 미국 국가과학기술위원회, 2020년~2024년 AI R&D 경과보고서 발간 ▹ 구글 딥마인드, 생성 AI의 오용 현황 분석 ▹ 애플, 애플 인텔리전스의 기반모델 개발 프로세스 공개 ▹ 네이처, AI 생성 데이터로만 학습한 AI 모델의 붕괴 위험 증가 경고 논문 게재 ▹ 영국 에이다 러브레이스 연구소, AI 안전성 평가의 개선 필요성 제기 ▹ 사카나 AI, 과학 연구를 자동화하는 ‘AI 사이언티스트’ 개발 4. 인력/교육 ▹ 유네스코, 교육에서 생성 AI의 기회와 위험 분석 ▹ 세계경제포럼 4차산업혁명센터, AI로 인한 기술 실업 가능성이 희박하다고 전망 ▹ AI 기반 ICT 인력 컨소시엄, ICT 일자리의 92%에 AI의 영향 예측 ▹ 오픈AI, 챗GPT 부정행위 탐지 도구 개발 후 공개 유보 Ⅱ. 주요 행사 ▹Generative AI World 2024 ▹AI Expo Europe ▹Big Data & AI World

    • 2024.08.13
    • 2157

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 국제통화기금(IMF), 세계 AI 준비 현황지도 공개 ▹ OECD, AI 분야의 데이터 거버넌스와 개인정보보호 협력 연구 ▹ 글로벌 AI 파트너십(GPAI), OECD-GPAI 통합 운영에 합의 ▹ 과학기술정보통신부, AI 분야 규제샌드박스 과제 적극 발굴 추진 ▹ 프랑스 경쟁관리국, 생성 AI 분야의 경쟁 활성화를 위한 권고사항 제시 ▹ 중국 정부, AI 표준화 체계 구축 지침 발표 ▹ 대만 국가과학기술위원회, AI 기본법 초안 발표 2. 기업/산업 ▹ EU 경쟁 당국, 구글-삼성 AI 협업에 반독점 조사 검토 ▹ 2024년 상반기 유럽 생성 AI 스타트업 투자 규모 19억 유로 ▹ 구글, 제미나이 1.5 플래시 및 오픈소스 모델 젬마 2 정식 출시 ▹ 오픈AI, 비용 효율적인 소형 AI 모델 ‘GPT-4o 미니’ 출시 ▹ 바이두, 최신 AI 모델 ‘어니 4.0 터보’ 공개 ▹ 중국 상하이市 법학회, 세계인공지능대회에서 휴머노이드 로봇 거버넌스 지침 발표 ▹ LG AI연구원, 오픈소스 AI 모델 ‘엑사원(EXAONE) 3.0’ 공개 3. 기술/연구 ▹ 세계경제포럼, 과학적 발견을 위한 AI 등 10대 신흥기술 선정 ▹ ETRI, 데이터 분석 및 머신러닝을 위한 데이터 품질 국제표준 제정 ▹ 구글 딥마인드, 제미나이를 활용한 자연어 기반 로봇 학습 연구 결과 공개 4. 인력/교육 ▹ SAS 조사, 생성 AI 사용은 중국이 가장 앞서나 성숙도는 미국이 우위 Ⅱ. 주요 행사 ▹ECCV 2024 ▹World Summit AI ▹AI WORLD 2024

  • 최근 전 산업과 일상에서 AI의 활용이 폭넓게 이뤄지고 있으나, 한편으로는 AI 위험에 대한 우려 및 AI로 인한 사건 수가 증가하면서 AI 위험 대응 요구도 확대되고 있다. 이에 따라 각국 정부와 학계, 업계 등 이해당사자가 AI의 위험을 방지하고 안전하고 신뢰할 수 있는 AI를 개발 및 도입하기 위해 노력하고 있다. 본 보고서에서는 액센츄어와 스탠퍼드 대학교가 실시한 글로벌 기업의 책임 있는 AI에 대한 조치 인식 조사를 인용하여 책임 있는 AI 영역별 대응 수준을 진단하고, 주요 기업별 전담 조직 및 AI 안전 프레임워크 현황 사례를 조사하여 기업의 구체적인 책임 있는 AI에 관한 노력에 대해 살펴보았다. 액센츄어와 스탠퍼드 대학교의 조사 결과, 기업은 개인정보 보호 및 데이터 거버넌스, 신뢰성 및 보안, 투명성 및 설명 가능성, 공정성 등 책임 있는 AI의 요인별 대응을 추진하고 있으며, 개인정보 보호 및 데이터 거버넌스 측면의 대응 수준이 가장 높게 진단되었다. 그러나, AI 모델 발전에 따른 결과 설명의 어려움, 국가별 공정성의 기준에 대한 차이 등의 사유로 투명성 및 설명 가능성, 공정성 부문에 대한 향후 조치를 향상시킬 필요가 있다. 국내외 기업별 사례 조사 결과, 주요 기업들은 AI 모델의 평가와 개발·배포 여부에 대한 의사결정을 할 수 있는 전담 조직을 설립하고, 전담 조직에 의해 AI의 위험성을 정의하고 평가하는 체계를 구축하고 있다. 국내 기업은 계열사 간 컨센서스를 위한 협의체를 운영하는 특징이 있으며, 산업으로의 AI 적용을 위한 과제별 위험 요인을 분류하고 평가하는 체계를 도입하고 있다. 글로벌 조사와 유사하게, 공정성 부문은 제도적인 가이드라인 수준으로 기업의 실질적인 조치가 미흡한 상황으로 향후 개선이 필요하다. 본 보고서의 결과는 각국 정부가 AI 규제에 관한 논의와 실행을 본격화되는 가운데, 기업들이 전담 조직을 구축하고, AI 안전 프레임워크를 수립 및 준수함으로써 책임 있는 AI를 정착시키기 위해 노력하고 있음을 보여준다. 앞으로 국내외 기업들의 안전하고 책임 있는 AI 개발 및 사용을 위한 지속적인 노력이 요구된다. Executive Summary Recently, AI has been widely utilized in all industries and daily life, but on the other hand, as concerns about AI risks and the number of incidents caused by AI increase, the demand for AI risk response is also expanding. Consequently, all stakeholders, including governments, academia, and industry, are working to prevent AI risks and ensure the development and implementation of safe and trustworthy AI. This report cites a survey of global companies' awareness of responsible AI measures conducted by Accenture and Stanford University to diagnose the level of response in each area of responsible AI, and investigates case studies of dedicated organizations and frameworks in major companies to explore specific efforts towards responsible AI. According to research conducted by Accenture and Stanford University, Global survey results show that companies are pursuing responses to responsible AI factors such as privacy protection and data governance; reliability and security; transparency and explainability; and fairness. The response level in privacy protection and data governance was diagnosed as the highest. However, due to difficulties in explaining the result of advanced AI models, challenges in processing different languages, and differences in fairness standards across countries, there is a need for improved measures in transparency, explainability, and fairness in the future. As a result of the survey of domestic and global companies, major companies are establishing dedicated organizations capable of evaluating AI models and making decisions on whether to develop and distribute them, and are establishing a system to define and evaluate the risks of AI through dedicated organizations. Domestic companies are characterized by operating a consultative body for consensus among affiliates, and are introducing a system to classify and evaluate risk factors for each task for applying AI to the industry. Similar to the Accenture survey, the fairness sector is at the level of institutional guidelines, and actual measures by companies are insufficient, so it can be said that improvement is needed in the future. The results of this report show that while governments around the world are discussing and implementing AI regulations, companies are making efforts to establish responsible AI by establishing dedicated organizations and establishing and complying with frameworks. In the future, efforts will be required to develop and use safe AI technology across the entire AI ecosystem.

  • 생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.

  • 요약문 1. 제 목 : 2023년 국내외 인공지능 산업 동향 연구 2. 연구 목적 및 필요성 ㅇ 생성AI 기술이 전세계적 이슈로 부상 - 2022년 11월 등장한 오픈AI社의 챗GPT(ChatGPT) 이후 인공지능 기술이 다시 한 번 역사적 변곡점을 맞이하면서 급성장 - 관련 하드웨어, 서비스 개발에 대한 투자뿐만아니라 전산업에서 AI융합이 본격화되고 있으며 글로벌 빅테크를 중심으로 한 주도권 경쟁이 치열해 지고 있는 상황 - 한편, 확률적 산출물 조합에 기반한 생성AI 기술의 한계, 생성물의 오남요에 따른 사회적 부작용 등 AI에 대한 국제사회의 규제 움직임도 점차 가시화 - 이에, 알파고(AlphaGo)이후 2010년 중반부터 급격히 진행되고 있는 인공지능 기술의 진화와 함께 사회적, 제도적 추이를 지속적으로 파악하여 시의성 있게 대응하는 정책적 민첩성의 요구도 높아짐 ㅇ 본 연구는 급변하는 국내외 인공지능 산업 동향을 파악하여 국내 산업 경쟁력 강화와 인공지능 활용 확산을 위한 정책 자료를 확보하는 것이 기본 목표 - 주요국, 기관, 학술단체, 주요 기업의 동향을 파악하여 현황을 진단하고, 향후 AI 기술의 발전과 산업을 전망하여 시의적절한 AI 정책을 개발하고 의사결정을 지원할 수 있도록 기초 자료 제공 및 정책 과제 발굴에 활용 - 인공지능 산업 관련 광범위한 조사를 바탕으로 국내외 AI 정책 관련 유용한 자료(정책, 법률, 권고사항 등)을 확보하여 정책 고도화에 활용 3. 연구의 구성 및 범위 ㅇ 인공지능 산업 현황 및 시장에 대한 개괄적 정리 ㅇ 국내 및 해외 주요국·국제 기구 정책 동향 - 주요국에는 미국, 유럽, 중국, 일본, 영국, 캐나다, 독일, 프랑스, 싱가포르 포함 - 국제 기구/회의로 OECD, UN/UNESCO, G7정상회의, 세계경제포럼(WEF) 동향 분석 ㅇ 국내외 인공지능 주요 기업 동향 분석 - 해외 글로벌 빅테크(구글, 마이크로소프트, 메타, 아마존, 오픈AI, 애플, 테슬라 등) 기업 및 국내 주요 기업 (네이버, 카카오)을 포함한 주요 AI 스타트업 동향 포함 ㅇ 국제 학술 단체 연구, 표준기관, 비영리 연구 기관 동향 분석 - IEEE, ACM 및 최상위 AI 컨퍼런스 발표 및 ISO/EC 국제 표준화 동향 - 국내 TTA 인공지능 표준화 동향 및 관련 인공지능 학회 주요 연구 동향 ㅇ 인공지능 교육 및 고용, 인력 개발 관련 동향 분석 4. 연구 내용 및 결과 ㅇ 주요국 및 국제기관에서는 생성AI 관련 규범 정립 및 규제 추진 - 미국은 인공지능 청사진 마련, 신뢰성 있는 AI 개발을 위한 행정명령, 유럽은 인공지능법안 통과, 중국의 생성 AI 지침 마련, G7의 AI행동강령, 일본은 생성 AI 저작권 지침 수립 및 국내에서는 인공지능 기본법 제정 추진 ㅇ 생성AI의 핵심 기술 개발 및 관련 서비스 생태계에서 경쟁력 우위 확보를 위해 주요 기업들은 가치사슬의 수직 통합화를 가속화 - 마이크로소프트, 구글, 메타, 아마존, 엔비디아 등 주요기업들은 인수합병, 전략적 투자를 통해 인공지능 반도체, 클라우드, AI플랫폼(모델), 애플리케이션에 이르는 인공지능 가치사슬의 수직통합화를 통한 경쟁력 강화 ㅇ 생성AI 모델의 고도화, 경량화와 함께 인공지능 신뢰성 확보 연구 확대 - 대규모 컴퓨팅 인프라 투자를 통해 거대언어모델 성능 경쟁을 펼치는 추세에서 비용 효과적인 경량 모델, 오픈소스 활용 움직임이 확대되고 있음 - 특히 생성물의 부정확성, 오류, 환각 현상, 잠재적 편향성 등 신뢰성 문제가 대두됨에 따라 이를 보완하거나 최소화 하기 위한 기술적, 정책적 대응 강화 5. 정책적 활용 내용 ㅇ 본 연구 내용은 정부의 인공지능 정책 수립 (초거대 인공지능 경쟁력 강화, 전국민 인공지능 일상화 전략 등) 및 관련 법안 마련 (인공지능 기본법)을 위한 현황 분석의 기초 자료로 활용 되었음 6. 기대효과 ㅇ 국내외 환경 변화에 대한 시의성 있는 정보 제공으로 정부 정책 대응력 제고 ㅇ 동태적 동향 분석 체계 구축을 통해 일관적이고 지속적인 정책 고도화 기반 마련 ㅇ 업계, 연구자 및 이용자 등 다양한 이해관계자에게 인공지능 관련 정책, 시장, 기업 전략, 표준, 인력, 연구 개발 동향 등 다양한 AI 현황 자료 제공함으로써 민간의 AI 산업 이해도 및 전략 대응력 향상에 기여