목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 상무부, AI 칩과 모델의 수출 통제를 전 세계로 확대하는 규정 발표 ▹ 바이든 전 미국 대통령, AI 인프라 구축 가속화 행정명령에 서명 ▹ 미국 트럼프 대통령, AI 인프라 프로젝트 및 AI 행정명령 발표 ▹ 미국 AI안전연구소, 기반모델 오용 위험관리 지침 2차 초안 발간 ▹ 영국 과학혁신기술부, AI 경쟁력 강화를 위한 AI 기회 행동계획 발표 2. 기업/산업 ▹ MIT 테크놀로지 리뷰, 2025년 AI 트렌드 전망 ▹ 엔비디아, CEO 2025에서 피지컬 AI 시대 예고하며 AI 신제품 대거 공개 ▹ 오픈AI, 트럼프 행정부를 위한 AI 정책 청사진 발표 ▹ 오픈AI, 생명공학 스타트업과 협력해 수명 연장 목표 연구를 위한 AI 모델 개발 ▹ 딥시크, 오픈AI o1과 비슷한 성능의 추론형 AI 모델 ‘R1’ 공개 ▹ 딥시크 R1 출시로 인한 AI 시장의 충격과 함께 보안 우려도 대두 ▹ 지상파 방송 3사, 네이버에 뉴스데이터 저작권 침해 소송 제기 3. 기술/연구 ▹ 니케이 분석 결과, 세계 3대 AI 학회 채택 논문 저자 수에서 중국과 미국의 격차 감소 ▹ AMD와 존스 홉킨스大 연구진, 과학 연구를 자율 수행하는 에이전트 개발 ▹ 사카나 AI, 자체 적응형 머신러닝 프레임워크 ‘트랜스포머2’ 개발 ▹ 구글 연구진, 효율적 메모리 사용을 위한 ‘타이탄’ 아키텍처 개발 4. 인력/교육 ▹ 세계경제포럼, 2030년까지 AI의 영향으로 일자리 시장 급변 예상 ▹ IBM 설문조사 결과, IT 의사결정권자의 85%가 AI 전략에서 성과 달성 ▹ 민주주의기술센터 조사 결과, 미국 교육 현장에서 생성 AI 활용 급증 ▹ 딜로이트, 아시아 태평양 지역 AI 거버넌스 조사 결과 발표 Ⅱ. 주요 행사 ▹ICLR 2025 ▹ICRA 2025 ▹AI & Big Data EXPO (North America)
본 연구에서는 그간의 미국의 인공지능(AI) 안전·신뢰성 정책 흐름을 살펴보고, 트럼프 2.0 시대에 AI 기술의 안전·신뢰성 확보하기 위한 정책 흐름이 어떻게 이어질지 예측하고자 하였다. 분석 결과, 미국은 오바마 행정부부터 트럼프 1기 행정부, 바이든 행정부에 걸쳐 AI 기술을 국가 안보와 직결된 전략 기술로서 인식하고 관련 정책을 수립·추진해왔다. 오바마 행정부에서는 AI가 안보와 글로벌 리더십 확보에 중요한 전략 과제임을 인식하고 안전한 AI 시스템을 보장하기 위한 연구 개발 계획 및 지침을 수립하였고, 트럼프 1기 행정부는 자국의 AI 리더십 확보를 위한 연구 강화와 혁신 투자, 그리고 신뢰할 수 있는 AI 개발 및 보급을 지시하였다. 바이든 행정부에서는 연방정부 차원에서 안전하고 신뢰할 수 있는 AI 혁신에 관한 행정명령을 발동하였다. 공통적으로 AI 개발 및 보급에서 세계를 선도함과 동시에 안전성과 신뢰성을 강화할 수 있는 정책을 마련하는 데 초점을 맞추고 있다. AI의 안전·신뢰성 확보 정책은 국가적으로 일관된 정책 흐름이며, 오히려 국가 안보와 미국 우선주의를 강조하는 트럼프2.0 시대에서는 더욱 강화될 수 있을 것으로 전망된다. Executive Summary This study examines the trajectory of U.S. Policy for Implementing Trustworthiness artificial intelligence (AI) safety and reliability policies and seeks to predict how these policies may evolve Trump 2.0 era. The analysis reveals that since the Obama administration through the first Trump administration, the United States recognized AI as a strategic technology closely tied to national security, developing and implementing policies to support its advancement. The Obama administration acknowledged AI as a critical strategic task for national security and global leadership, establishing research and development plans and guidelines to ensure safe AI systems. The first Trump administration emphasized strengthening U.S. AI leadership by enhancing research, investing in innovation, and directing the development and deployment of trustworthy AI. The Biden administration issued executive orders at the federal level to advance trustworthy AI innovation. All administrations have consistently focused on leading global AI development and deployment while simultaneously reinforcing trustworthiness. Policies to ensure AI trustworthiness thus reflect a unified national strategy. Furthermore, with the Trump 2.0 era’s emphasis on national security and an “America First” agenda, these policies are anticipated to be further strengthened.
국내 소프트웨어(SW) 개발자 채용시장은 팬데믹 이후 디지털 전환의 가속화, 경기침체, 그리고 생성형 AI의 등장 등 여러 요인에 의해 큰 변화를 겪어왔다. 팬데믹 기간동안 전 산업에서 디지털 전환이 빠르게 이루어지면서 SW 개발자에 대한 수요가 급격히 증가했고, 이로 인해 구직자가 유리한 시장 환경이 조성되었다. 그러나 이후 고금리와 경기 침체가 이어지면서 벤처와 스타트업 투자가 위축되었고, 이는 IT업계 채용시장에도 부정적인 영향을 미쳐 SW 개발자 채용시장이 크게 위축되었다. 2022년 말 등장한 생성형 AI는 SW 개발자의 생산성을 높이는 한편, SW개발자 채용 수요와 역할, 그리고 요구 역량 전반에 직·간접적인 영향을 미치기 시작했다. 이에 따라, 본 연구진은 국내 현업에 종사하는 SW 개발자를 대상으로 심층 인터뷰를 진행하였으며, 인터뷰의 주요 결과는 다음과 같다. 현재 SW 개발자 채용시장은 위축된 상태이나, 생성형 AI로 인한 직접적인 채용 감소는 현장에서 뚜렷하게 체감되지 않고 있다. 한편, 생성형 AI는 초급 SW 개발자에게 기회와 위협을 동시에 제공하고 있다는 의견이 제시되었다. 단순 반복 작업이 자동화되면서 초급 SW 개발자의 역할 축소와 채용 수요 감소 우려가 제기되지만, 동시에 생성형 AI는 초급 개발자의 학습 속도와 역량 향상에 기여하여 이들이 더 넓은 업무를 수행할 수 있는 기회를 제공하고 있다고 논의되었다. SW 개발자 채용 과정과 요구 역량에도 변화가 예상된다. 현업 개발자들은 코딩 테스트의 필요성에 대해 의견이 갈리는 상황이며, 실무 역량과의 연관성을 더욱 강화해야 한다는 지적이 있다. 또한, 생성형 AI 도입으로 프롬프트 엔지니어링이 새로운 역량으로 주목받고 있으나, 이를 SW개발자의 본질적 역량으로 강조하기에는 시기상조라는 평가가 다수다. 생성형 AI 도구의 활용이 확산되면서 초급 SW 개발자의 역량이 상향 평준화될 것으로 전망하는 의견이 제시되었다. 또한, 생성형 AI로 인해 SW개발자 요구 역량의 본질이 변화하지는 않을 것으로 전망되나, AI 도구 활용 시 정보 판별 능력이 새롭게 요구되는 역량으로 부각될 가능성이 있다. 이상의 연구 결과를 바탕으로 본 연구진은 향후 SW개발자의 요구 역량, 역량 평가, 역할 변화 등에 대한 시사점을 도출하였다. 나아가, SW 개발자 요구 역량 및 이에 따른 채용 변화와 관련한 정부와 개발자들의 대응 방향에 대해 제언하였다. The software (SW) developer job market in South Korea has experienced significant changes influenced by various factors, including the acceleration of digital transformation during the pandemic, economic downturns, and the emergence of generative AI. The introduction of generative AI in late 2022 has further reshaped this landscape by enhancing developer productivity while indirectly and directly impacting hiring demand, roles, and required competencies. To investigate these developments, this study conducted in-depth interviews with SW developers currently active in the industry. The key findings are summarized as follows: Although the SW developer job market remains constrained, industry practitioners have not distinctly perceived direct hiring reductions attributable to generative AI. However, generative AI has been identified as simultaneously presenting both opportunities and challenges for junior SW developers. While the automation of repetitive tasks has raised concerns about the reduction of roles and hiring demand for junior developers, it has also been noted that generative AI supports faster learning and skill enhancement, enabling these developers to take on broader responsibilities. Interviewees expressed divergent opinions on the necessity of coding tests, highlighting the need for stronger alignment with practical skill requirements. Additionally, while prompt engineering has emerged as a noteworthy competency with the adoption of generative AI, they believe it is premature to consider it a core skill for SW developers. The growing adoption of generative AI tools is expected to standardize and elevate the baseline competencies of junior SW developers. Although the fundamental skills required for SW developers are unlikely to change significantly, the ability to critically evaluate information when using AI tools is likely to emerge as a newly emphasized competency. Based on these findings, this study outlines implications for evolving competency requirements, assessment methods, and role changes for SW developers. Furthermore, it offers recommendations for government policies and developer strategies to address the shifts in required skills and hiring practices driven by generative AI.
목차 Table of Contents 1. AI 에이전트(AI Agent)의 도입 및 부상 2. AI 에이전트 주요 사례 3. AI 에이전트 관련 이슈 및 전망 4. 참고 문헌
목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 민권위원회, 연방정부의 얼굴인식 기술 사용에 따른 민권 영향 분석 ▹ 미국 백악관 예산관리국, 정부의 책임 있는 AI 조달을 위한 지침 발표 ▹ 유로폴, 법 집행에서 AI의 이점과 과제를 다룬 보고서 발간 ▹ OECD, 공공 부문의 AI 도입을 위한 G7 툴킷 발표 ▹ 세계경제포럼, 생성AI 시대의 거버넌스 프레임워크 제시 2. 기업/산업 ▹ CB인사이츠 분석 결과, 2024년 3분기 벤처 투자 31%가 AI 스타트업에 집중 ▹ 메타, 동영상 생성AI 도구 ‘메타 무비 젠’ 공개 ▹ 메타, 이미지와 텍스트 처리하는 첫 멀티모달 AI 모델 ‘라마 3.2’ 공개 ▹ 앨런AI연구소, 벤치마크 평가에서 GPT-4o 능가하는 성능의 오픈소스 LLM ‘몰모’ 공개 ▹ 미스트랄AI, 온디바이스용 AI 모델 ‘레 미니스트로’ 공개 ▹ 카카오, 통합 AI 브랜드 겸 신규 AI 서비스 ‘카나나’ 공개 3. 기술/연구 ▹ 2024년 노벨 물리학상과 화학상, AI 관련 연구자들이 수상 ▹ 미국 국무부, AI 연구에서 국제협력을 위한 ‘글로벌 AI 연구 의제’ 발표 ▹ 일본 AI안전연구소, AI 안전성에 대한 평가 관점 가이드 발간 ▹ 구글 딥마인드, 반도체 칩 레이아웃 설계하는 AI 모델 ‘알파칩’ 발표 ▹ AI21 CEO, AI 에이전트에 트랜스포머 아키텍처의 대안 필요성 강조 4. 인력/교육 ▹ MIT 산업성과센터, 근로자 관점에서 자동화 기술의 영향 조사 ▹ 다이스 조사, AI 전문가의 73%는 2025년 중 이직 고려 ▹ 가트너 예측, AI로 인해 엔지니어링 인력의 80%가 역량 향상 필요 ▹ 인디드 조사 결과, 생성AI가 인간 근로자 대체할 가능성은 희박 Ⅱ. 주요 행사 ▹NeurIPS 2024 ▹GenAI Summit Maroc 2024 ▹AI Summit Seoul 2024
최근 몇 년간 인공지능(AI) 기술의 발전은 챗GPT의 출시 이후 거대 언어 모델(LLM) 개발 경쟁을 거치며 가속화되었다. 현재 공개된 AI 모델들의 성능은 특정 분야에서는 이미 인간의 능력을 뛰어넘었고, 이에 따라 활용 범위 또한 급격히 확장되었다. 특히 생성 AI를 기반으로 하는 범용 AI는 제조, 의료, 금융, 교육 등의 여러 산업 분야에서 활용되고 있다. 하지만, AI 기반의 서비스들이 다양한 이점을 제공하는 한편, 고성능 AI에 대한 접근성의 향상으로 인해 새로운 위험에 대한 우려 또한 증가했다. 이에 따라, 기존 AI 신뢰성, 책임성, 윤리 등의 논의와 더불어, ‘AI 안전’이 더욱 중요해졌다. 악의적인 사용, 오작동과 같은 위험들이 실제 피해까지 야기하고 있는 만큼, AI의 안전 확보를 위한 대응책 마련이 시급해진 상황이다. 앞으로 등장할 더 강력한 성능을 가진 프론티어 AI 모델은 의도치 않은 결과의 도출, 제어 불가, 사회적 악영향 등 여러 잠재적인 위험을 포함할 가능성이 높아, 규제와 지침 마련을 비롯하여 다양한 국제적 노력이 이루어지고 있다. 각 국의 정부, 기업 등 이해관계자들은 AI의 안전성을 확보하기 위해, 위험을 식별하여 평가 기준을 마련하고, 안전한 AI 개발 및 배포와 위험 대응책을 마련하기 위해 노력하고 있다. 최근 연구들에서는 사고 사례나 발생 가능한 시나리오에 따른 위험들을 분류하여 제시하고 있다. 하지만, 연구마다 다양한 위험 분류 체계를 제시하고 있어, 합의된 AI 안전 평가 체계를 마련하기에는 아직 더 많은 논의가 필요한 상황이다. 미국, 영국, 일본 등은 AI 시스템의 안전성 확보를 위해 AI 안전연구소를 통해 AI 안전 및 위험 연구, 위험성 평가, 안전한 AI 개발·구현을 위한 기준 마련 등의 기능을 수행 중이다. 대표적으로 AI 위험 관리 프레임워크(美), AI 안전에 관한 과학 보고서(英) 등을 통해 AI의 위험에 대한 대응 방안을 제시하고 있으며, 한국도 설립될 AI 안전연구소를 통해 AI 안전 수요에 대응할 예정이다. 본 보고서에서는 AI 안전과 관련된 개념을 정리하고, 최근 수행된 연구들이 제시하고 있는 AI 위험 유형 및 요인을 정리하여, 사례와 함께 분석함으로써 앞으로의 AI 위험 대응에 관한 정책적 시사점을 제공하고자 한다. Executive Summary Advancements in artificial intelligence (AI) technology have accelerated, particularly following the launch of ChatGPT, which has triggered a competitive race in the development of large language models (LLMs). The performance of currently available AI models has already surpassed human capabilities in certain domains, leading to a rapid expansion in their areas of application. General-purpose AI, especially those based on generative AI, is now being utilized across various industries, including manufacturing, healthcare, finance, and education. However, while AI-based services offer numerous benefits, the increased accessibility of high-performance AI has also raised concerns about new risks. As a result, alongside existing discussions on AI reliability, accountability, and ethics, "AI safety" has become an increasingly critical issue. Given that risks such as malicious use and malfunctions are already causing real harm, there is an urgent need for measures to ensure AI safety. Governments, corporations, and other stakeholders are working to ensure the safety of AI by identifying risk factors, establishing evaluation criteria, and developing measures for the safe development and deployment of AI, as well as for responding to potential risks. Recent studies have classified risk factors based on accident cases and possible scenarios. However, since each study presents different classification, further discussion is needed to establish a common AI safety evaluation framework. The United States, the United Kingdom, and Japan are addressing safety of AI through dedicated agency, which focus on AI risk research, risk assessments, and the development of standards for the safe creation and implementation of AI systems. Notable examples include the AI Risk Management Framework (USA) and the Science Report on AI Safety (UK), both of which propose strategies for addressing AI-related risks. Korea also plans to address AI safety demands through the establishment of its own AI safety institute. This report aims to organize the concepts related to AI safety, summarize the risk factors identified in recent studies, and analyze these factors along with real-world cases to offer policy implications for future AI risk response strategies.
목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 법적 구속력 갖춘 유럽평의회의 AI 국제조약에 서명 ▹ 미국 캘리포니아 주지사, AI 규제법안 「SB1047」에 거부권 행사 ▹ 호주 의회, 동의 없는 딥페이크 음란물 공유를 처벌하는 법안 통과 ▹ UN, ‘인류를 위한 AI 거버넌스’ 최종 보고서 발표 2. 기업/산업 ▹ 앤스로픽과 오픈AI, 미국 AI 안전연구소와 모델 평가 합의 ▹ 오픈AI, 추론에 특화된 AI 모델 ‘o1-프리뷰’ 출시 ▹ 메타의 AI 모델 ‘라마’, 다운로드 수 3억 5천만 회 달성하며 활발한 생태계 형성 ▹ 구글, AI 신기능 ‘젬스’와 이미지 생성 모델 ‘이마젠 3’ 출시 ▹ 구글, C2PA 표준 적용으로 AI 생성물의 투명성 향상 추진 ▹ 마이크로소프트, 오픈소스 소형 언어모델 ‘파이 3.5’ 공개 ▹ 하이퍼라이트, 오류를 자체 수정하는 ‘리플렉션 70B’ 오픈소스 모델 공개 3. 기술/연구 ▹ 영국 옥스퍼드大 연구 결과, 글로벌 AI 칩 분포의 양극화 현상 심각 ▹ 메타, LLM의 품질과 정확성을 평가하는 ‘자가학습 평가자’ 개발 ▹ 코히어 연구, LLM 사전학습에 코드 데이터 포함 학습시 LLM의 성능 향상 확인 ▹ 중국 연구진, 재판 시뮬레이션으로 LLM의 법률 역량 향상하는 기법 개발 ▹ AI 연구자들, 벤치마크 ‘챗봇 아레나’의 편향과 투명성 부족 지적 4. 인력/교육 ▹ 영국 정부, AI 교육기업 대상 ‘콘텐츠 스토어’ 프로젝트 발표 ▹ 유고브 조사 결과, 미국 근로자들 AI의 일자리 영향에 엇갈린 의견 표시 ▹ IBM 기업가치연구소, ‘생성 AI 시대 인적 잠재력 재해석’ 보고서 발간 ▹ 서비스나우, AI 도입으로 영국에서 61만 개 일자리 창출 전망 Ⅱ. 주요 행사 ▹Cypher 2024 21 ▹AI World Congress 2024 21 ▹ML and AI Model Development and Governance 21
목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 생성 AI의 공정한 경쟁환경 조성을 위한 공동 성명 발표 ▹ 미국 통신정보관리청, 오픈소스 기반모델의 위험에 대한 모니터링 촉구 ▹ 중국 베이징市, AI 플러스 행동계획(2024~2025) 발표 ▹ 독일 연방정보기술보안청, AI 시스템의 투명성에 관한 백서 발간 2. 기업/산업 ▹ 오픈AI, AI 기반 검색엔진 ‘서치GPT’ 프로토타입 공개 ▹ 메타, 폐쇄형 첨단 AI 모델과 대등한 성능의 오픈소스 모델 ‘라마 3.1’ 공개 ▹ 구글, 소형 오픈소스 모델 ‘젬마2 2B’ 공개 ▹ 메타와 구글, 환각과 딥페이크 등 AI 이슈 대응 ▹ 피규어AI, 최신 휴머노이드 로봇 ‘피규어 02’ 공개 ▹ xAI, ‘그록-2’ 출시 이후 이미지 생성 논란 확산 3. 기술/연구 ▹ 미국 국가과학기술위원회, 2020년~2024년 AI R&D 경과보고서 발간 ▹ 구글 딥마인드, 생성 AI의 오용 현황 분석 ▹ 애플, 애플 인텔리전스의 기반모델 개발 프로세스 공개 ▹ 네이처, AI 생성 데이터로만 학습한 AI 모델의 붕괴 위험 증가 경고 논문 게재 ▹ 영국 에이다 러브레이스 연구소, AI 안전성 평가의 개선 필요성 제기 ▹ 사카나 AI, 과학 연구를 자동화하는 ‘AI 사이언티스트’ 개발 4. 인력/교육 ▹ 유네스코, 교육에서 생성 AI의 기회와 위험 분석 ▹ 세계경제포럼 4차산업혁명센터, AI로 인한 기술 실업 가능성이 희박하다고 전망 ▹ AI 기반 ICT 인력 컨소시엄, ICT 일자리의 92%에 AI의 영향 예측 ▹ 오픈AI, 챗GPT 부정행위 탐지 도구 개발 후 공개 유보 Ⅱ. 주요 행사 ▹Generative AI World 2024 ▹AI Expo Europe ▹Big Data & AI World
본고는 생성형 AI로 인한 소프트웨어 개발 프로세스별 개발 업무 변화를 살펴보고, 이것이 소프트웨어(Software, 이하 SW) 개발자 직무에 어떠한 영향을 주는지와 그 시사점에 대해 논하려고 한다. 생성형 AI란, 텍스트, 오디오, 이미지, 동영상 형태의 새로운 콘텐츠를 생성하도록 설계된 인공지능 모델이다. 생성형 AI라는 화두를 세상에 내놓은 OpenAI사의 ChatGPT는 지금까지 출시된 애플리케이션 중 가장 빠른 속도로 이용자 수가 늘어나고 있다. 이러한 경향은 생성형 AI의 활용이 업무 효율성을 향상할 것으로 기대되기 때문이며, 특히 개발환경의 변화로 인해 개발자의 역할 또한 변화할 것으로 전망된다. SW 개발은 SW 요구분석, 설계, 구현 및 시험 등의 복잡한 프로세스로 구성되어 있다. 또한 고객사의 개발 및 운영 환경, 성능 및 보안 요구 수준, 유지보수성 등 다양한 요소를 고려해야 하는 정형화하기 어려운 업무이기 때문에 생성형 AI가 개발자 업무에 주는 영향은 예상만큼 크지 않았다. SW개발 단계 중 SW 구현과 SW 시험 단계에는 생성형 AI 활용이 가능하다. 생성형 AI를 이용하면 SW 구현 단계에서는 코드 생성, 코드 자동완성, 주석 작성, 코드 번역, 리버스 엔지니어링 등이 가능하다. SW 시험은 시간이 많이 소요되고 반복적인 업무가 많아, 생성형 AI 활용에 가장 효과적인 단계이다. 반면에 고객과의 커뮤니케이션이 중요한 SW 요구분석 단계와 최신 기술을 포함한 복잡한 기술을 연계하여 수행해야 하는 SW 설계 단계는 생성형 AI의 활용이 쉽지 않다. 전반적으로 생성형 AI 개발도구의 활용은 개발자의 생산성 향상에 효과가 있으나, 개발 단계, 개발하는 제품이나 서비스의 종류, 개발자의 수준 등에 따라 생성형 AI의 활용 방법 및 효과의 차이가 큰 것으로 분석되었다. 개발도구로써 생성형 AI의 활용은 초급개발자보다 생성형 AI 환각에 의한 잘못된 정보를 빠르게 판단할 수 있는 중급개발자의 생산성을 더 높이는 것으로 확인되었다. 반면에 초급개발자는 생성형 AI를 프로그램 언어 학습에 유용하게 활용할 수 있으며, 초급개발자 수준이 빠르게 높아질 것으로 예측된다. SW개발자의 작업에서 생성형 AI의 영향을 받는 작업은 일부분이다. 개발자 직무를 수행하기 위해서는 데이터 분석, SW 및 DB 설계, 시스템 결정 및 성능 개선 등 개발 관련 기술 업무 이외에도, 동료와 업무 협의, 이슈 해결 등의 소프트스킬이 필요한 작업이 있어 개발자 업무와 개발 생산성에 대한 생성형 AI의 영향 정도를 정량적으로 파악하기는 어렵다. 생성형 AI 시대에 대비하기 위해 개발자 수준에 따른 세분화된 생성형 AI 활용 전략 마련, 직무별로 상이한 생성형 AI의 영향을 고려한 개발자 양성 규모 검토가 필요하다. 또한 생성형 AI를 활용하면서 직면할 수 있는 저작권 문제, 프라이버시 문제, 모델 오남용 문제에 대해 적절히 대응할 수 있도록 기본적인 AI 윤리 교육에 대한 강화가 시급하다. Executive Summary In this article, we'll take a look at how generative AI is changing the development process and discuss the implications for developer jobs. Generative AI is an AI model designed to generate new content in the form of text, audio, image and video. The use of generative AI is growing at a rapid pace. This is because it is expected to improve work efficiency, and the role of developers is also expected to change due to changes in the development environment. SW development consists of a complex process of SW requirements analysis, design, implementation, and testing. In addition, the impact of generative AI on developers' work is not as large as expected because it is a difficult task to formalize that requires consideration of various factors such as the customer's development environment, performance and security requirements, and maintainability. Generative AI can be used for SW implementation and SW testing during the SW development phase. On the other hand, the SW requirement analysis phase, which requires communication with customers, and the SW design phase, which involves complex technologies including the latest technologies, are not easy to use generative AI. Overall, the use of generative AI development tools is effective in improving developers' productivity, but there are large differences in how generative AI is used and its effectiveness depending on the development stage, the type of product or service being developed, and the level of developers. Only a small part of a SW developer's work is affected by generative AI. In addition to technical tasks related to development, such as data analysis, SW and DB design, system performance improvement, developers also need soft skills, such as collaborating with colleagues, so it is difficult to quantify the extent of the impact of generative AI on developer work and development productivity. In order to prepare for the era of generative AI, it is necessary to prepare a strategy for using generative AI that is categorized by developer level and review the scale of developer training considering the impact of generative AI by job function. It is also urgent to strengthen basic AI ethics education so that developers can respond appropriately to copyright, privacy, and model misuse issues that may arise while utilizing generative AI.
인공지능(AI) 기술은 급격한 속도로 발전해왔으며, 특히 2020년대에 들어서면서 초거대 AI 모델이 경쟁적으로 등장하고 있다. 여기서 초거대 AI 모델은 대용량 연산 인프라를 바탕으로 방대한 데이터를 학습해 인간처럼 종합적인 인지·판단·추론이 가능해진 ‘큰 규모’의 AI 모델을 의미한다. 특정 목적에 따라 개별의 데이터를 수집·학습하여 만들어지는 기존의 일반 AI는 학습된 과업(task)에 한하여 수행이 가능한 반면, 초거대 AI는 더욱 복잡하고 광범위한 분야에서 과업을 수행할 수 있다. 본고에서는 2020년부터 2023년까지 전 세계에 출시된 초거대 AI 모델 현황을 분석하고, 글로벌 기술 동향과 트렌드를 살펴보았다. 구체적으로, 미국 민간 연구단체인 ‘EPOCH AI’가 최근 업데이트(‘24년 7월)한 초거대 AI 모델 현황 DB를 통해 데이터를 수집하고, 2020년부터 2023년까지 출시된 초거대 AI 모델에 대해 출시년도, 국가, 분야, 과업유형, 개발형태, 개발조직 유형 등의 다양한 기준으로 정리·분석하였다. 우리나라 현황에 대해서도 주목하고, AI 분야에 대한 정책적 시사점을 도출하였다. Executive Summary Artificial
목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 국제통화기금(IMF), 세계 AI 준비 현황지도 공개 ▹ OECD, AI 분야의 데이터 거버넌스와 개인정보보호 협력 연구 ▹ 글로벌 AI 파트너십(GPAI), OECD-GPAI 통합 운영에 합의 ▹ 과학기술정보통신부, AI 분야 규제샌드박스 과제 적극 발굴 추진 ▹ 프랑스 경쟁관리국, 생성 AI 분야의 경쟁 활성화를 위한 권고사항 제시 ▹ 중국 정부, AI 표준화 체계 구축 지침 발표 ▹ 대만 국가과학기술위원회, AI 기본법 초안 발표 2. 기업/산업 ▹ EU 경쟁 당국, 구글-삼성 AI 협업에 반독점 조사 검토 ▹ 2024년 상반기 유럽 생성 AI 스타트업 투자 규모 19억 유로 ▹ 구글, 제미나이 1.5 플래시 및 오픈소스 모델 젬마 2 정식 출시 ▹ 오픈AI, 비용 효율적인 소형 AI 모델 ‘GPT-4o 미니’ 출시 ▹ 바이두, 최신 AI 모델 ‘어니 4.0 터보’ 공개 ▹ 중국 상하이市 법학회, 세계인공지능대회에서 휴머노이드 로봇 거버넌스 지침 발표 ▹ LG AI연구원, 오픈소스 AI 모델 ‘엑사원(EXAONE) 3.0’ 공개 3. 기술/연구 ▹ 세계경제포럼, 과학적 발견을 위한 AI 등 10대 신흥기술 선정 ▹ ETRI, 데이터 분석 및 머신러닝을 위한 데이터 품질 국제표준 제정 ▹ 구글 딥마인드, 제미나이를 활용한 자연어 기반 로봇 학습 연구 결과 공개 4. 인력/교육 ▹ SAS 조사, 생성 AI 사용은 중국이 가장 앞서나 성숙도는 미국이 우위 Ⅱ. 주요 행사 ▹ECCV 2024 ▹World Summit AI ▹AI WORLD 2024
생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.
목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ AI 서울 정상회의, AI 안전•혁신•포용 강조한 서울 선언 채택 ▹ 대한민국 정보, 범부처 합동 새로운 디지털 질서 정립 추진계획 발표 ▹ 유럽연합 집행위원회, 'AI 법' 집행기관으로 AI 사무국 운영 ▹ 유럽개인정보보호감독기구, EU 기관 대상 생성 AI 지침 발간 ▹ EU AI 법의 법적 불확실성과 과잉 규제에 대한 우려 제기돼 ▹ 미국 법무부와 연방거래위원회, AI 기업 반독점 조사에 착수 2. 기업/산업 ▹ OECD, ‘디지털경제전망 2024’ 보고서에서 AI의 현황과 미래 전망 제시 ▹ 구글과 인텔 등 8개 빅테크, AI 칩의 상호연결을 위한 통신 표준 개발에 합의 ▹ 애플, WWDC 2024에서 AI 신기능 ‘애플 인텔리전스’ 공개 ▹ 앤스로픽, 최신 AI 모델 ‘클로드 3.5 소네트’ 출시 ▹ 프랑스의 미스트랄AI, 6억 유로 규모의 투자 유치 ▹ 오픈AI, 데이터 분석 기업 록셋 인수 3. 기술/연구 ▹ 영국 AI 안전연구소, 첨단 AI 모델의 안전 테스트 결과 공개 ▹ 중국 정부, AI와 컴퓨팅 표준화를 위한 3개년 계획 발표 ▹ 중국 표준화기술위원회, 생성 AI 보안 요구사항 표준 초안 공개 ▹ 오픈AI, GPT-4의 신경망 패턴을 파악해 해석 가능성 높여 ▹ 구글 딥마인드, 영상에 어울리는 오디오를 생성하는 V2A 기술 공개 ▹ MIT 연구진, 동영상 시청만으로 언어를 학습하는 알고리즘 개발 4. 인력/교육 ▹ 전미경제연구소 연구, 미국에서 10년간 AI로 인한 GDP 증가는 1% 내외 ▹ 방통위 조사 결과, 2023년 국민 10명 중 1명이 생성 AI 이용 ▹ 서울시, AI 분야 산‧학‧연 협력 거점으로 ‘서울 AI 허브’ 개관 ▹ 아마존, 글로벌 생성 AI 스타트업 활성화에 2억 3천만 달러 지원 ▹ 푸단⼤ 등 중국 대학들, 전교생 대상 AI 교육과정 확대 Ⅱ. 주요 행사 ▹ACL 2024 ▹IJCAI-24 ▹ICANN 2024