ai 태그를 찾았습니다.
  • 목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ EU 공동연구센터, 공공 부문의 AI 역량 및 거버넌스에 관한 보고서 발간 ▹ 유럽평의회, AI 시스템의 위험과 영향력 평가 방법론 채택 ▹ 영국 정부, 사이버 안보 위협에 대응한 AI안보연구소 신설 계획 발표 ▹ 그리스 AI 고위자문위원회, 국가 AI 정책 제안서 발표 2. 기업/산업 ▹ 아마존, 자체 개발 생성 AI 모델과 AI 신기능 대거 공개 ▹ 오픈AI, ‘챗GPT 프로’ 및 동영상 생성 AI ‘소라’ 출시 ▹ 구글, 제미나이 2.0 플래시 출시와 함께 AI 에이전트 3종 공개 ▹ 마이크로소프트, 코파일럿 신기능과 AI 에이전트 공개 ▹ 퍼플렉시티, 유료 사용자 대상 AI 검색에 쇼핑 기능 도입 ▹ 앨런AI연구소, 완전 개방형 소형 언어모델 ‘올모 2’ 공개 ▹ LG AI연구원, 엑사원 3.5 기반모델 3종 오픈소스로 공개 ▹ 엔비디아, 텍스트-오디오 생성 AI 모델 ‘푸가토’ 발표 3. 기술/연구 ▹ 스탠포드大 인간중심AI연구소, 글로벌 AI 활동성 도구 공개 ▹ ML커먼스, AI 안전성 평가 벤치마크 ‘AI루미네이트’ 발표 ▹ 구글 딥마인드, 3D 가상 세계 생성하는 AI 모델 ‘지니 2’ 개발 ▹ 알리바바, 추론 AI 모델 ‘마르코-o1’ 공개 4. 인력/교육 ▹ OECD, 생성 AI를 활용한 노동시장 과제 해결을 모색한 보고서 발간 ▹ 리눅스 재단 AI 도입 현황 조사 결과, 생성 AI 인프라의 평균 41%가 오픈소스로 확인 ▹ 세계경제포럼, 인재 부족 문제에 대응한 AI 교육 형평성 강조 ▹ 마이크로소프트, AI 도입 기업들의 5대 트렌드 발표 Ⅱ. 주요 행사 ▹World Economic Forum ▹CES ▹AAAI-25
  • 국내 소프트웨어(SW) 개발자 채용시장은 팬데믹 이후 디지털 전환의 가속화, 경기침체, 그리고 생성형 AI의 등장 등 여러 요인에 의해 큰 변화를 겪어왔다. 팬데믹 기간동안 전 산업에서 디지털 전환이 빠르게 이루어지면서 SW 개발자에 대한 수요가 급격히 증가했고, 이로 인해 구직자가 유리한 시장 환경이 조성되었다. 그러나 이후 고금리와 경기 침체가 이어지면서 벤처와 스타트업 투자가 위축되었고, 이는 IT업계 채용시장에도 부정적인 영향을 미쳐 SW 개발자 채용시장이 크게 위축되었다. 2022년 말 등장한 생성형 AI는 SW 개발자의 생산성을 높이는 한편, SW개발자 채용 수요와 역할, 그리고 요구 역량 전반에 직·간접적인 영향을 미치기 시작했다. 이에 따라, 본 연구진은 국내 현업에 종사하는 SW 개발자를 대상으로 심층 인터뷰를 진행하였으며, 인터뷰의 주요 결과는 다음과 같다. 현재 SW 개발자 채용시장은 위축된 상태이나, 생성형 AI로 인한 직접적인 채용 감소는 현장에서 뚜렷하게 체감되지 않고 있다. 한편, 생성형 AI는 초급 SW 개발자에게 기회와 위협을 동시에 제공하고 있다는 의견이 제시되었다. 단순 반복 작업이 자동화되면서 초급 SW 개발자의 역할 축소와 채용 수요 감소 우려가 제기되지만, 동시에 생성형 AI는 초급 개발자의 학습 속도와 역량 향상에 기여하여 이들이 더 넓은 업무를 수행할 수 있는 기회를 제공하고 있다고 논의되었다. SW 개발자 채용 과정과 요구 역량에도 변화가 예상된다. 현업 개발자들은 코딩 테스트의 필요성에 대해 의견이 갈리는 상황이며, 실무 역량과의 연관성을 더욱 강화해야 한다는 지적이 있다. 또한, 생성형 AI 도입으로 프롬프트 엔지니어링이 새로운 역량으로 주목받고 있으나, 이를 SW개발자의 본질적 역량으로 강조하기에는 시기상조라는 평가가 다수다. 생성형 AI 도구의 활용이 확산되면서 초급 SW 개발자의 역량이 상향 평준화될 것으로 전망하는 의견이 제시되었다. 또한, 생성형 AI로 인해 SW개발자 요구 역량의 본질이 변화하지는 않을 것으로 전망되나, AI 도구 활용 시 정보 판별 능력이 새롭게 요구되는 역량으로 부각될 가능성이 있다. 이상의 연구 결과를 바탕으로 본 연구진은 향후 SW개발자의 요구 역량, 역량 평가, 역할 변화 등에 대한 시사점을 도출하였다. 나아가, SW 개발자 요구 역량 및 이에 따른 채용 변화와 관련한 정부와 개발자들의 대응 방향에 대해 제언하였다. The software (SW) developer job market in South Korea has experienced significant changes influenced by various factors, including the acceleration of digital transformation during the pandemic, economic downturns, and the emergence of generative AI. The introduction of generative AI in late 2022 has further reshaped this landscape by enhancing developer productivity while indirectly and directly impacting hiring demand, roles, and required competencies. To investigate these developments, this study conducted in-depth interviews with SW developers currently active in the industry. The key findings are summarized as follows: Although the SW developer job market remains constrained, industry practitioners have not distinctly perceived direct hiring reductions attributable to generative AI. However, generative AI has been identified as simultaneously presenting both opportunities and challenges for junior SW developers. While the automation of repetitive tasks has raised concerns about the reduction of roles and hiring demand for junior developers, it has also been noted that generative AI supports faster learning and skill enhancement, enabling these developers to take on broader responsibilities. Interviewees expressed divergent opinions on the necessity of coding tests, highlighting the need for stronger alignment with practical skill requirements. Additionally, while prompt engineering has emerged as a noteworthy competency with the adoption of generative AI, they believe it is premature to consider it a core skill for SW developers. The growing adoption of generative AI tools is expected to standardize and elevate the baseline competencies of junior SW developers. Although the fundamental skills required for SW developers are unlikely to change significantly, the ability to critically evaluate information when using AI tools is likely to emerge as a newly emphasized competency. Based on these findings, this study outlines implications for evolving competency requirements, assessment methods, and role changes for SW developers. Furthermore, it offers recommendations for government policies and developer strategies to address the shifts in required skills and hiring practices driven by generative AI.

  • 최근 인공지능의 부상과 함께 인공지능의 기능적 한계, 잠재적 위험에 대한 우려도 고조되고 있다. 이러한 상황에서 2023년 11월에는 세계 최초로 세계 정상들이 참여한 ‘AI안전성 정상회의’가 개최되었고, 2024년 5월에는 후속 회의로서 ‘AI 서울 정상회의’도 열렸다. 2024년 8월에는 2021년부터 발의된 EU의 인공지능법이 발효되었다. 앞으로 믿고 쓸 수 있는 인공지능, 인간에 무해한 인공지능의 개발과 보급을 위한 정책적 노력들이 강화될 것으로 예측된다. 하지만, 정책적 대상으로서 인공지능 안전의 개념과 범위는 모호하다. 비슷한 개념으로 인공지능 신뢰성, 인공지능 윤리, 인공지능 견고성, 책임 있는 인공지능 등이 혼재되어 사용되고 있다. 따라서, 무엇보다 ‘인공지능 안전성’에 대한 개념에 대한 합의가 필요한 상황이며, 그 대상이 기술적 영역에 국한되는지, 기업의 책무와 윤리적 영역까지도 포함하는지 개념의 범위에 대한 검토도 필요하다. 이에 본 연구에서는 최근 화두가 되고 있는 ‘인공지능 안전성’을 다른 유사 개념들과 비교하여 그 개념을 정의하고, 그 개념이 포함하는 범위에 대해서도 조망한다. 이를 위해 현재까지 제정된 ISO/IEC의 국제표준 정의와 EU, OECD 등 국제 협력 기구에서의 정의, 그리고 최근 설립된 미국, 영국 등 AI안전연구소들이 준용하는 개념들을 살펴보았다. 이를 토대로 향후 AI 안전성을 확보하기 위해 정책적 시사점을 정리하였다. Executive Summary With the recent rise of artificial intelligence (AI), concerns regarding its functional limitations and potential risks have been increasing. In response, November 2023 saw the world's first AI Safety Summit with the participation of global leaders, followed by the Seoul AI Summit in May 2024. In August 2024, the EU's Artificial Intelligence Act, initially proposed in 2021, came into effect. It is anticipated that policy efforts to develop and promote trustworthy and harmless AI will be strengthened in the future. However, the concept and scope of AI safety as a policy target remain unclear. Similar terms such as AI trustworthiness, AI ethics, AI robustness, AI reliablity, and responsible AI are often used interchangeably. Thus, it is crucial to reach a consensus on the concept of 'AI safety' and to examine whether it is limited to technical aspects or includes corporate responsibility and ethical considerations. This study compares the recently prominent concept of 'AI safety' with similar terms to define its scope and meaning. To do so, we review the definitions provided by ISO/IEC international standards, international organizations like the EU and OECD, and the concepts adopted by newly established AI safety research institutes in the US and UK. Based on this analysis, the study outlines policy implications for ensuring AI safety in the future.
    • 2024.12.19
    • 1074
    AI반도체 등 AI 인프라에 대해 대규모 투자가 이루어지고 있지만, 투자 대비 수익성에 대한 의문이 제기되는 상황에서, SW서비스 기업들이 실질적인 수익을 창출할 수 있는 AI 기반 신서비스 도입모델이 어떤 모습인지 검토할 필요성이 있다. 기존 SW기업들은 주로 기존 소프트웨어에 Copilot 기능을 부가하여 기존의 업무를 보완하는 수준에서 AI를 도입하고 있다. ERP나 CRM 등의 소프트웨어에 챗봇을 통합해 기본적인 업무 생산성을 높이는 데 초점을 맞추고 있는 것이다. 반면, 스타트업들은 AI를 활용해 산업 데이터 분석과 자동화 솔루션 등에서 보다 혁신적인 시도를 통해 새로운 가치를 창출하려 하고 있다. 이러한 상황에서 AI-Native 서비스는 기존 SW서비스를 뛰어넘는 새로운 가능성을 제시하고 있다. 이는 기존 시스템에 의존하지 않고 처음부터 AI에 의존하는 서비스 모델로, 클라우드와 결합해 확장성과 유연성을 강화하고 있다. 이 보고서는 AI 기술을 활용한 산업별 특화 서비스와 새로운 데이터 활용 방식을 통해 비즈니스 모델의 혁신 가능성을 탐구한다. SW기업들은 AI서비스 기업으로의 이행을 준비하는 과정에서, 과거 기술 발전에서 얻은 교훈을 활용해야 한다. AI-Native 서비스를 개발하여 새로운 시장을 장악하는 것이 성공적인 수익화를 이끄는 전략임을 역사적으로 확인할 수 있다. 이를 위해 기업들은 데이터를 효과적으로 활용하고, 기존 시스템과 AI 중심 아키텍처의 통합을 점진적으로 추진하며, 산업별 특화 애플리케이션 개발을 통해 AI 기술의 잠재력을 극대화할 필요가 있다. Executive Summary Large-scale investments are being made in AI infrastructure, such as AI semiconductors, but concerns about the ROI of these investments have arisen. In this context, there is a need to examine what AI-driven new service adoption models look like for software service companies to generate tangible revenue. Incumbent software companies typically adopt AI by augmenting existing software with Copilot features to complement their existing operations. These efforts primarily focus on enhancing productivity in basic tasks by integrating chatbots onto existing software like ERP or CRM systems. In contrast, startups are leveraging AI to create new value through more innovative approaches, such as industrial data analysis and automation solutions. Amid these developments, AI-Native services present new possibilities that surpass traditional software services. These service models are designed to depend on AI from the outset rather than relying on legacy systems, combining with cloud infrastructure to enhance scalability and flexibility. This report explores the potential for business model innovation through AI-driven industry-specific services and novel data utilization methods. As software companies transition into AI service providers, they must draw lessons from past technological advancements. Historically, developing AI-Native services to dominate new markets has proven to be a strategic pathway to successful monetization. To achieve this, companies need to effectively utilize data, gradually integrate AI-centric architectures with existing systems, and develop industry-specific applications to fully realize the potential of AI technologies.
    • 2024.12.10
    • 1866

    목차 Table of Contents 1. AI 에이전트(AI Agent)의 도입 및 부상 2. AI 에이전트 주요 사례 3. AI 에이전트 관련 이슈 및 전망 4. 참고 문헌

  • 목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 백악관, AI 기술 활용에 관한 최초의 국가안보 각서 발표 ▹ 미국 재무부, AI를 포함한 첨단기술에 대한 對중국 투자 제한 행정규칙 발표 ▹ 호주 국가AI센터, 기업의 AI 영향 평가를 지원하는 프레임워크 발표 ▹ OECD, 기업 간 AI 격차 증대에 포용적 디지털 혁신 강조하는 정책 브리프 발간 ▹ 국제 AI안전연구소 네트워크 출범 및 국내 AI안전연구소 설립 ▹ 캐나다, 혁신과학경제부 산하에 AI안전연구소 설립 2. 기업/산업 ▹ 오픈AI, 챗GPT에 실시간 검색 기능 추가해 유료 사용자에 우선 공개 ▹ 오픈AI, 슈퍼얼라인먼트 팀에 이어 범용 AI 대비팀도 해체 ▹ 앤스로픽, ‘클로드 3.5 소네트’ 업데이트로 AI 에이전트 기능 추가 ▹ 메타와 엔스로픽, 미국 정부 기관에 군사·안보 목적의 AI 모델 제공 ▹ 오픈AI, 브로드컴 및 TSMC와 제휴해 자체 AI 칩 개발 추진 ▹ 가트너, 2027년까지 AI 데이터센터의 40%가 전력 부족을 겪을 것으로 예측 3. 기술/연구 ▹ 가트너, 2025년 10대 전략 기술 트렌드 예측 ▹ 오픈소스 이니셔티브, 오픈소스 AI의 정의 발표 ▹ 구글 딥마인드, 인간의 이중 사고방식 적용한 AI 에이전트 시스템 연구 결과 발표 ▹ 텐센트, 오픈소스 최대 규모 MoE 모델 ‘훈위안-라지’ 공개 ▹ AI 기업들, 사전 훈련을 통한 LLM 성능 한계에 추론 연구에 주목 4. 인력/교육 ▹ 포레스터의 2025년 AI 예측, AI에 대한 투자 조정 불가피 ▹ 세일즈포스, 소비자의 기업 신뢰도와 AI 에이전트 인식 조사 결과 발표 ▹ 중국 베이징市 정부, 교육 분야의 AI 응용 활성화 지침 발표 Ⅱ. 주요 행사 ▹CES 2025 ▹AI & Big Data Expo Global 2025 ▹AAAI 2025
  • 목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 민권위원회, 연방정부의 얼굴인식 기술 사용에 따른 민권 영향 분석 ▹ 미국 백악관 예산관리국, 정부의 책임 있는 AI 조달을 위한 지침 발표 ▹ 유로폴, 법 집행에서 AI의 이점과 과제를 다룬 보고서 발간 ▹ OECD, 공공 부문의 AI 도입을 위한 G7 툴킷 발표 ▹ 세계경제포럼, 생성AI 시대의 거버넌스 프레임워크 제시 2. 기업/산업 ▹ CB인사이츠 분석 결과, 2024년 3분기 벤처 투자 31%가 AI 스타트업에 집중 ▹ 메타, 동영상 생성AI 도구 ‘메타 무비 젠’ 공개 ▹ 메타, 이미지와 텍스트 처리하는 첫 멀티모달 AI 모델 ‘라마 3.2’ 공개 ▹ 앨런AI연구소, 벤치마크 평가에서 GPT-4o 능가하는 성능의 오픈소스 LLM ‘몰모’ 공개 ▹ 미스트랄AI, 온디바이스용 AI 모델 ‘레 미니스트로’ 공개 ▹ 카카오, 통합 AI 브랜드 겸 신규 AI 서비스 ‘카나나’ 공개 3. 기술/연구 ▹ 2024년 노벨 물리학상과 화학상, AI 관련 연구자들이 수상 ▹ 미국 국무부, AI 연구에서 국제협력을 위한 ‘글로벌 AI 연구 의제’ 발표 ▹ 일본 AI안전연구소, AI 안전성에 대한 평가 관점 가이드 발간 ▹ 구글 딥마인드, 반도체 칩 레이아웃 설계하는 AI 모델 ‘알파칩’ 발표 ▹ AI21 CEO, AI 에이전트에 트랜스포머 아키텍처의 대안 필요성 강조 4. 인력/교육 ▹ MIT 산업성과센터, 근로자 관점에서 자동화 기술의 영향 조사 ▹ 다이스 조사, AI 전문가의 73%는 2025년 중 이직 고려 ▹ 가트너 예측, AI로 인해 엔지니어링 인력의 80%가 역량 향상 필요 ▹ 인디드 조사 결과, 생성AI가 인간 근로자 대체할 가능성은 희박 Ⅱ. 주요 행사 ▹NeurIPS 2024 ▹GenAI Summit Maroc 2024 ▹AI Summit Seoul 2024

  • 최근 몇 년간 인공지능(AI) 기술의 발전은 챗GPT의 출시 이후 거대 언어 모델(LLM) 개발 경쟁을 거치며 가속화되었다. 현재 공개된 AI 모델들의 성능은 특정 분야에서는 이미 인간의 능력을 뛰어넘었고, 이에 따라 활용 범위 또한 급격히 확장되었다. 특히 생성 AI를 기반으로 하는 범용 AI는 제조, 의료, 금융, 교육 등의 여러 산업 분야에서 활용되고 있다. 하지만, AI 기반의 서비스들이 다양한 이점을 제공하는 한편, 고성능 AI에 대한 접근성의 향상으로 인해 새로운 위험에 대한 우려 또한 증가했다. 이에 따라, 기존 AI 신뢰성, 책임성, 윤리 등의 논의와 더불어, ‘AI 안전’이 더욱 중요해졌다. 악의적인 사용, 오작동과 같은 위험들이 실제 피해까지 야기하고 있는 만큼, AI의 안전 확보를 위한 대응책 마련이 시급해진 상황이다. 앞으로 등장할 더 강력한 성능을 가진 프론티어 AI 모델은 의도치 않은 결과의 도출, 제어 불가, 사회적 악영향 등 여러 잠재적인 위험을 포함할 가능성이 높아, 규제와 지침 마련을 비롯하여 다양한 국제적 노력이 이루어지고 있다. 각 국의 정부, 기업 등 이해관계자들은 AI의 안전성을 확보하기 위해, 위험을 식별하여 평가 기준을 마련하고, 안전한 AI 개발 및 배포와 위험 대응책을 마련하기 위해 노력하고 있다. 최근 연구들에서는 사고 사례나 발생 가능한 시나리오에 따른 위험들을 분류하여 제시하고 있다. 하지만, 연구마다 다양한 위험 분류 체계를 제시하고 있어, 합의된 AI 안전 평가 체계를 마련하기에는 아직 더 많은 논의가 필요한 상황이다. 미국, 영국, 일본 등은 AI 시스템의 안전성 확보를 위해 AI 안전연구소를 통해 AI 안전 및 위험 연구, 위험성 평가, 안전한 AI 개발·구현을 위한 기준 마련 등의 기능을 수행 중이다. 대표적으로 AI 위험 관리 프레임워크(美), AI 안전에 관한 과학 보고서(英) 등을 통해 AI의 위험에 대한 대응 방안을 제시하고 있으며, 한국도 설립될 AI 안전연구소를 통해 AI 안전 수요에 대응할 예정이다. 본 보고서에서는 AI 안전과 관련된 개념을 정리하고, 최근 수행된 연구들이 제시하고 있는 AI 위험 유형 및 요인을 정리하여, 사례와 함께 분석함으로써 앞으로의 AI 위험 대응에 관한 정책적 시사점을 제공하고자 한다. Executive Summary Advancements in artificial intelligence (AI) technology have accelerated, particularly following the launch of ChatGPT, which has triggered a competitive race in the development of large language models (LLMs). The performance of currently available AI models has already surpassed human capabilities in certain domains, leading to a rapid expansion in their areas of application. General-purpose AI, especially those based on generative AI, is now being utilized across various industries, including manufacturing, healthcare, finance, and education. However, while AI-based services offer numerous benefits, the increased accessibility of high-performance AI has also raised concerns about new risks. As a result, alongside existing discussions on AI reliability, accountability, and ethics, "AI safety" has become an increasingly critical issue. Given that risks such as malicious use and malfunctions are already causing real harm, there is an urgent need for measures to ensure AI safety. Governments, corporations, and other stakeholders are working to ensure the safety of AI by identifying risk factors, establishing evaluation criteria, and developing measures for the safe development and deployment of AI, as well as for responding to potential risks. Recent studies have classified risk factors based on accident cases and possible scenarios. However, since each study presents different classification, further discussion is needed to establish a common AI safety evaluation framework. The United States, the United Kingdom, and Japan are addressing safety of AI through dedicated agency, which focus on AI risk research, risk assessments, and the development of standards for the safe creation and implementation of AI systems. Notable examples include the AI Risk Management Framework (USA) and the Science Report on AI Safety (UK), both of which propose strategies for addressing AI-related risks. Korea also plans to address AI safety demands through the establishment of its own AI safety institute. This report aims to organize the concepts related to AI safety, summarize the risk factors identified in recent studies, and analyze these factors along with real-world cases to offer policy implications for future AI risk response strategies.

  • 지난 4월 국가과학기술의 혁신을 위해 설치된 대통령 직속 기구인 국가과학기술자문회의는 글로벌 경제·안보 패러다임을 급속하게 바꿀 3대 게임체인저 기술 이니셔티브를 심의·의결하였다. 세 가지 핵심 기술은 AI-반도체, 첨단바이오, 퀀텀(양자)이다. ‘AI-반도체’는 AI와 반도체 기술을 결합하여 고성능·저전력 반도체를 개발하고 이를 통해 다양한 산업 분야에서 혁신을 이끌어내는 것을 목표로 한다. ‘첨단바이오 기술’은 생명·건강과 직결되는 기술로서 혁신기반기술과 고품질 데이터의 결합으로 바이오 가치사슬을 강화하는 데 중점을 둔다. ‘퀀텀’은 양자 컴퓨팅과 통신 기술을 개발하여 미래의 정보처리와 보안 분야에서 혁신을 일으키는 것을 추구한다. 이처럼 세 가지 기술은 각기 다른 특성을 보이지만 난제를 해결하고 사회적 가치를 창출한다는 점에서 동일한 목적을 지닌다. 세 가지 기술의 효과적인 확보는 환경, 조직, 협력의 관점으로 접근하는 시스템적 사고와 전략을 통해 달성될 수 있다. 본고에서는 전체 숲을 거시적으로 조망하는 시스템적 사고를 통한 접근과 세부 전략에 대해 논의해보도록 한다. 1. 환경, 조직, 협력의 ‘시스템적 사고’로 접근하라 3대 게임체인저 기술은 공통적으로 ‘시스템적 사고’를 요구한다. 시스템적 사고는 환경, 조직, 협력을 종합적으로 바라보는 관점이다. 즉, 각 기술을 둘러싼 환경을 비롯하여 정부, 기업, 대학, 연구기관 등 조직 차원의 대응 전략, 주체 간 협력에 대한 파악을 종합적으로 고려한 시스템적 사고가 이루어질 때 세 가지 기술을 효과적으로 확보할 수 있다. 각 기술은 고유한 환경적 요인에 의해 영향을 받는다. 환경적 요인은 국가과학기술자문회의 전원회의에서 의결한 각 기술의 이니셔티브를 통해 확인된다. AI-반도체는 AI와 반도체 산업이 결합한 분야로, 급속도로 발전하는 AI 기술과 데이터 수요에 의해 급격히 성장하고 있다. 발전 속도만큼 복잡해지는 기술, 데이터 센터의 확장, 에너지 효율 등이 중요한 환경적 요소로 작용한다. AI-반도체 이니셔티브는 ‘인공지능 G3 도약, K-반도체 새로운 신화 창조’를 비전으로 저전력 AI-반도체 달성, 글로벌 R&D·현지 실증 등 새로운 수출산업화 전략적 지원을 제시하였다. 차세대 범용 AI(GAI), 경량·저전력 AI, AI 슈퍼컴퓨팅 등의 중점기술과 거버넌스 차원에서 국가인공지능위원회 설립, 글로벌 AI 리더십 지속을 위한 ‘AI 서울 정상회의’ 개최도 주목된다. 에너지 효율은 중점기술들을 통해 강조되고, 기술적 복잡성과 같은 환경적 요인은 AI로 인해 발생하는 문제 혹은 파급효과를 함께 고민하기 위한 넓은 거버넌스를 통해 드러난다. 첨단바이오는 저출산·고령화 시대, 코로나19와 같은 전염병, 맞춤형 의료 등 인간의 삶에 직접적인 영향을 미치는 요인과 연관된다. 이에 관련 수요가 끊임없이 증가하고 있으며 데이터 활용, 신약 개발, 유전자 편집 등과 같은 환경적 요소가 존재한다. 첨단바이오 이니셔티브는 이러한 첨단바이오의 환경적 요소를 파악하여 기술을 확보하기 위해 ‘대한민국 새로운 성장 DNA, 제2의 반도체 신화 첨단바이오’라는 비전을 제시하였다. 또한, 이니셔티브에서 제시한 9대 중점기술에는 첨단바이오의 환경적 요소에 대한 고민이 담겨있다. 한국인 100만 명 빅데이터, 인체 표준 분자지도와 같은 바이오·의료 데이터 기술은 첨단바이오에 있어 데이터 활용의 중요성을 보여주며, AI 신약과 첨단의공학, 혁신기반기술은 다양한 기술을 접목한 신약 개발과 유전자 편집이 지속적으로 고려되어야 할 환경 요소임을 시사한다. 양자 기술은 상용화 초기 단계로 매우 복잡한 기술적 특성을 보인다. 따라서 고비용 인프라, 장기적 연구의 필요성, 제한된 인력과 지식 등이 환경 요소로 꼽힌다. 퀀텀 이니셔티브는 ‘양자과학기술 대도약, 디지털을 넘어 퀀텀의 시대로’라는 상대적으로 큰 비전을 제시하였다. 양자 기술은 타 기술에 비해 상용화 초기 단계에 속하고 복잡한 기술이기 때문에 한 단계 도약하자는 의미를 담았다고 볼 수 있다. 이니셔티브의 주요 내용을 살펴보면 2030년까지 양자 전문인력을 1천 명 이상 확보하고 5개 이상 기술 선도국과 정부 간 신규 퀀텀 협력 추진하겠다는 전략이 등장한다. 즉, 고비용 인프라를 요구하지만, 제한된 인력과 지식의 어려움이 있는 양자 기술의 경우 단기간에 무리한 기술 확보 전략을 제시하기보다는 장기적 연구를 수행하기 위한 전문인력양성과 산·학·연 연구 거점 구축, 기술선도국과의 교류와 같은 환경이 뒷받침되어야 함을 보여준다. 환경적 요소에 대해 파악했다면 다양한 조직들의 대응 전략에 대한 고민이 필요하다. 정부는 각 기술을 확보하기 위해 전략적 투자를 확대하고 연구개발(R&D)을 지원해야 한다. 고비용 인프라와 전문인력이 필요한 분야에는 장기적인 투자를 고려해야 하며, 신기술의 빠른 상용화를 가능하게 하는 규제 혁신과 기술의 윤리적 사용을 위한 가이드라인이 요구된다. 나아가 글로벌 협력을 강화하여 국제적인 공동 프로젝트를 추진하고 기술 경쟁력을 제고해야 한다. 우리나라도 준회원국으로 가입된 EU의 Horizon Europe과 같은 다자간 연구혁신 프로그램이 좋은 본보기가 될 것이다. 기업은 혁신적인 연구개발에 집중해야 한다. 자체 R&D를 통해 시장 수요에 맞는 제품을 빠르게 상용화하고 오픈 이노베이션을 통해 스타트업, 연구소, 대학과의 협력을 추진하여 혁신적인 기술을 발굴해야 한다. 국내뿐만 아니라 글로벌 시장에서도 경쟁력을 확보하기 위해 신흥 시장을 개척하고 해외 연구소와의 협력도 강화할 필요가 있다. 대학과 연구기관은 기초 과학 연구를 강화해야 한다. 이를 통해 각 기술의 이론적 토대를 마련하고 혁신적인 아이디어를 제공하는 역할이 필요하다. 또한, 첨단 기술 분야의 인재를 양성하기 위해 교육 과정에 대한 혁신을 고민하고 산업계와의 협력을 통해 현장 맞춤형 교육을 제공할 필요가 있다. 마지막으로 각 조직의 강점을 극대화하면서도 모든 주체들이 지속적으로 협력할 때 시스템적 사고가 비로소 가능하다. 게임의 판도를 바꾸는 기술은 그만큼 기술의 복잡성과 고도화로 인해 다양한 주체가 가진 자원과 역량을 결합할 때 효과적인 연구개발이 가능하기 때문이다. 따라서 협력을 통해 연구 성과를 공유하고 상호 보완적으로 기술을 확보해 나가는 전략을 구축해 나가야 한다. 2. 광범위 협력을 통해 융합을 주도하라 결국 세 가지 기술의 확보 전략은 광범위한 협력과 융합연구가 핵심이다. AI-반도체는 특히 전 세계적으로 핵심 기술로 부상하였다. 개별 기술에 대한 관심을 넘어 자율주행, 스마트 시티, 금융 등 다양한 분야에서 필수적인 기술로 자리 잡으면서 고성능·저전력 반도체의 수요가 급증했기 때문이다. 지난 5월 21일부터 22일 서울에서는 AI 안전, 혁신, 포용을 주제로 한국과 영국이 공동으로 개최한 ‘AI 서울 정상회의’가 진행되었다. 세계 여러 지도자들과 CEO들이 모여 협력을 통해 인공지능의 잠재력을 실현하기 위한 AI 거버넌스의 원칙을 제시하고 세 가지의 융합적 키워드를 주제로 설정하였다는 점에서 의미가 있다. AI반도체는 게임 판도를 바꾸는 혁신적 기술인만큼 앞으로도 일자리, 윤리 문제 등 새로운 기회와 위기를 동시에 발생시킬 것이다. 따라서 AI-반도체로 발생할 위기까지 염두에 두고 국내·외 다학제적 협력과 융합을 주도하여 혁신 기술을 확보하고 지속적으로 관련 이슈를 선점할 필요가 있다. 첨단바이오와 퀀텀 역시 광범위한 협력과 융합이 필수적이다. 첨단바이오와 퀀텀 이니셔티브는 각각 우수 기술기반 창업 환경 구축과 산·학·연 양자 연구거점 구축을 추진전략으로 제시하였다. 최근 AI 분야에 대한 관심이 상대적으로 급증하면서 AI를 활용한 창업 기업이 다수 등장하였지만 다른 두 기술도 정부뿐만 아니라 민간에서 많은 관심을 갖고 협력해야 한다. 첨단바이오는 식량·기후변화 등 다양한 사회문제와 직결되고 퀀텀은 문제를 효과적으로 해결할 수 있는 잠재력이 큰 기술이기 때문이다. 따라서 기술에 대한 좋은 아이디어를 가진 인재, 소셜벤처를 적극적으로 발굴하고 산·학·연 소통을 활성화해야 한다. 모든 기술은 미국, EU, 영국 등 선도국과 선도기관과의 융합연구가 필수적이다. Horizon Europe의 사례를 보면, 유럽은 유럽 전역을 단일 연구지대로 구축하여 재정을 투자하는 연구혁신 프로그램을 추진 중이다. 2021년부터 2027년까지 7년간 955억 유로(약 138조 원)를 지원한 것은 연구혁신 분야에서 세계 최대 규모다. 막대한 투자로 이러한 프로그램을 추진하는 가장 큰 이유는 협력과 융합을 통해 과학기술의 개방성이 확대되고 혁신의 가능성이 커지기 때문이다. 우리나라도 준회원국으로 가입되어 글로벌 협력의 길이 더 열렸지만 이를 벤치마킹하여 보다 적극적으로 해외 국가, 기업, 인재와의 교류를 추진하고 다양한 연구 컨소시엄을 구축해 나간다면 융합을 통한 기술 확보가 가속화될 것이다. 3. 지방을 테스트베드로 삼아 기회를 넓혀라 지방은 산업의 디지털 혁신이 실제 구현될 수 있는 기회의 장이다. 스웨덴 말뫼는 한 때 조선업이 쇠퇴하면서 말뫼의 눈물이라 불렸는데 디지털·바이오 등 신사업이 성장하면서 말뫼의 웃음이라 불릴 정도로 현재는 지역의 모습이 탈바꿈되었다. 지역 내 조선업의 상징이었던 대형 크레인은 철거되었고 54층 빌딩 터닝 토르소를 중심으로 신산업 육성이 이루어졌다. 이처럼 지방은 위기를 기회로 바꿀 수 있는 전략의 요충지다. 우리나라도 여러 지방에 다양한 자원과 기회가 존재한다. 스마트팜, 스마트공장과 같은 1, 2차 산업의 디지털 혁신은 해당 산업을 먹거리로 삼아온 지방에서 이해도가 가장 높다. 따라서 지방을 디지털 혁신 구현의 테스트베드로 삼는다면 각 지역의 자원과 특화 산업을 적극 활용해 산업의 디지털 혁신 구현을 앞당기고 게임체인저 기술의 확보가 빨라질 수 있다. 첨단바이오를 예를 들어 보자. 첨단바이오는 코로나19와 같은 감염병, 탄소중립 등 인류가 당장 체감하는 문제들을 해결하는 기술이다. 강원특별자치도는 한국과학기술연구원(KIST)과 바이오 국가첨단전략산업 특화단지 조성 및 기술교류를 위해 업무협약을 체결하여 우수인력 교류 및 공동연구, 기업지원 등을 협력하였다. 노력의 결과로 강원도는 지난 6월 바이오 국가첨단전략산업 특화단지를 유치하였고, AI 기반의 신약개발과 중소형 CDMO(연구개발단계부터 임상, 제조 등 모든 과정을 서비스화한 사업) 거점으로 조성되는 성과를 얻었다. 또한, AI 헬스케어 글로벌혁신특구 등 바이오 인프라와 항체산업, 디지털헬스케어·의료기기 등 주변 지역과의 연계·확장을 통해 바이오산업의 발전을 추진한다. 이전에도 강원도는 디지털 헬스케어를 대상으로 규제자유특구가 지정되었기 때문에 첨단바이오 기술 확보의 길이 더 넓어졌다고 볼 수 있다. 강원도 외에도 전북특별자치도는 탄소 융·복합 산업을 대상으로 규제자유특구가 지정되어 있고, 광주광역시는 AI 융합 선도도시, 경상북도는 메타버스 수도, 전라남도는 에너지·농업 디지털 혁신을 내세우는 등 기술 확보를 위해 노력해 왔다. 지방 도시들은 디지털 기술과 혁신에 대한 갈망이 높기 때문에 이를 기술 확보의 기회로 연결한다면 좋은 성과를 얻을 수 있을 것이다. 한 걸음 나아가 ‘지역의 세계화’에 대한 고민도 제안해본다. 지역의 세계화는 특정 지역이 글로벌 차원에서 상호교류가 활성화되는 것을 의미한다. 국내 지방정부는 2023년 12월 기준으로 91개국 1,384개 도시와 1,873건의 국제교류를 진행 중이다. 즉, 지방정부의 해외 자매결연 네트워크를 활용하면 혁신기술의 시장성 검증 기회를 살리고 기술 확보의 기회가 증가할 수 있음을 시사한다. 따라서 기술 확보를 위해 지방 테스트베드 전략을 활성화하고 지역의 세계화를 통해 기회를 넓힌다면 게임의 판도가 빠르게 바뀔 수도 있을 것이다. 4. 게임의 흐름을 바꾸는 전략의 유기적 연계 AI-반도체, 첨단바이오, 퀀텀 기술의 확보는 단순한 개별 기술의 발전을 넘어 우리 사회 전반에 혁신을 불러일으킬 수 있는 중요한 원동력이 될 것이다. AI-반도체는 산업 전반의 생산성을 제고하고, 첨단바이오는 맞춤형 의료, 신약 개발을 가속화며, 퀀텀은 기존의 한계를 뛰어넘는 기술적 발전으로 과학과 산업의 패러다임을 전환시킬 수 있다. 시스템적 사고를 통한 접근과 광범위한 협력, 지방 테스트베드 전략은 유기적으로 연결된다. 기술의 확보는 환경에 대한 이해, 조직의 대응, 광범위한 협력이 필요하고 지방을 테스트베드로 삼는 전략도 결국 중앙정부와 지방정부, 산·학·연 등이 함께할 때 효과적으로 추진될 수 있기 때문이다. 효과적인 전략의 추진으로 세 가지 기술의 확보를 앞당겨 글로벌 경쟁에서 우리나라가 중요한 순간에 게임의 흐름을 바꿀 수 있는 게임체인저가 되길 소망한다.
  • 목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 법적 구속력 갖춘 유럽평의회의 AI 국제조약에 서명 ▹ 미국 캘리포니아 주지사, AI 규제법안 「SB1047」에 거부권 행사 ▹ 호주 의회, 동의 없는 딥페이크 음란물 공유를 처벌하는 법안 통과 ▹ UN, ‘인류를 위한 AI 거버넌스’ 최종 보고서 발표 2. 기업/산업 ▹ 앤스로픽과 오픈AI, 미국 AI 안전연구소와 모델 평가 합의 ▹ 오픈AI, 추론에 특화된 AI 모델 ‘o1-프리뷰’ 출시 ▹ 메타의 AI 모델 ‘라마’, 다운로드 수 3억 5천만 회 달성하며 활발한 생태계 형성 ▹ 구글, AI 신기능 ‘젬스’와 이미지 생성 모델 ‘이마젠 3’ 출시 ▹ 구글, C2PA 표준 적용으로 AI 생성물의 투명성 향상 추진 ▹ 마이크로소프트, 오픈소스 소형 언어모델 ‘파이 3.5’ 공개 ▹ 하이퍼라이트, 오류를 자체 수정하는 ‘리플렉션 70B’ 오픈소스 모델 공개 3. 기술/연구 ▹ 영국 옥스퍼드大 연구 결과, 글로벌 AI 칩 분포의 양극화 현상 심각 ▹ 메타, LLM의 품질과 정확성을 평가하는 ‘자가학습 평가자’ 개발 ▹ 코히어 연구, LLM 사전학습에 코드 데이터 포함 학습시 LLM의 성능 향상 확인 ▹ 중국 연구진, 재판 시뮬레이션으로 LLM의 법률 역량 향상하는 기법 개발 ▹ AI 연구자들, 벤치마크 ‘챗봇 아레나’의 편향과 투명성 부족 지적 4. 인력/교육 ▹ 영국 정부, AI 교육기업 대상 ‘콘텐츠 스토어’ 프로젝트 발표 ▹ 유고브 조사 결과, 미국 근로자들 AI의 일자리 영향에 엇갈린 의견 표시 ▹ IBM 기업가치연구소, ‘생성 AI 시대 인적 잠재력 재해석’ 보고서 발간 ▹ 서비스나우, AI 도입으로 영국에서 61만 개 일자리 창출 전망 Ⅱ. 주요 행사 ▹Cypher 2024 21 ▹AI World Congress 2024 21 ▹ML and AI Model Development and Governance 21

    • 2024.09.04
    • 2481

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미·영·EU, 생성 AI의 공정한 경쟁환경 조성을 위한 공동 성명 발표 ▹ 미국 통신정보관리청, 오픈소스 기반모델의 위험에 대한 모니터링 촉구 ▹ 중국 베이징市, AI 플러스 행동계획(2024~2025) 발표 ▹ 독일 연방정보기술보안청, AI 시스템의 투명성에 관한 백서 발간 2. 기업/산업 ▹ 오픈AI, AI 기반 검색엔진 ‘서치GPT’ 프로토타입 공개 ▹ 메타, 폐쇄형 첨단 AI 모델과 대등한 성능의 오픈소스 모델 ‘라마 3.1’ 공개 ▹ 구글, 소형 오픈소스 모델 ‘젬마2 2B’ 공개 ▹ 메타와 구글, 환각과 딥페이크 등 AI 이슈 대응 ▹ 피규어AI, 최신 휴머노이드 로봇 ‘피규어 02’ 공개 ▹ xAI, ‘그록-2’ 출시 이후 이미지 생성 논란 확산 3. 기술/연구 ▹ 미국 국가과학기술위원회, 2020년~2024년 AI R&D 경과보고서 발간 ▹ 구글 딥마인드, 생성 AI의 오용 현황 분석 ▹ 애플, 애플 인텔리전스의 기반모델 개발 프로세스 공개 ▹ 네이처, AI 생성 데이터로만 학습한 AI 모델의 붕괴 위험 증가 경고 논문 게재 ▹ 영국 에이다 러브레이스 연구소, AI 안전성 평가의 개선 필요성 제기 ▹ 사카나 AI, 과학 연구를 자동화하는 ‘AI 사이언티스트’ 개발 4. 인력/교육 ▹ 유네스코, 교육에서 생성 AI의 기회와 위험 분석 ▹ 세계경제포럼 4차산업혁명센터, AI로 인한 기술 실업 가능성이 희박하다고 전망 ▹ AI 기반 ICT 인력 컨소시엄, ICT 일자리의 92%에 AI의 영향 예측 ▹ 오픈AI, 챗GPT 부정행위 탐지 도구 개발 후 공개 유보 Ⅱ. 주요 행사 ▹Generative AI World 2024 ▹AI Expo Europe ▹Big Data & AI World

  • 본고는 생성형 AI로 인한 소프트웨어 개발 프로세스별 개발 업무 변화를 살펴보고, 이것이 소프트웨어(Software, 이하 SW) 개발자 직무에 어떠한 영향을 주는지와 그 시사점에 대해 논하려고 한다. 생성형 AI란, 텍스트, 오디오, 이미지, 동영상 형태의 새로운 콘텐츠를 생성하도록 설계된 인공지능 모델이다. 생성형 AI라는 화두를 세상에 내놓은 OpenAI사의 ChatGPT는 지금까지 출시된 애플리케이션 중 가장 빠른 속도로 이용자 수가 늘어나고 있다. 이러한 경향은 생성형 AI의 활용이 업무 효율성을 향상할 것으로 기대되기 때문이며, 특히 개발환경의 변화로 인해 개발자의 역할 또한 변화할 것으로 전망된다. SW 개발은 SW 요구분석, 설계, 구현 및 시험 등의 복잡한 프로세스로 구성되어 있다. 또한 고객사의 개발 및 운영 환경, 성능 및 보안 요구 수준, 유지보수성 등 다양한 요소를 고려해야 하는 정형화하기 어려운 업무이기 때문에 생성형 AI가 개발자 업무에 주는 영향은 예상만큼 크지 않았다. SW개발 단계 중 SW 구현과 SW 시험 단계에는 생성형 AI 활용이 가능하다. 생성형 AI를 이용하면 SW 구현 단계에서는 코드 생성, 코드 자동완성, 주석 작성, 코드 번역, 리버스 엔지니어링 등이 가능하다. SW 시험은 시간이 많이 소요되고 반복적인 업무가 많아, 생성형 AI 활용에 가장 효과적인 단계이다. 반면에 고객과의 커뮤니케이션이 중요한 SW 요구분석 단계와 최신 기술을 포함한 복잡한 기술을 연계하여 수행해야 하는 SW 설계 단계는 생성형 AI의 활용이 쉽지 않다. 전반적으로 생성형 AI 개발도구의 활용은 개발자의 생산성 향상에 효과가 있으나, 개발 단계, 개발하는 제품이나 서비스의 종류, 개발자의 수준 등에 따라 생성형 AI의 활용 방법 및 효과의 차이가 큰 것으로 분석되었다. 개발도구로써 생성형 AI의 활용은 초급개발자보다 생성형 AI 환각에 의한 잘못된 정보를 빠르게 판단할 수 있는 중급개발자의 생산성을 더 높이는 것으로 확인되었다. 반면에 초급개발자는 생성형 AI를 프로그램 언어 학습에 유용하게 활용할 수 있으며, 초급개발자 수준이 빠르게 높아질 것으로 예측된다. SW개발자의 작업에서 생성형 AI의 영향을 받는 작업은 일부분이다. 개발자 직무를 수행하기 위해서는 데이터 분석, SW 및 DB 설계, 시스템 결정 및 성능 개선 등 개발 관련 기술 업무 이외에도, 동료와 업무 협의, 이슈 해결 등의 소프트스킬이 필요한 작업이 있어 개발자 업무와 개발 생산성에 대한 생성형 AI의 영향 정도를 정량적으로 파악하기는 어렵다. 생성형 AI 시대에 대비하기 위해 개발자 수준에 따른 세분화된 생성형 AI 활용 전략 마련, 직무별로 상이한 생성형 AI의 영향을 고려한 개발자 양성 규모 검토가 필요하다. 또한 생성형 AI를 활용하면서 직면할 수 있는 저작권 문제, 프라이버시 문제, 모델 오남용 문제에 대해 적절히 대응할 수 있도록 기본적인 AI 윤리 교육에 대한 강화가 시급하다. Executive Summary In this article, we'll take a look at how generative AI is changing the development process and discuss the implications for developer jobs. Generative AI is an AI model designed to generate new content in the form of text, audio, image and video. The use of generative AI is growing at a rapid pace. This is because it is expected to improve work efficiency, and the role of developers is also expected to change due to changes in the development environment. SW development consists of a complex process of SW requirements analysis, design, implementation, and testing. In addition, the impact of generative AI on developers' work is not as large as expected because it is a difficult task to formalize that requires consideration of various factors such as the customer's development environment, performance and security requirements, and maintainability. Generative AI can be used for SW implementation and SW testing during the SW development phase. On the other hand, the SW requirement analysis phase, which requires communication with customers, and the SW design phase, which involves complex technologies including the latest technologies, are not easy to use generative AI. Overall, the use of generative AI development tools is effective in improving developers' productivity, but there are large differences in how generative AI is used and its effectiveness depending on the development stage, the type of product or service being developed, and the level of developers. Only a small part of a SW developer's work is affected by generative AI. In addition to technical tasks related to development, such as data analysis, SW and DB design, system performance improvement, developers also need soft skills, such as collaborating with colleagues, so it is difficult to quantify the extent of the impact of generative AI on developer work and development productivity. In order to prepare for the era of generative AI, it is necessary to prepare a strategy for using generative AI that is categorized by developer level and review the scale of developer training considering the impact of generative AI by job function. It is also urgent to strengthen basic AI ethics education so that developers can respond appropriately to copyright, privacy, and model misuse issues that may arise while utilizing generative AI.

    • 2024.08.19
    • 7758

    인공지능(AI) 기술은 급격한 속도로 발전해왔으며, 특히 2020년대에 들어서면서 초거대 AI 모델이 경쟁적으로 등장하고 있다. 여기서 초거대 AI 모델은 대용량 연산 인프라를 바탕으로 방대한 데이터를 학습해 인간처럼 종합적인 인지·판단·추론이 가능해진 ‘큰 규모’의 AI 모델을 의미한다. 특정 목적에 따라 개별의 데이터를 수집·학습하여 만들어지는 기존의 일반 AI는 학습된 과업(task)에 한하여 수행이 가능한 반면, 초거대 AI는 더욱 복잡하고 광범위한 분야에서 과업을 수행할 수 있다. 본고에서는 2020년부터 2023년까지 전 세계에 출시된 초거대 AI 모델 현황을 분석하고, 글로벌 기술 동향과 트렌드를 살펴보았다. 구체적으로, 미국 민간 연구단체인 ‘EPOCH AI’가 최근 업데이트(‘24년 7월)한 초거대 AI 모델 현황 DB를 통해 데이터를 수집하고, 2020년부터 2023년까지 출시된 초거대 AI 모델에 대해 출시년도, 국가, 분야, 과업유형, 개발형태, 개발조직 유형 등의 다양한 기준으로 정리·분석하였다. 우리나라 현황에 대해서도 주목하고, AI 분야에 대한 정책적 시사점을 도출하였다. Executive Summary Artificial

    • 2024.08.13
    • 1432

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 국제통화기금(IMF), 세계 AI 준비 현황지도 공개 ▹ OECD, AI 분야의 데이터 거버넌스와 개인정보보호 협력 연구 ▹ 글로벌 AI 파트너십(GPAI), OECD-GPAI 통합 운영에 합의 ▹ 과학기술정보통신부, AI 분야 규제샌드박스 과제 적극 발굴 추진 ▹ 프랑스 경쟁관리국, 생성 AI 분야의 경쟁 활성화를 위한 권고사항 제시 ▹ 중국 정부, AI 표준화 체계 구축 지침 발표 ▹ 대만 국가과학기술위원회, AI 기본법 초안 발표 2. 기업/산업 ▹ EU 경쟁 당국, 구글-삼성 AI 협업에 반독점 조사 검토 ▹ 2024년 상반기 유럽 생성 AI 스타트업 투자 규모 19억 유로 ▹ 구글, 제미나이 1.5 플래시 및 오픈소스 모델 젬마 2 정식 출시 ▹ 오픈AI, 비용 효율적인 소형 AI 모델 ‘GPT-4o 미니’ 출시 ▹ 바이두, 최신 AI 모델 ‘어니 4.0 터보’ 공개 ▹ 중국 상하이市 법학회, 세계인공지능대회에서 휴머노이드 로봇 거버넌스 지침 발표 ▹ LG AI연구원, 오픈소스 AI 모델 ‘엑사원(EXAONE) 3.0’ 공개 3. 기술/연구 ▹ 세계경제포럼, 과학적 발견을 위한 AI 등 10대 신흥기술 선정 ▹ ETRI, 데이터 분석 및 머신러닝을 위한 데이터 품질 국제표준 제정 ▹ 구글 딥마인드, 제미나이를 활용한 자연어 기반 로봇 학습 연구 결과 공개 4. 인력/교육 ▹ SAS 조사, 생성 AI 사용은 중국이 가장 앞서나 성숙도는 미국이 우위 Ⅱ. 주요 행사 ▹ECCV 2024 ▹World Summit AI ▹AI WORLD 2024

  • 생성AI의 확산과 함께 인공지능 기술이 가진 잠재적 위험에 대한 우려가 고조되고 있다. 생성AI의 부정확성, 결과 해석을 어렵게 하는 블랙박스 모델과 같은 기술적 한계와 딥페이크, 사이버 공격 등 기술 오용으로 인한 사회적 피해에 대한 긴장이 높아지고 있다. 산학계의 인공지능 전문가들조차 인공지능이 인간이 이해할 수 없는 초지능으로 급속히 발전하면 자율 성장, 통제 상실 가능성이 높아져 인류의 실존을 위협할 수 있다고 경고한다. 이러한 상황에서 유럽연합은 2024년 5월 세계 최초로 인공지능 규제법인 인공지능법을 제정하였고, 미국은 2023년 10월 행정명령을 발동해 인공지능의 안전한 개발과 보급을 유도하고 있다. 2023년 11월 영국에서 세계 최초로 개최된 인공지능 안전성 정상회의는 인공지능 안전성 확보를 위한 국제 사회의 동참을 만들어 내는 계기가 되었다. 구체적으로 영국, 미국, 일본은 AI안전연구소를 설립하고, 첨단 AI의 안전성 테스트를 위한 프레임워크 개발과 정보, 인력 교류, 표준화에 상호 협력하기로 했다. 2024년 5월 제1차 인공지능 안전성 정상회의 후속으로 진행된 한국-영국 공동 주최 AI 서울 정상회의에서는 우리 정부도 AI 안전연구소 설립을 공식화하고 주요국과 함께 AI 안전성 확보를 위한 국제협력에 적극적 의지를 표명하였다. 향후 AI 안전 확보를 위한 정부의 역할이 더욱 중요해질 것으로 예상되는 가운데, AI 안전연구소는 AI 안전성 테스트 방법 및 프레임워크 개발, AI 안전성 확보를 위한 원천기술 개발 및 표준화, 그리고 이를 위한 정책연구와 민관협력, 국제 교류를 추진해 나갈 것으로 예상된다. 민간의 혁신을 저해하지 않고 사회와 산업에 안전한 인공지능을 도입·활용을 위해 AI안전연구소의 기능과 역할 정립이 요구되는 시점으로, 이 보고서에서는 영국, 미국, 일본 등 주요국의 AI안전연구소의 추진 동향을 살펴보고 국내 AI안전연구소의 역할을 모색한다. Executive Summary With the proliferation of generative AI, concerns about the potential risks of artificial intelligence technologies are mounting. The technical limitations of generative AI, such as hallucinations and black-box models that complicate result interpretation, along with the societal harm caused by the misuse of technologies like deepfakes and cyberattacks, are increasing tensions. AI experts in academia and industry warn that rapid advancements toward superintelligent AI, which humans cannot comprehend, may lead to autonomous growth and loss of control, potentially threatening human existence.In response to these concerns, the European Union enacted the world's first AI regulatory law, the Artificial Intelligence Act, in May 2024. Meanwhile, the United States issued an executive order in October 2023 to guide the safe development and dissemination of AI. The first AI Safety Summit, held in the UK in November 2023, marked a pivotal moment, fostering international collaboration to ensure AI safety. Specifically, the UK, the US, and Japan have agreed to establish AI Safety Institutes, develop frameworks for testing advanced AI safety, and cooperate on information exchange, personnel training, and standardization. Following the first AI Safety Summit in May 2024, the AI Seoul Summit, co-hosted by Korea and the UK, saw Korea committing to establishing an AI Safety Institute and expressing a strong intention to participate in international cooperation for AI safety with other major countries. As the role of the government in ensuring AI safety becomes increasingly important, the AI Safety Institute will focus on developing AI safety testing methods and frameworks, creating foundational technologies for AI safety, and promoting standardization. This will include policy research, private sector collaboration, and international exchanges. To introduce and utilize AI safely in society and industry without hindering private innovation, it is essential to define the functions and roles of the AI Safety Institute. This report examines the trends and initiatives of AI Safety Institutes in key countries, including the UK, the US, and Japan, and explores the potential roles of the Korean AI Safety Institute.

    • 2024.07.17
    • 1448

    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ AI 서울 정상회의, AI 안전•혁신•포용 강조한 서울 선언 채택 ▹ 대한민국 정보, 범부처 합동 새로운 디지털 질서 정립 추진계획 발표 ▹ 유럽연합 집행위원회, 'AI 법' 집행기관으로 AI 사무국 운영 ▹ 유럽개인정보보호감독기구, EU 기관 대상 생성 AI 지침 발간 ▹ EU AI 법의 법적 불확실성과 과잉 규제에 대한 우려 제기돼 ▹ 미국 법무부와 연방거래위원회, AI 기업 반독점 조사에 착수 2. 기업/산업 ▹ OECD, ‘디지털경제전망 2024’ 보고서에서 AI의 현황과 미래 전망 제시 ▹ 구글과 인텔 등 8개 빅테크, AI 칩의 상호연결을 위한 통신 표준 개발에 합의 ▹ 애플, WWDC 2024에서 AI 신기능 ‘애플 인텔리전스’ 공개 ▹ 앤스로픽, 최신 AI 모델 ‘클로드 3.5 소네트’ 출시 ▹ 프랑스의 미스트랄AI, 6억 유로 규모의 투자 유치 ▹ 오픈AI, 데이터 분석 기업 록셋 인수 3. 기술/연구 ▹ 영국 AI 안전연구소, 첨단 AI 모델의 안전 테스트 결과 공개 ▹ 중국 정부, AI와 컴퓨팅 표준화를 위한 3개년 계획 발표 ▹ 중국 표준화기술위원회, 생성 AI 보안 요구사항 표준 초안 공개 ▹ 오픈AI, GPT-4의 신경망 패턴을 파악해 해석 가능성 높여 ▹ 구글 딥마인드, 영상에 어울리는 오디오를 생성하는 V2A 기술 공개 ▹ MIT 연구진, 동영상 시청만으로 언어를 학습하는 알고리즘 개발 4. 인력/교육 ▹ 전미경제연구소 연구, 미국에서 10년간 AI로 인한 GDP 증가는 1% 내외 ▹ 방통위 조사 결과, 2023년 국민 10명 중 1명이 생성 AI 이용 ▹ 서울시, AI 분야 산‧학‧연 협력 거점으로 ‘서울 AI 허브’ 개관 ▹ 아마존, 글로벌 생성 AI 스타트업 활성화에 2억 3천만 달러 지원 ▹ 푸단⼤ 등 중국 대학들, 전교생 대상 AI 교육과정 확대 Ⅱ. 주요 행사 ▹ACL 2024 ▹IJCAI-24 ▹ICANN 2024

    • 2024.06.25
    • 1376
    목차 Table of Contents Ⅰ. 인공지능 산업 동향 브리프 1. 정책/법제 ▹ 미국 백악관, AI 행정명령 이후 180일 간 진행된 AI 조치 발표 ▹ 미국 국토안보부, AI의 책임 있는 사용을 위한 AI 안전보안이사회 설립 ▹ 미국 상무부, 중국과 러시아 겨냥한 첨단 AI 모델 수출 규제 검토 ▹ 미국과 중국, 스위스 제네바에서 첫 AI 회담 개최 ▹ 일본 기시다 총리, 히로시마 AI 프로세스 프렌즈 그룹 출범 선언 ▹ 산업통상자원부, 생산공정 혁신을 위한 ‘AI 자율제조 전략 1.0’ 발표 2. 기업/산업 ▹ 오픈AI, 사람과 자연스러운 실시간 대화가 가능한 ‘GPT-4o’ 출시 ▹ AI 안전 연구를 맡은 오픈AI 슈퍼얼라인먼트팀, 핵심 인력 퇴진과 함께 해체 ▹ 구글, 연례 개발자회의에서 ‘제미나이’ 신모델과 에이전트 등 생성 AI 제품 대거 발표 ▹ 중국, 오픈AI의 ‘소라’ 겨냥한 동영상 생성 AI ‘비두’ 공개 ▹ 미국의 첨단 AI 반도체 수출 제한으로 중국 AI 발전 뒤처져 ▹ 네이버, 하이퍼클로바X 신규 모델로 속도 높이고 비용 낮춘 ‘대시’ 공개 3. 기술/연구 ▹ 영국 AI 안전 연구소, AI 안전성 평가 플랫폼 ‘인스펙트’ 공개 ▹ 미국 국립표준기술연구소, AI 위험 관리를 위한 4종의 지침 발간 ▹ 구글 딥마인드, 긴 컨텍스트 창 활용한 LLM 성능 향상 기법 연구 ▹ 구글 딥마인드, 생물학적 분자 구조와 상호작용 예측하는 ‘알파폴드3’ 공개 ▹ 구글 딥마인드, AI 위험 평가를 위한 ‘프런티어 안전 프레임워크’ 공개 4. 인력/교육 ▹ 미국 백악관, 직장 내 AI 시스템 사용에 관한 원칙 발표 ▹ 미국 노동부, AI 시스템을 활용한 임금시간 측정에 관한 지침 발간 ▹ 미국 인구조사국 조사 결과, 2024년 상반기 미국 기업의 AI 사용률은 5.4% ▹ 구글, 미국 내 AI 교육을 위한 7,500만 달러 규모의 ‘AI 기회 기금’ 조성 ▹ 마이크로소프트, 프랑스 AI 인프라에 40억 유로 투자 및 AI 교육 지원 계획 Ⅱ. 주요 행사 ▹ICML 2025 ▹GICAI ▹AI INFRA Conference KOREA 2024
    • 2024.05.16
    • 2779

    AI Brief 5월호

  • 요약문 1. 제 목 : 생성형 AI에 대응한 SW 인재 양성 정책 방향 연구 2. 연구 목적 및 필요성 생성형 AI의 혁신적인 기술 발전으로 편리한 사용 방법과 접근, 창의적인 정보 생성, 효율적 정보 확보 등의 장점으로 생성형 AI의 활용이 확대되고 있다. 생성형 AI는 경제, 사회, 교육 등 전반에 영향을 미칠 것으로 예상되며, 이미 그 사용 효과가 증명되고 있다. 생성형 AI는 특히 기술자 그룹에 많은 영향을 미칠 것으로 예측되며, 코드 자동 생산, 코드 자동 완성 등 SW 개발 관련 기능의 효율성과 편리성으로 개발자들이 현업에서 이미 많이 활용하고 있다. 생성형 AI 기술 발전 및 업무 적용 속도로 보아 생성형 AI에 의한 개발 환경, 개발 방식, 역량 등의 변화는 매우 클 것으로 예상된다. 이러한 변화에 대한 사회·경제적 혼선을 줄이고 관련 인력양성의 기회로 연결할 수 있도록 디지털 인력양성 정책의 변화가 필요하다. 위 배경 및 필요성에 따라 본 연구는 생성형 AI가 개발 업무에 미치는 영향을 분석하고, 이에 따른 디지털 인재양성 정책 방향을 제시하고자 한다. 3. 연구의 구성과 범위 연구는 다음과 같이 5장으로 구성된다. 제1장 서론 “SW 개발 환경 변화에 따른 디지털 인재양성 정책 방향” 연구 배경, 목적, 연구의 개략적인 내용, 연구 방법을 기술한다. 제2장 생성형 AI 기술 진화 및 국내외 정책 방향 디지털 인재 정의와 역량을 해석하고, 생성형 AI의 개념과 시장 전망을 정리한다. 생성형 AI시대의 국내외 디지털 인재 양성 정책 동향을 분석하고, 국내외 기업의 생성형 AI 대응 및 인재 확보 경쟁에 대해 비교·종합한다. 제3장 SW 개발 환경변화에 따른 개발 업무 변화 생성형 AI가 개발 업무에 미치는 영향을 소프트웨어 개발 프로세스에 따라 문헌 연구, 전문가 심층 인터뷰, 전문가 설문을 통해 분석한다. 소프트웨어 개발 프로세스는 요구분석, 설계, 구현, 테스트 단계로 나누어 단계별 생성형 AI의 활용 가능성과 영향에 대해 분석한다. 생성형 AI가 개발자에 미치는 영향을 분석하기 위해 O*NET의 컴퓨터 프로그래머, 소프트웨어 개발자, 웹 개발자의 작업(Task)별 영향을 평가한다. 제4장 생성형 AI 시대에 대응한 디지털 인재양성 분석 결과에 기반하여, 생성형 AI 관련 디지털 인력 확보 정책의 기본 방향을 제안하고 디지털 인력양성을 위한 교육 환경 구축, 지속적이고 효율적인 디지털 인재 확보 추진을 제안한다. 제5장 결론 연구의 방법은 문헌분석, 전문가 심층 인터뷰, 전문가 설문을 통해 생성형 AI가 개발 업무에 미치는 영향을 분석하고, 생성형 AI 시대에 대응한 디지털 인재양성 정책 방향을 제안한다. 4. 연구 내용 및 결과 본 연구는 디지털 인력 중 특히 수요가 많은 개발자에 초점을 맞춰, 그들의 작업에서 코드 자동 생성 기능 등에 의한 생성형 AI의 영향도를 분석한다. 이를 기반으로 개발자 및 디지털 전환 인력의 역할 변화를 고려하여 생성형 AI 시대의 디지털 인재 양성 정책 변화 및 방향을 모색한다. 디지털 인재를 넓은 의미에서‘디지털 신기술을 보유하고 디지털 전환을 주도하는 사람과 디지털 기술을 활용하는 모든 사람을 포함한 인력’으로 정의하고, 해외 기관 및 정부 부처가 공통적으로 제시한 디지털 신기술은 AI, 빅데이터, 소프트웨어 등임을 확인하였다. 디지털 인재 역량 요구사항 중 가장 수요가 많고 중요성이 커지는 기술은 Java, 파이썬, SQL 등 프로그래밍 언어와 애자일 방법론, 컴퓨터 공학 등 개발 관련 기술로 조사되었으며, 디지털 기술 중 2023년 선풍을 일으킨 생성형 AI는 코딩 보조 도구로써 코드 자동 생성, 자동 테스트, 주석 작성 등에 뛰어난 성능을 가지고 있어 프로그래밍 작업 시 영향을 많이 미칠 것으로 예상된다. 이에 따라 생성형 AI가 개발자 수준, 개발 난이도, 소프트웨어 유형 등 개발 조건에 따라 개발 생산성에 얼마나 영향을 주는지 분석한다. 1) 생성형 AI 기술의 진화 생성형 AI는 딥러닝 기술과 텍스트, 오디오, 이미지 또는 동영상 형태의 방대한 데이터를 활용하여 학습하고, 새로운 콘텐츠를 생성하는 기술이다. 생성형 AI 기술은 1980년대 개발된 신경망, 2006년대 심층 신경망, 2010년대 트랜스포머 모델을 거치면서 성숙하였고, 성능이 향상된 컴퓨팅 파워, 폭발적으로 증가한 데이터를 사용하여 혁신적으로 발전하게 되었다. MS, Amazon, Google 등 빅테크 기업에서는 시장에서 경쟁 우위를 확보하고 새로운 수익원을 창출하기 위해 생성형 AI 기술을 개발하고 혁신적인 서비스를 출시하는 데 매진하고 있다. 자동차, 의료 등의 산업에서도 생성형 AI를 이용한 수익 창출을 위해 차별화된 제품을 개발하고 있을 뿐 아니라 업무 효율성 향상을 위해서도 생성형 AI 기술을 도입하고 있다. 또한 생성형 AI 기술과 관련 인재를 확보·유지하기 위해 총력을 기울이고 있는데, 오픈AI, 구글 등 글로벌 빅테크 기업은 물론 아시아·태평양 지역기업들 또한 생성형 AI 인재 부족을 해결하기 위해 많이 노력하고 있다. 2) 국내·외 디지털 인재 양성 정책 생성형 AI 기술의 진화와 그에 따른 우수 디지털 인재 수급 등의 문제 발생에 신속 대응하기 위해 미·중·영·일본 등 해외 주요국에서는 기존 AI 관련 정책에 더해 다양한 대응방안을 마련하고 있다. 미국의 AI 정책은 글로벌시장에서 AI 경쟁력을 유지하고, 안전하고 신뢰할 수 있는 AI 발전을 추구하는 것이다. AI 인재 확보를 위해 「국가 AI R&D 전략계획」, 「안전하고 신뢰성 있는 AI를 위한 행정명령」 등을 통해 AI 분야에 필요한 기술 인력을 평가하여 교육하고 글로벌 AI 인력 확보를 위해 비자 제도를 개편하였다. 또한 「인공지능교육법」을 제정하여 AI 오용 가능성을 감소시키고, 정부 관련 직원들이 정부의 수요에 가장 적합한 인공지능 시스템을 도입할 수 있도록 하기 위해 연방 행정 각부, 산하기관 등에 AI 교육을 시행하고 있다. 중국은 「고등교육기관 AI 혁신 행동 계획」,「중국 인공지능 인재양성 백서」등을 통해 국가 주도로 AI 인재를 양성하고 있으며, 대학을 중심으로 기업이 보조하는 형태의 인재 양성을 추진하고 있다. 대학에서 실무에 바로 투입할 수 있는 실습 기반 교육을 하고, 빅테크 기업에서는 인공지능 대회, 단기 교육을 통해 실전 경험 강화를 유도하고 인재 인증 제도를 활성화하여 AI 인재 양성을 추진하고 있다. 영국도 「영국 디지털 전략」에서 영국의 기술 기업이 혁신하고 성장하는데 필요한 인력과 자금 확보를 표명하고, 해외 우수 인재 확보를 위해 새로운 비자를 대폭 신설하였다. 일본은 「AI 전략」, 「초·중등 교육 단계에서의 생성형 AI 활용에 관한 잠정적 가이드라인」 등을 발표하고, 초·중등 교육에서부터 수리·데이터사이언스·AI 이론을 학습시키는 한편 첨단 AI 기술과 기술 표준화의 국제주도권 확보를 위해 해외 우수 인재 유치 및 국제 공동 연구를 지원하는 정책과 사업을 펼쳐오고 있다. 주요국은 디지털 인재 양성을 위해 디지털 리터러시 교육과정을 확대하고, 대학 학위프로그램을 확대하는 방향으로 정규교육 프로그램을 개편하고 있다. 기업의 AI 인재 양성을 강조하고 있으며, 글로벌 해외 인재 확보를 위한 제도를 개선하고 있다. 국내에서는 글로벌 AI 시장에서 경쟁력을 갖추기 위해 2023년 4월「초거대 AI 경쟁력 강화 방안」을 발표하고, 「디지털 인재양성 종합방안」등 AI·SW 인력양성의 기존 정책의 기조를 유지하며, 초거대 AI 개발·활용에 전문화된 글로벌 수준의 인재를 추가 양성한다. 3) SW 개발 환경 변화에 따른 개발 업무 변화 분석 생성형 AI 기술이 개발 업무에 미치는 영향에 대해, 요구분석-설계-구현-테스트의 4단계로 구분되는 SW 개발 프로세스를 기준으로 분석하였다. 우선 관련 문헌조사 후 컴퓨터공학과 교수, 개발자와 SW 전문가 등으로 구성된 자문단을 구성하여 구조화된 설문지를 통해 전문가 심층 인터뷰를 수행하였다. 마지막으로 O*NET의 개발자 직무 Task 기반 분석을 수행하였다. 3-1) 문헌 연구 (SW 개발에 사용되는 AI 및 생성형 AI 기술 관련 연구와 활용 현황) 소프트웨어 코딩을 자동화하기 위해 기존에 특수 목적이나 일부 한정된 사람들이 MDD(모델주도방법론), 로우코드·노코드(LCNC) 도구를 주로 사용하였다. 최근에 널리 퍼진 생성형 AI 개발 도구는 개발자들이 SW 개발 시 일반적인 도구로 활용하고 있다. 동 배경하에, 개발자들이 코드 생성 외의 다른 작업에도 생성형 AI를 얼마나 활용하는지와 활용 가능성에 대해 검토한다. SW 개발 요구분석 단계는 고객과 소프트웨어 개발 그룹과의 기능에 대한 이해와 협의가 중요하기 때문에 자동화 도구를 활용한 작업이 쉽지 않다. 생성형 AI는 회의 내용을 요약하고, 텍스트 기반의 요구사항을 구조화하는데 제한적으로 활용되고 있다. 연구에서도 사용자 요구사항의 코드 구현 관련 추적성 개선에 관한 연구 등의 소수 연구가 진행되고 있다. SW 설계 단계는 문헌 자료를 찾기 어려울 정도로 생성형 AI를 많이 활용하지 않는 것으로 조사되었다. SW 구현 단계에서는 거대언어모델(LLM)의 기술적 특성으로 인해 생성형 AI가 자동 코드 생성 기능이 우수하여, 코드 생성, 코드 자동 완성, 코드 주석 작성, 리버스 엔지니어링(역공학) 등에 개발자들이 이미 많이 활용하고 있었다. 개발자들은 생성형 AI 기술을 이용한 상용화된 도구인 GitHub Copilot, ChatGPT, AWS CodeWhisperer 및 Tabnine 등을 통해 많은 시간이 소요되고 반복 작업이 많은 코드 생성에 대해 이를 많이 활용하고 있다. 물론 생성형 AI가 코드를 완벽하게 생성하는 것은 아니어서, 컴파일되지 않는 코드, 보안 취약성, 라이선스 침해 등의 문제가 있는 코드에 대해서는 개발자의 수정을 반드시 필요로 한다. 개발자들은 생성형 AI 개발 도구를 지원하는 프로그램 언어 종류, 자동 코드 생성·코드 자동완성·코드 리뷰 등 코딩 관련 기능, 테스트 및 보안 검증 기능 여부에 따라 각 도구를 선택하여 활용하고 있다. 연구에서는 OpenAI, MS, 구글 등 LLM 관련 업체의 생성형 AI 도구의 원리 및 개선, HumanEval 등으로 성능을 테스트한 관련 논문들을 상당히 많이 발표되어 있다. 문헌 조사상에서 생성형 AI의 영향을 가장 많이 받을 것으로 예측된 단계는 SW 테스트 단계이다. 테스트 케이스의 우선순위 선정, 오류 원인 분석, 테스트 케이스 생성 등에 생성형 AI를 활용할 수 있다고 조사되었다. 생성형 AI를 활용한 테스트 데이터 생성, 테스트에 유용한 테스트 케이스 생산을 통한 테스트 커버리지 확대 등의 논문이 있다. 테스팅 자동화, 관리, 데이터 생성, 시나리오 작성 등을 지원하는 AI 증강 테스팅 도구들 또한 시장에 많이 출시되었다. SW 구현, 테스트 이외에도 생성형 AI 기술은 초급 개발자 교육에도 활용될 뿐만 아니라 SW 컴파일러의 오류메시지를 이해하기 쉽게 생성하거나, COBOL 등 기존 프로그램에서 사용하던 언어를 현재 운영하는 시스템에 맞는 프로그램 언어로 변경하는 작업 등에서도 활용되고 있다. 이러한 생성형 AI의 여러 코딩 관련 기능으로 인한 개발자 생산성 향상의 가능성에도 불구하고, 코드 생성 시 LLM에 최신 데이터 미적용, 환각(Hallucination), 보안 취약성, 저작권 침해, 내부 정보 유출 등에 문제가 있으며, 이로 인해 개발 생산성이 저하되고 개발 비용이 증가할 수 있다. 천문학적 LLM 개발 및 유지 비용도 간과할 수 없는 부분이다. 3-2) 전문가 심층 인터뷰 및 전문가 설문 분석 생성형 AI 개발 도구 사용 현황·발전 방향, 디지털 인재상, 개발자 수준, 디지털 인재 확보 현황 등에 대해 전문가들의 전문성에 따라 관련 분야의 심층 인터뷰를 시행하였다. 또한 SW 개발 프로세스 단계별로 개발자와 전문가들의 사용 현황과 의견을 물었다. 개발자들은 소프트웨어 구현 시 생성형 AI 개발 도구를 기본적으로 활용하고 있는데, 구현 및 테스트 단계에서 개발 코드 생성 및 검증은 물론, 개발 코드 설명이나 개발문서 작성에도 활용하는 것으로 조사되었다. 여러 생성형 AI 개발 도구 중 대부분 개발자가 깃허브를 이용하여 접근이 용이한 Copilot을 활용하고 있었으며, 일부 전문가가 Tabnine를 사용하고 있었다. 대화형 플랫폼으로 접근성이 가장 좋은 ChatGPT는 개발자가 코드에 대한 도움을 받거나, 새로운 기능에 대한 아이디어를 얻는 용도로 사용하는 것으로 조사되었다. 전문가들은 생성형 AI를 활용하면 초급 개발자가 빠르게 개발 역량을 높일 수 있는 장점도 있다고 했다. 그러나 단점으로는 최신 데이터 학습에 제한적인 LLM의 특성 때문에 빠른 주기로 기술이 변하는 프론트엔드 개발에는 활용하기 어렵다는 의견이 있었다. 개발자들은 테스트의 경우, 테스트 코드를 자동화하는 것과 프로그램의 단일 기능에 대한 테스트는 가능하나, 비즈니스 로직에 대한 전반적인 테스트는 불가하다고 했다. 그러나 테스트는 상당한 시간이 소요되고 반복적인 업무가 많아 생성형 AI를 이용하면 가장 개발 효율성을 높일 수 있는 단계인 것으로 분석된다. 생성형 AI 기술을 이용한 테스트 도구는 기존 테스트 도구의 단점인 적절한 테스트 커버리지를 위한 최소의 테스트 케이스 생성과 테스트 데이터 생산으로 인한 테스트 데이터 부족 문제를 해결한다고 했다. 전문가들은 요구사항 분석 단계에서는 생성형 AI를 활용하여 고객의 요구사항을 듣고 고객 요청의 맥락까지 파악하는 것은 어렵다고 조언하였다. 개발자들은 코딩작업에 생성형 AI 개발 도구를 사용하는 데에 비교적 긍적적이었으나, 소프트웨어 개발 공정 전체에 생성형 AI 개발 도구를 활용하는 데는 아직까지 어느정도 제한이 있다는 의견이 많았다. 초급 개발자보다는 중급 개발자의 개발 생산성 향상 정도가 높았는데, 이는 초급 개발자의 경우 생성형 AI의 환각(Hallucination)으로 인한 잘못된 코드를 분별하는 데 어려움을 겪기 때문인 것으로 판단된다. 또한 생성형 AI가 개발자나 SW 전문가가 원하는 정보를 생성하기 위해서는 컴퓨터 공학에 대한 기본 개념이 있어야 하고, 프롬프트 엔지리어링이 매우 중요하다는 의견이 지배적이었다. 생성형 AI 출현 이후에 전문 개발자들은 생성형 AI를 활용하여 빠르게 지식 습득을 하고 있으며, 기업에서는 지식이 많은 직원보다 주어진 문제를 인식하고 해결할 수 있는 역량을 가진 직원을 선호하는 것으로 나타났다. 교수들은 대학에서 학생들이 과제나 SW 프로그래밍에 생성형 AI 도구를 빈번하게 활용하고 있으며, 생성형 AI로 인해 소프트웨어 관련 비전공 학생들의 코딩 실력이 늘었다고 답변했다. 논문 작성에도 생성형 AI를 활용하며, 일부 학회는 논문에 생성형 AI 활용을 허용하고 있다고 했다. 3-3) O*NET의 개발 관련 직무의 작업(Task), 세부작업(DWA)별 생성형 AI 기술의 영향을 검토 컴퓨터 프로그래머, 소프트웨어 개발자, 웹 개발자의 세부 업무(DWA) 중 개발과 관련된 것과 생성형 AI에 영향을 받는 DWA를 추출하고, 개발자 작업(Task)과 비교하여, SW 개발 프로세스인 요구분석, 설계, 구현, 테스트 단계별로 생성형 AI에 의한 영향도를 분석한다. SW 개발 업무 중 생성형 AI의 영향도가 가장 큰 작업(DWA)은 구현 단계의 컴퓨터 프로그래밍 코드 작성(Write computer programming code), 애플리케이션 개발(Develop computer or online applications), 테스트 단계의 소프트웨어 테스트(Test software performance), 소프트웨어 테스트 시나리오 및 테스트 케이스 제작(Develop testing routines or procedures), 기타 소프트웨어 사용 설명서 작성(Prepare instruction manuals) 등이었다. 컴퓨터 프로그래머, 소프트웨어 개발자, 웹 개발자 중 생성형 AI의 영향을 가장 가장 많이 받는 직무는 컴퓨터 프로그래머로 분석되었다. AI나 생성형 AI의 직업에 미치는 선행연구들에서도 “AI나 생성형 AI 역량”과 “모든 직업에서 수행하는 직무”를 비교하여 “각 직업에 대한 생성형 AI의 영향도”를 분석하였으며, 본 연구는 “개발자 업무와 직업”에 관한 연구를 문헌 연구, 전문가 심층 인터뷰, 그리고 선행연구의 연구 방법(AI 역량과 직업 역량 비교)을 활용하여 수행하고 분석을 시도하였다. 3-4) 생성형 AI가 개발 업무에 미치는 영향에 대한 최종 결과 분석 문헌 연구, 전문가 심층 인터뷰, O*NET 자료 분석 결과, SW 개발 프로세스 중 생성형 AI 기술의 영향을 가장 많이 받는 단계는 구현 단계였으며, 개발자가 생성형 AI를 활용하여 구현 단계에서 할 수 있는 작업은 “문헌이나 인터넷 등에 이미 포함되어 있는 코드”를 이용한 코드 생성과 통합개발환경(IDE)이 제공하는 함수를 사용할 때 “코드 자동 완성” 기능을 활용하는 것이다. 그러나 개발 단계에서 비즈니스 로직이 복잡하거나 개발 코드가 최신 기술을 활용해야 하는 코드를 작성해야 할 때는 생성형 AI 개발 도구를 활용하기 어렵다. 생성형 AI의 영향으로 전문 개발자가 아닌 소프트웨어 산업 외의 다른 산업에 종사하는 도메인 전문가들의 프로그래밍이 가능해지며, 디지털 전문가로 전환 가능성이 커질 것으로 예상된다. 종합적으로 SW 개발 단계 중 요구분석과 설계 단계에서는 생성형 AI 활용도가 낮아 SW 개발 시 개발 생산성 향상에 많은 영향을 주지는 못하는 것으로 분석된다. 또한 개발자 업무 중 컴퓨터 하드웨어 엔지니어와 협력하여 하드웨어 및 소프트웨어 시스템을 통합하고, 고객, 마케팅 담당자, 소프트웨어 품질 담당자, 소프트웨어 보안 담당자 등 소프트웨어 개발에 중요한 이해관계자와의 협상 등 직접적인 개발 업무에 속하는 않는 작업들은 생성형 AI를 활용하기 어렵다. 4) 생성형 AI 시대에 대응한 디지털 인재양성 생성형 AI가 개발자에 미치는 영향 분석 결과와 해외 주요국 및 국내 AI 정책을 분석하여 생성형 AI 디지털 인재 양성 정책 방향을 검토하였다. 1. 디지털 인력 확보 기본 방향 - 디지털 교육 저변 확대 및 개인 맞춤 교육 - 생성형 AI 기술의 효율적 활용을 위한 디지털 교육 - 생성형 AI를 활용한 연구와 디지털 교육 2. 디지털 인재 양성을 위한 교육 환경 구축 - 체계적 교육시스템 구축 - 디지털 교육을 위한 학습 시스템과 평가시스템 구축 3. 지속적이고 효율적인 인재 확보 추진 - 글로벌 인재 확보 - 디지털 인재 네트워킹 활성화 지원 본 연구는 요구사항 분석, 설계, 구현, 테스트의 개발 프로세스 단계별로 문헌 연구, 심층 인터뷰, O*NET 데이터를 이용하여 생성형 AI 영향에 의한 개발환경 변화를 다각도로 분석하여, 생성형 AI 시대의 인재양성 정책를 제안하였다는데 의의가 있다. 향후 연구로는 생성형 AI 활용이 어려운 개발 관련 업무나 교육에 생성형 AI 기술을 적용하여 개발 생산성을 높이고 디지털 전환을 가속하게 하는 방안에 대한 연구가 필요하겠다. 5. 정책적 활용 내용 본 연구는 생성형 AI가 개발 업무와 개발자 직무에 대한 영향도를 문헌 분석, 전문가 심층 인터뷰, 데이터 기반 검토를 통해 생성형 AI가 개발 프로세스 중 구현과 테스트에 영향이 가장 많은 영향을 주는 것으로 분석하였으며, 이에 따라 디지털 인력 양성 방향을 제시하였다. 지금까지 발표한 「초거대 AI 경쟁력 강화 방안」, 「디지털 인재양성 종합방안」 등의 구체적인 실행 계획 수립에 활용할 수 있다. 6. 기대효과 생성형 AI 기술이 세계 경제 경쟁력 강화에 중요한 기술로 부각됨에 따라 생성형 AI 시대에 대비한 국내 디지털 인재 양성 정책 수립에 활용되어, 디지털 기술을 개발하고 활용하는 인력의 역량 강화 및 이에 따른 국내 디지털 경쟁력 강화에 기여할 것이다.