요약문 1. 제 목 : AI 윤리·신뢰성 제도 연구 2. 연구 배경 및 목적 최근 AI 기술의 발전은 전 세계적으로 사용자의 증가와 함께 주목을 받고 있으며, 특 히 생성형 AI 기술은 글로벌 기술 시장에서 주요 트렌드로 자리 잡았다. 구글, 마이크 로소프트와 같은 AI 분야 글로벌 선도 기업들은 경쟁적으로 새로운 AI 서비스를 출시 하고 있으며, 2022년 오픈AI의 챗GPT 출시는 생성형 AI 시대의 본격적인 서막을 알렸 으며, 영상 생성 기술인 '소라(Sora)'와 같은 혁신적인 AI 기술이 고품질 영상과 환경 묘사를 통해 높은 평가를 받고 있다. 더불어, 구글은 자체 서비스에 생성형 AI 모델인 제미나이(Gemini)를 도입하며 AI 생태계 확장을 발표하는 등 AI 기술의 발전과 도입이 빠르게 진행되고 있다. AI 기술의 이러한 발전은 단순히 기술적 가능성에 그치지 않고, 글로벌 경제와 산업 전반에서 큰 파급 효과를 예고하고 있다. 예를 들어, 스탠퍼드대학교의 2024 AI 인덱스 보고서에 따르면, 전 세계 기업 중 55%가 AI 기술을 도입하고 있으며, 이는 전년도 50%에서 5%p 증가한 수치이다. 이러한 도입률 증가는 AI 기술이 향후 3~5년 이내에 일상생활과 산업에 걸쳐 획기적인 변화를 가져올 것이라는 기대를 반영하고 있다. 또 한, 전 세계 응답자의 63%가 챗GPT를 인지하고 있을 만큼, AI 기술은 대중의 관심과 기대를 동시에 받고 있다. 그러나 AI 기술의 빠른 발전과 확산은 새로운 윤리적 문제와 신뢰성 확보에 대한 필 요성을 동반하고 있다. 특히, 데이터 편향, 개인정보 유출, 그리고 AI 시스템의 공정성 과 투명성 문제는 사회적 신뢰를 저해할 수 있는 주요 요소로 지적되고 있다. 구글, 오 픈AI 등 글로벌 빅테크 기업은 이러한 문제를 해결하기 위해 AI 윤리 가이드라인과 내 부 프레임워크를 구축하고, 안전성을 강화하기 위한 연구와 평가를 지속 진행하고 있 다. 하지만, 국내에서는 특히 중소기업들이 예산과 인력 부족, 기술적 인프라의 미비 등의 이유로 변화에 효과적으로 대응하기 어려운 상황에 직면해 있다. 이에, 본 연구는 국내 중소기업들이 AI 기술 도입과 활용 과정에서 직면할 수 있는 윤리적 문제와 신뢰성 확보 이슈를 해결할 수 있도록 지원하기 위한 정책적 기반에 대 해 연구하고자 한다. 각국의 정책 및 글로벌 기업의 가이드라인을 살펴보고, 우리나라 기업이 이 이슈에 대해 어느 정도의 인식 수준을 갖고 있는지를 심층 인터뷰 조사를 통해 확인하고자 한다. 이러한 연구는 국내 AI 산업이 글로벌 경쟁력을 갖추고, 윤리적 이고 신뢰성 있는 AI 생태계를 구축하며, 지속 가능한 성장을 이룰 것으로 기대된다. 3. 연구의 구성 및 범위 본 연구는 AI 신뢰성 확보를 위한 정책 방향을 제시하기 위해 다음과 같은 세 가지 주요 과업으로 구성되었다. 먼저, 선행연구 조사에서는 AI 윤리, 신뢰성, 그리고 AI 위 험의 개념과 정의를 체계적으로 정리하고자 하였다. 이를 위해 기존의 다양한 문헌을 검토하며, 글로벌 및 국내 AI 기업의 대비 현황을 파악하기 위한 연구의 범위를 설정 하였다. 또한, OECD에서 제공하는 데이터베이스를 활용하여 AI 사고의 연도별 및 국가 별 현황을 분석하였으며, 글로벌 빅테크 기업들이 AI 윤리와 신뢰성 확보를 위해 조직, 프레임워크, 기술 개발 등의 다양한 방식으로 대응하고 있는 사례를 살펴보았다. 그 다음, 글로벌 AI 사고 및 기업 대응 현황 분석에서는 글로벌 AI 사고 데이터를 기 반으로 주요 국가와 기업의 AI 위험 관리와 대응 현황을 조사하였다. 특히 빅테크 기 업들의 사업 보고서와 최근 조사 자료를 통해 신뢰할 수 있는 AI의 대응을 강화하기 위해 조직적으로 접근하는 방식과 프레임워크를 구체적으로 분석했다. 이 과정에서 구 글, 오픈AI, 메타 등 주요 기업들이 AI 개발 과정에서 안전성과 책임성을 높이기 위해 어떤 노력을 기울이고 있는지에 대한 구체적인 사례를 포함하였다.