인공지능 윤리동향

날짜2018.09.20
조회수19297
글자크기
    • 인공지능 기술은 유례가 없는 속도로 빠르게 진화하고 있기 때문에, 인공지능과 인류가 공존하기 위한 인공지능 윤리 이슈가 부상
    • 인공지능 기술 발전의 다양한 가능성을 고려하여 인공지능 윤리를 마련하는 접근이 필요함
    • Artificial intelligence technology, which is rapidly evolving at unprecedented pace, is emerging as an ethical issue, laying the foundations for artificial intelligence and mankind to coexist.
    • In order to propose a successful artificial intelligence ethics, it should be discussed on the basis of various possibilities of artificial intelligence technology development.
  • 인공지능과 윤리
    • 인공지능은 인간의 지능적 행동을 대체하는 기술로 인류와 공존할 수 있는 윤리적 인공 지능에 대한 논의가 지속돼 왔음
    • 1956년 다트머스 회의에서 인공지능의 개념이 처음 정립된 이래로, 인간을 대체할 수 있는 기술로써의 인공지능 윤리에 대한 논의가 본격화됨
    • 그러나 인공지능은 두 번의 암흑기를 거치며, 인공지능 기술 자체에 대한 한계에 봉착 함에 따라 윤리적인 인공지능에 대한 관심 역시 둔화됨
    • 최근 인공지능 기술은 심층학습(Deep Learning)*으로 대변되는 세 번째 황금기를 맞이하여, 유례가 없는 속도로 그 기술이 발전함에 따라 인공지능의 윤리에 대한 논의가 더욱 본격화됨
    • * 심층학습은 인공지능의 방법론인 인공신경망을 더 깊게 구성하여 복잡한 데이터에서 패턴을 효율적으로 인식하는 기술로, 바둑 인공지능 알파고를 비롯하여 객체 인식, 음성인식, 기계번역 등 광범위한 영역에서 활용
    • 인공지능 윤리는 기술의 부작용에 대한 대비, 인공지능 장치의 도덕적 개념 구현 등 인공 지능이 우리의 삶과 공존하기 위한 규범적 토대를 논의하는 분야임
    • 특히, 국제사회는 사람 수준의 인공지능(Human-level AI)이 도래한다는 것을 가정하여* 인류가 인공지능과 공존하기 위한 방향으로 인공지능 윤리를 논의함
    • * 범용 인공지능, 즉 사람처럼 능동적으로 문제를 찾고 해결하는 인공지능의 도래 시점은 전문가 조사 결과1 45년 후에 50%의 확률로 나타날 것으로 예상됨
    • 또한 각 산업에서는 인공지능을 활용한 지능적 행동의 자동화가 일으킬 수 있는 잠재적인 위험*에 대한 대처 방안을 강구
    • * 자율주행 자동차의 윤리적인 선택, 인공지능을 활용한 무기체계의 악영향, 해킹을 통한 원격 조작에 대한 대비, 킬 스위치에 대한 논의 등
    • 인공지능 윤리는 각국의 정부, 학계, 기업, 비영리단체에 이르기까지 거의 모든 연구 주체가 참여하고 있으며,‘인공지능을 인류에게 이롭게 활용해야 한다’는 대원칙에 대해서 공감대가 형성
    • 국내에서도 지난 2018년 6월‘지능정보사회 윤리헌장’을 발표하여 인공지능 윤리에 대한 국제사회의 움직임에 동참
  • 인공지능 윤리와 관련된 대표적 이슈2
    • (인공지능과 공학 윤리) 현 시점의 인공지능은 연구자가 의도를 가지고 개발하는 시스템으로, 인공지능 윤리 역시 큰 관점에서 공학 윤리와 상통
    • 공학 윤리의 관점에서 인공지능 기술이 가장 우선적으로 고려해야 하는 사항은 안전(Safety)
    • 또한 사람 수준의 지능적 행동을 일컫는 범용 인공지능은 아직 시기상조이기 때문에 예방적 윤리(Preventive Ethics)*가 필요함
    • * 예방적 윤리는 어떠한 행위의 가능한 결과들을 미리 예측하여 대비함으로써 그 산출물로 인한 위험을 미리 방지하기 위한 접근 방식
    • 인공지능의 예방적 윤리 정립을 위해서는 먼저 인공지능 알고리즘의 투명성과 설명 가능성이 전제돼야 하나, 현재 심층학습 기술은 설명 가능성이 매우 낮기 때문에 앞으로의 기술 발전과 밀접한 관계 속에 인공지능 윤리를 고려해야 함
    • (인공지능의 철학적 접근) 인공지능과 인류의 공존을 위해 인공지능의 존재론적 특징에 대한 고찰을 바탕으로 인공지능 윤리의 기본적인 토대를 마련
    • 표 1 인공지능의 존재론적 특징에 대한 가설
      <표 1> 인공지능의 존재론적 특징에 대한 가설
      가 설 세 부 내 용
      인지 작용의 독자적 수행 능력을 지닌 행위주체
      • 인공지능 시스템이 인간의 조작 없이도 지각, 정보처리, 실행, 학습 등을 수행할 수 있는 독립적인 행위 주체라는 관점으로, 인간과 외양이나 그 기원이 다르더라도 인공지능 자체가 행위와 판단의 능력을 지닌 주체로 여김
      • 인공지능의 성능을 측정하는 튜링 테스트는 인공지능 시스템이 인간과 구별하기 어려운 정도로 그 완성도를 가늠함
      • 그러나, 기능적 차원에서 인간과 구별할 수 없다고 해도 해당 인공지능 시스템이 사람과 같은 혹은 유사한 행위주체로 보기 어려움
      • (전망) 향후 범용 인공지능이 출현한다면 이 가설로 인공지능의 존재론 적인 특징을 설명할 수 있음
      인간과는 다르지만 자체의 심적 속성을 지닌 독립주체
      • 인공지능을 동물과 같이 심적 속성(Mental Properties)을 갖는 주체로 여기는 관점으로, 인간과 대등한 인지주체는 아니라는 가설
      • 인간은 범용 지능(General Intelligence)을 수행하는 주체로 다양한 문제를 다양한 방법을 활용해서 해결할 수 있음
      • 예를 들면, 두더지는 땅을 파는 일에 최적화된 심적 속성을 갖는 독립주 체로, 현재 특정 영역의 패턴 인식에 최적화된 심층학습 기반 인공지능이 해당할 가능성이 있음
      • (전망) 심층학습의 결과물이 특정 영역의 문제를 잘 해결하므로 일견 이 가설을 지지할 수 있으나, 심적 속성을 갖기에는 아직 기술의 성숙도가 낮으므로 독자적 행위주체로 가는 과도기적 가설로 활용 가능
      인간의 효용을 위한 인공물 또는 도구
      • 인공지능은 인간이 의도를 갖고 제작한 산물로 심적 속성이 없는 사물에 해당하는 존재
      • 현재 대부분의 인공지능 시스템은 스스로 의사결정을 내린다기보다는 방대한 양의 데이터로 학습된 복잡한 비선형 함수로 여긴다면, 의식이나 주체성이 없는 사물로 보는 것이 타당
      • (전망) 현재 심층학습을 비롯한 인공지능의 결과물은 인간의 지각능력을 극대화한 것이기 때문에, 현 시점에서는 가장 보수적인 가설로 볼 수 있음
      확장된 정신이나 확장된 사회적 정신
      • 확장된 정신(Extended Mind)은 인공지능이 인간의 대리자 역할을 수행 한다는 관점에서, 인공지능 개발자의 의도가 반영된 인공지능은 결국 개발자의 확장된 정신으로 보는 가설
      • 인공지능을 확장된 정신으로 여기는 가설은 인공지능이 인간의 지시아래 행위를 수행할 때, 인공지능이 독립적인 지능 체계로 존재론적 지위를 갖는 것임
      • (전망) 인공지능을 인간을 이롭게 하는 도구로 보는 관점을 더 확대한 것으로, 실제 심층학습의 패턴인식이 여러 산업(의료, 법, 금융 등)으로 확장될 경우 학습을 수행한 데이터에 따라 그 의도가 변할 수 있음. 따라서 현 시점의 인공지능 윤리를 다루기 위해서는 인공지능을 확장된 정신으로 보는 것도 타당할 수 있음
      ※ 출처 : 2016년 정보문화포럼 정책연구보고서, 한국정보화진흥원(2016)에서 정리하고 개인적인 의견 추가
    • 인공지능의 존재론적 특징에 대한 가설은 다음 <표 1>과 같음
    • 표 1의 존재론적인 특징에 따라 인공지능의 윤리에 대한 접근법 자체가 상이할 수 있기 때문에, 다양한 가능성을 염두에 둘 필요가 있음
    • 현재 인공지능은 심층학습을 필두로 놀라운 발전을 했으나, 그것은 사칙연산으로 이루어진 거대한 수식에 불과하기 때문에 기본적으로는 인공지능을 사물로 보는 것이 타당함
    • 그러나 이러한 수식이 결국 인간의 의사결정*에도 간접적인 영향을 미칠 수 있으므로, 인공지능을 개발한 연구자의 의도가 구현돼 있다고 볼 수 있음
    • 인공지능의 궁극적인 목표는 사람 수준의 인공지능, 즉 범용 인공지능을 구현하는 것이기 때문에, 선제적인 인공지능 윤리를 제정하기 위해 여러 가지 시나리오를 고려하는 것이 중요함
    • (인공지능과 새로운 윤리학) 인공지능의 혁신성으로 인해 기존의 윤리학적 접근에서 벗어나, 전혀 새로운 관점의 윤리적 범주를 고려해야 한다는 관점
    • (인공지능의 도덕적 지위) 미래의 인공지능이 자율적 의사결정을 통해 행위자로 우리 사회의 영향을 끼친다면, 기존 과학기술의 도구적 관점에서 벗어나 인공지능의 도덕적 지위를 고려해야 함
    • (인간중심을 넘어선 윤리학) 전통적인 윤리학은 인간의 행동이나 도덕적 본성의 가치를 분석하는데 중점을 둔 것이나, 인공지능 역시 인간과 유사한 지능적 활동을 수행하기 때문에 인공지능의 행위자나 수혜자를 규명하여 새로운 윤리학적 접근이 필요함
    • (행위자로서의 인공지능) 인간에게 국한된 행위자의 개념을 인공지능으로 확대하기 위해서는 인공지능을 도덕적 행위자로 구현하기 위한 공학이 필요하며, 이 과정상의 윤리적 규범에 대해 정의할 필요가 있음
    • (공존의 윤리학) 고도화된 인공지능은 인간과 더 이상 주종관계가 아닐 가능성이 높으며, 이에 따라 인공지능에 친화적인(Friendly)으로 공존할 수 있는 상황을 가정하고 윤리를 정립해나가야 함
    • (인공지능 기반의 무기체계) 인공지능을 기반으로 한 무기체계의 개발은 가까운 미래에 인류가 직면할 수 있는 가장 큰 위협일 가능성이 높음
    • 인공지능의 군사적 활용은 그 범주에 따라 인류에 심각한 타격*을 입힐 가능성이 높기 때문에, 연구 개발자의 도덕적 윤리에 대한 구체화 필요
    • * 시스템 해킹을 통한 인공지능 무기 제어, 테러리스트들의 악의적인 활용, 인공지능의 기능적 오류로 인한 문제 등
    • 국제사회는“인공지능은 인간을 이롭게 하는 방향으로 사용해야 한다.”는 대전제에 공감대를 형성했으며, 이는 인공지능을 군사 목적으로 활용하는 것 역시 연구 개발자의 도덕적 윤리에 적용돼야 함
    • 지난 2018년 4월 한국과학기술원의 인공지능 무기개발 연구에 대한 국제 연구진의 문제제기 역시 국제사회가 인공지능의 군사적 활용을 주의 깊게 여기고 있다는 증거임
    • (인공지능과 알고리즘의 편향) 심층학습 기반의 인공지능은 학습 데이터에 따라 편향될 가능성도 있기 때문에, 이를 극복하기 위한 노력이 필요함
    • 현대 인공지능의 눈부신 성장을 이끈 심층학습은 학습한 데이터의 양과 질이 높을수록 그 예측성능이 매우 향상되지만, 학습 데이터의 선별에 연구자의 의도가 충분히 반영될 수 있어 이것이 곧 편향된 인공지능으로 여겨질 수 있음
    • 이것을 해결하기 위해서는 심층학습 기반의 인공지능의 인과관계를 설명할 수 있어야 하지만, 현재 기술 수준에서는 그 인과관계가 규명되지 않았기 때문에 윤리적인 이슈로 부상하기는 어려움
    • 인공지능의 편향은 설명 가능한 인공지능(Explainable AI) 기술의 새로운 발견과 인공지능 기술에 대한 표준의 정립으로 그 해결책을 모색할 수 있으나, 윤리적인 관점에서 이를 선제적으로 대응할 수 있는 노력이 필요함
  • 시사점
    • 현대 인공지능의 눈부신 발전으로 인해 과거 인공지능의 태동 시점부터 논의된 인공지능 윤리에 대한 이슈가 급부상함
    • 인공지능은 지금도 빠른 속도로 발전하고 있는 기술로 인공지능과 인류가 공존할 수 있는 미래를 만들기 위해, 인공지능 기술 발전에 지속적인 관심을 갖고 인공지능 윤리에 대한 고도화가 필요함
    • 1 When Will AI Exceed Human Performance? Evidence from AI Experts(2018)
    • 2 2016년 정보문화포럼 정책연구보고서, 한국정보화진흥원(2016)의 내용을 토대로 개인적인 의견을 추가함