양자 태그를 찾았습니다.
  • 지난 4월 국가과학기술의 혁신을 위해 설치된 대통령 직속 기구인 국가과학기술자문회의는 글로벌 경제·안보 패러다임을 급속하게 바꿀 3대 게임체인저 기술 이니셔티브를 심의·의결하였다. 세 가지 핵심 기술은 AI-반도체, 첨단바이오, 퀀텀(양자)이다. ‘AI-반도체’는 AI와 반도체 기술을 결합하여 고성능·저전력 반도체를 개발하고 이를 통해 다양한 산업 분야에서 혁신을 이끌어내는 것을 목표로 한다. ‘첨단바이오 기술’은 생명·건강과 직결되는 기술로서 혁신기반기술과 고품질 데이터의 결합으로 바이오 가치사슬을 강화하는 데 중점을 둔다. ‘퀀텀’은 양자 컴퓨팅과 통신 기술을 개발하여 미래의 정보처리와 보안 분야에서 혁신을 일으키는 것을 추구한다. 이처럼 세 가지 기술은 각기 다른 특성을 보이지만 난제를 해결하고 사회적 가치를 창출한다는 점에서 동일한 목적을 지닌다. 세 가지 기술의 효과적인 확보는 환경, 조직, 협력의 관점으로 접근하는 시스템적 사고와 전략을 통해 달성될 수 있다. 본고에서는 전체 숲을 거시적으로 조망하는 시스템적 사고를 통한 접근과 세부 전략에 대해 논의해보도록 한다. 1. 환경, 조직, 협력의 ‘시스템적 사고’로 접근하라 3대 게임체인저 기술은 공통적으로 ‘시스템적 사고’를 요구한다. 시스템적 사고는 환경, 조직, 협력을 종합적으로 바라보는 관점이다. 즉, 각 기술을 둘러싼 환경을 비롯하여 정부, 기업, 대학, 연구기관 등 조직 차원의 대응 전략, 주체 간 협력에 대한 파악을 종합적으로 고려한 시스템적 사고가 이루어질 때 세 가지 기술을 효과적으로 확보할 수 있다. 각 기술은 고유한 환경적 요인에 의해 영향을 받는다. 환경적 요인은 국가과학기술자문회의 전원회의에서 의결한 각 기술의 이니셔티브를 통해 확인된다. AI-반도체는 AI와 반도체 산업이 결합한 분야로, 급속도로 발전하는 AI 기술과 데이터 수요에 의해 급격히 성장하고 있다. 발전 속도만큼 복잡해지는 기술, 데이터 센터의 확장, 에너지 효율 등이 중요한 환경적 요소로 작용한다. AI-반도체 이니셔티브는 ‘인공지능 G3 도약, K-반도체 새로운 신화 창조’를 비전으로 저전력 AI-반도체 달성, 글로벌 R&D·현지 실증 등 새로운 수출산업화 전략적 지원을 제시하였다. 차세대 범용 AI(GAI), 경량·저전력 AI, AI 슈퍼컴퓨팅 등의 중점기술과 거버넌스 차원에서 국가인공지능위원회 설립, 글로벌 AI 리더십 지속을 위한 ‘AI 서울 정상회의’ 개최도 주목된다. 에너지 효율은 중점기술들을 통해 강조되고, 기술적 복잡성과 같은 환경적 요인은 AI로 인해 발생하는 문제 혹은 파급효과를 함께 고민하기 위한 넓은 거버넌스를 통해 드러난다. 첨단바이오는 저출산·고령화 시대, 코로나19와 같은 전염병, 맞춤형 의료 등 인간의 삶에 직접적인 영향을 미치는 요인과 연관된다. 이에 관련 수요가 끊임없이 증가하고 있으며 데이터 활용, 신약 개발, 유전자 편집 등과 같은 환경적 요소가 존재한다. 첨단바이오 이니셔티브는 이러한 첨단바이오의 환경적 요소를 파악하여 기술을 확보하기 위해 ‘대한민국 새로운 성장 DNA, 제2의 반도체 신화 첨단바이오’라는 비전을 제시하였다. 또한, 이니셔티브에서 제시한 9대 중점기술에는 첨단바이오의 환경적 요소에 대한 고민이 담겨있다. 한국인 100만 명 빅데이터, 인체 표준 분자지도와 같은 바이오·의료 데이터 기술은 첨단바이오에 있어 데이터 활용의 중요성을 보여주며, AI 신약과 첨단의공학, 혁신기반기술은 다양한 기술을 접목한 신약 개발과 유전자 편집이 지속적으로 고려되어야 할 환경 요소임을 시사한다. 양자 기술은 상용화 초기 단계로 매우 복잡한 기술적 특성을 보인다. 따라서 고비용 인프라, 장기적 연구의 필요성, 제한된 인력과 지식 등이 환경 요소로 꼽힌다. 퀀텀 이니셔티브는 ‘양자과학기술 대도약, 디지털을 넘어 퀀텀의 시대로’라는 상대적으로 큰 비전을 제시하였다. 양자 기술은 타 기술에 비해 상용화 초기 단계에 속하고 복잡한 기술이기 때문에 한 단계 도약하자는 의미를 담았다고 볼 수 있다. 이니셔티브의 주요 내용을 살펴보면 2030년까지 양자 전문인력을 1천 명 이상 확보하고 5개 이상 기술 선도국과 정부 간 신규 퀀텀 협력 추진하겠다는 전략이 등장한다. 즉, 고비용 인프라를 요구하지만, 제한된 인력과 지식의 어려움이 있는 양자 기술의 경우 단기간에 무리한 기술 확보 전략을 제시하기보다는 장기적 연구를 수행하기 위한 전문인력양성과 산·학·연 연구 거점 구축, 기술선도국과의 교류와 같은 환경이 뒷받침되어야 함을 보여준다. 환경적 요소에 대해 파악했다면 다양한 조직들의 대응 전략에 대한 고민이 필요하다. 정부는 각 기술을 확보하기 위해 전략적 투자를 확대하고 연구개발(R&D)을 지원해야 한다. 고비용 인프라와 전문인력이 필요한 분야에는 장기적인 투자를 고려해야 하며, 신기술의 빠른 상용화를 가능하게 하는 규제 혁신과 기술의 윤리적 사용을 위한 가이드라인이 요구된다. 나아가 글로벌 협력을 강화하여 국제적인 공동 프로젝트를 추진하고 기술 경쟁력을 제고해야 한다. 우리나라도 준회원국으로 가입된 EU의 Horizon Europe과 같은 다자간 연구혁신 프로그램이 좋은 본보기가 될 것이다. 기업은 혁신적인 연구개발에 집중해야 한다. 자체 R&D를 통해 시장 수요에 맞는 제품을 빠르게 상용화하고 오픈 이노베이션을 통해 스타트업, 연구소, 대학과의 협력을 추진하여 혁신적인 기술을 발굴해야 한다. 국내뿐만 아니라 글로벌 시장에서도 경쟁력을 확보하기 위해 신흥 시장을 개척하고 해외 연구소와의 협력도 강화할 필요가 있다. 대학과 연구기관은 기초 과학 연구를 강화해야 한다. 이를 통해 각 기술의 이론적 토대를 마련하고 혁신적인 아이디어를 제공하는 역할이 필요하다. 또한, 첨단 기술 분야의 인재를 양성하기 위해 교육 과정에 대한 혁신을 고민하고 산업계와의 협력을 통해 현장 맞춤형 교육을 제공할 필요가 있다. 마지막으로 각 조직의 강점을 극대화하면서도 모든 주체들이 지속적으로 협력할 때 시스템적 사고가 비로소 가능하다. 게임의 판도를 바꾸는 기술은 그만큼 기술의 복잡성과 고도화로 인해 다양한 주체가 가진 자원과 역량을 결합할 때 효과적인 연구개발이 가능하기 때문이다. 따라서 협력을 통해 연구 성과를 공유하고 상호 보완적으로 기술을 확보해 나가는 전략을 구축해 나가야 한다. 2. 광범위 협력을 통해 융합을 주도하라 결국 세 가지 기술의 확보 전략은 광범위한 협력과 융합연구가 핵심이다. AI-반도체는 특히 전 세계적으로 핵심 기술로 부상하였다. 개별 기술에 대한 관심을 넘어 자율주행, 스마트 시티, 금융 등 다양한 분야에서 필수적인 기술로 자리 잡으면서 고성능·저전력 반도체의 수요가 급증했기 때문이다. 지난 5월 21일부터 22일 서울에서는 AI 안전, 혁신, 포용을 주제로 한국과 영국이 공동으로 개최한 ‘AI 서울 정상회의’가 진행되었다. 세계 여러 지도자들과 CEO들이 모여 협력을 통해 인공지능의 잠재력을 실현하기 위한 AI 거버넌스의 원칙을 제시하고 세 가지의 융합적 키워드를 주제로 설정하였다는 점에서 의미가 있다. AI반도체는 게임 판도를 바꾸는 혁신적 기술인만큼 앞으로도 일자리, 윤리 문제 등 새로운 기회와 위기를 동시에 발생시킬 것이다. 따라서 AI-반도체로 발생할 위기까지 염두에 두고 국내·외 다학제적 협력과 융합을 주도하여 혁신 기술을 확보하고 지속적으로 관련 이슈를 선점할 필요가 있다. 첨단바이오와 퀀텀 역시 광범위한 협력과 융합이 필수적이다. 첨단바이오와 퀀텀 이니셔티브는 각각 우수 기술기반 창업 환경 구축과 산·학·연 양자 연구거점 구축을 추진전략으로 제시하였다. 최근 AI 분야에 대한 관심이 상대적으로 급증하면서 AI를 활용한 창업 기업이 다수 등장하였지만 다른 두 기술도 정부뿐만 아니라 민간에서 많은 관심을 갖고 협력해야 한다. 첨단바이오는 식량·기후변화 등 다양한 사회문제와 직결되고 퀀텀은 문제를 효과적으로 해결할 수 있는 잠재력이 큰 기술이기 때문이다. 따라서 기술에 대한 좋은 아이디어를 가진 인재, 소셜벤처를 적극적으로 발굴하고 산·학·연 소통을 활성화해야 한다. 모든 기술은 미국, EU, 영국 등 선도국과 선도기관과의 융합연구가 필수적이다. Horizon Europe의 사례를 보면, 유럽은 유럽 전역을 단일 연구지대로 구축하여 재정을 투자하는 연구혁신 프로그램을 추진 중이다. 2021년부터 2027년까지 7년간 955억 유로(약 138조 원)를 지원한 것은 연구혁신 분야에서 세계 최대 규모다. 막대한 투자로 이러한 프로그램을 추진하는 가장 큰 이유는 협력과 융합을 통해 과학기술의 개방성이 확대되고 혁신의 가능성이 커지기 때문이다. 우리나라도 준회원국으로 가입되어 글로벌 협력의 길이 더 열렸지만 이를 벤치마킹하여 보다 적극적으로 해외 국가, 기업, 인재와의 교류를 추진하고 다양한 연구 컨소시엄을 구축해 나간다면 융합을 통한 기술 확보가 가속화될 것이다. 3. 지방을 테스트베드로 삼아 기회를 넓혀라 지방은 산업의 디지털 혁신이 실제 구현될 수 있는 기회의 장이다. 스웨덴 말뫼는 한 때 조선업이 쇠퇴하면서 말뫼의 눈물이라 불렸는데 디지털·바이오 등 신사업이 성장하면서 말뫼의 웃음이라 불릴 정도로 현재는 지역의 모습이 탈바꿈되었다. 지역 내 조선업의 상징이었던 대형 크레인은 철거되었고 54층 빌딩 터닝 토르소를 중심으로 신산업 육성이 이루어졌다. 이처럼 지방은 위기를 기회로 바꿀 수 있는 전략의 요충지다. 우리나라도 여러 지방에 다양한 자원과 기회가 존재한다. 스마트팜, 스마트공장과 같은 1, 2차 산업의 디지털 혁신은 해당 산업을 먹거리로 삼아온 지방에서 이해도가 가장 높다. 따라서 지방을 디지털 혁신 구현의 테스트베드로 삼는다면 각 지역의 자원과 특화 산업을 적극 활용해 산업의 디지털 혁신 구현을 앞당기고 게임체인저 기술의 확보가 빨라질 수 있다. 첨단바이오를 예를 들어 보자. 첨단바이오는 코로나19와 같은 감염병, 탄소중립 등 인류가 당장 체감하는 문제들을 해결하는 기술이다. 강원특별자치도는 한국과학기술연구원(KIST)과 바이오 국가첨단전략산업 특화단지 조성 및 기술교류를 위해 업무협약을 체결하여 우수인력 교류 및 공동연구, 기업지원 등을 협력하였다. 노력의 결과로 강원도는 지난 6월 바이오 국가첨단전략산업 특화단지를 유치하였고, AI 기반의 신약개발과 중소형 CDMO(연구개발단계부터 임상, 제조 등 모든 과정을 서비스화한 사업) 거점으로 조성되는 성과를 얻었다. 또한, AI 헬스케어 글로벌혁신특구 등 바이오 인프라와 항체산업, 디지털헬스케어·의료기기 등 주변 지역과의 연계·확장을 통해 바이오산업의 발전을 추진한다. 이전에도 강원도는 디지털 헬스케어를 대상으로 규제자유특구가 지정되었기 때문에 첨단바이오 기술 확보의 길이 더 넓어졌다고 볼 수 있다. 강원도 외에도 전북특별자치도는 탄소 융·복합 산업을 대상으로 규제자유특구가 지정되어 있고, 광주광역시는 AI 융합 선도도시, 경상북도는 메타버스 수도, 전라남도는 에너지·농업 디지털 혁신을 내세우는 등 기술 확보를 위해 노력해 왔다. 지방 도시들은 디지털 기술과 혁신에 대한 갈망이 높기 때문에 이를 기술 확보의 기회로 연결한다면 좋은 성과를 얻을 수 있을 것이다. 한 걸음 나아가 ‘지역의 세계화’에 대한 고민도 제안해본다. 지역의 세계화는 특정 지역이 글로벌 차원에서 상호교류가 활성화되는 것을 의미한다. 국내 지방정부는 2023년 12월 기준으로 91개국 1,384개 도시와 1,873건의 국제교류를 진행 중이다. 즉, 지방정부의 해외 자매결연 네트워크를 활용하면 혁신기술의 시장성 검증 기회를 살리고 기술 확보의 기회가 증가할 수 있음을 시사한다. 따라서 기술 확보를 위해 지방 테스트베드 전략을 활성화하고 지역의 세계화를 통해 기회를 넓힌다면 게임의 판도가 빠르게 바뀔 수도 있을 것이다. 4. 게임의 흐름을 바꾸는 전략의 유기적 연계 AI-반도체, 첨단바이오, 퀀텀 기술의 확보는 단순한 개별 기술의 발전을 넘어 우리 사회 전반에 혁신을 불러일으킬 수 있는 중요한 원동력이 될 것이다. AI-반도체는 산업 전반의 생산성을 제고하고, 첨단바이오는 맞춤형 의료, 신약 개발을 가속화며, 퀀텀은 기존의 한계를 뛰어넘는 기술적 발전으로 과학과 산업의 패러다임을 전환시킬 수 있다. 시스템적 사고를 통한 접근과 광범위한 협력, 지방 테스트베드 전략은 유기적으로 연결된다. 기술의 확보는 환경에 대한 이해, 조직의 대응, 광범위한 협력이 필요하고 지방을 테스트베드로 삼는 전략도 결국 중앙정부와 지방정부, 산·학·연 등이 함께할 때 효과적으로 추진될 수 있기 때문이다. 효과적인 전략의 추진으로 세 가지 기술의 확보를 앞당겨 글로벌 경쟁에서 우리나라가 중요한 순간에 게임의 흐름을 바꿀 수 있는 게임체인저가 되길 소망한다.
    • 2021.12.27
    • 13581

    박성수 한국전자통신연구원 양자기술연구단장 sspark@etri.re.kr 눈앞으로 다가온 데이터 폭증의 시대 전세계는 디지털 전환을 준비하고 있다. 모든 비즈니스에 디지털 기술이 접목되고 새로운 생태계가 만들어지고 기존의 산업체계와 질서가 재편되고 있다는 것을 말한다. 이에 따라 매년 데이터 생산량이 폭증하고 있다. 인공지능의 도입, 전세계 인구의 휴대폰 소지, 자동차 수요 급증 등에 따라 하드웨어, 즉 메모리, CPU, GPU, MPU 등의 반도체 수요가 크게 증가하고 있다. 또한 컴퓨팅 파워 증대 요구도 계속 높아지고 있다. 이러한 전세계적인 기술 수요에 대처할 수 있는 방안에 대한 활발한 연구가 진행되고 있다. 2018년 발행한 IDC의 전세계의 데이터 생산량 전망을 보면 지수함수적으로 급증하고 있으며 데이터 생산량은 2018년도에만 33ZB(1TB 하드디스크(HDD)에 저장한다면 330억 개 분량)라고 한다. 참고로 1ZB(제타바이트, Zetta Byte)는 10의 21승 바이트, 즉 1TB HDD 10억 개로, 7mm 두께의 2.5인치 HDD로 쌓으면 지구 둘레를 175바퀴 돌 수 있을 정도에 해당한다. 2025년이 되면 175ZB(HDD 1,750억 개)에 이를 것으로 내다봤다. 이렇게 폭증하고 있는 데이터들은 저장장치에서 장기간 저장되는 경우도 있겠지만 잠시 저장되는 경우도 많아서 저장장치가 그 정도로 많이 필요하지는 않지만, CPU는 이 모든 데이터를 처리해야 한다. 2022년에는 약 80ZB 정도이지만, 3년 후에는 2배가 넘는 175ZB가 되면서 컴퓨팅 처리용량에도 많은 부담이 올 것이다. 또 3년 후에는 3~4배 정도로 증가하게 될것인데 이렇게 되면 데이터 처리를 위한 많은 비용 증가도 무시하지 못하겠지만, 기술적으로도 CPU의 처리능력에 엄청나게 큰 부담을 주게 될 것이다. CPU 구조에서도 코어, 쓰레드 수를 늘리는 등 개선을 하고 있으나 CPU의 성능을 결정짓는 반도체 기술의 발전은 한계에 직면한 상황이다. 폭발적 데이터 증가를 수용할 수 있는 초고성능 CPU 개발을 위해서는 더 많은 노력이 필요할 것으로 보인다. 2021년 7월 인텔은 10nm 이하 미세공정에서 2nm 정도까지 내려갈 수 있음을 발표하였다. CPU 제작에 사용되는 반도체 기술로 현재는 10nm급 기술을 사용하고 있는데, 10nm→7nm→4nm→3nm→20A으로 작아지는 인텔의 미세공정로드맵에서 10nm에서 7nm로 내려갈 때 10~15% 정도의 성능향상을 기대하고 있다고 한다. 여기서 20A는 20Å(옹스트롱, 100억 분의 1m, 즉 0.1nm)를 의미하는 기호로 보이는데, 향후 2nm 이하는 1nm가 아니라 1.8nm, 1.6nm 등이 될 것임을 짐작할 수 있다. 반도체 칩은 실리콘 기판에 만드는데, 실리콘 기판은 원자가 일정한 간격으로 배열되어있는 결정구조를 가지고 있다. 즉, 실리콘 원자 간 간격은 0.543nm로 4개 실리콘 원자 간 간격은 약 1.63nm이다. 다시 말해, 2nm 이하에서의 반도체 공정이라는 것은 실리콘 원자 3~4개를 덜어내는 문제가 되고 실리콘 원자 간 간격인 0.543nm 이하에는 아무것도 없으므로 그 이하로는 불가능하다는 뜻이다. 물론, 연구실 차원에서는 원자 1개를 조작하는 수준의 실험도 얼마든지 가능하지만, 웨이퍼 전체가 아니라 아주 극히 일부분에 국한된 부분에 그치는 정도로서 대량생산을 위한 기술이 아니다. 그러나 지름 300mm 웨이퍼에 CPU칩을 수백 개씩 한꺼번에 대량 생산할 때는 이야기가 달라진다. 인텔, 삼성의 반도체 공정이 그렇다는 것이다. 새로운 컴퓨팅 환경이 필요한 시대 2020년 7월 MIT, IBM, 연세대, 브라질리아대 등은 이미지인식, 음성인식, 번역 등 다섯 가지 인공지능 응용에 대해 딥러닝이라는 신기술이 컴퓨팅 파워의 한계에 접근하고 있다는 내용으로 논문을 발표하였다. 딥러닝에 필요한 컴퓨팅 파워는 “(데이터 포인트의 개수)×(매개변수의 개수)”에 비례하는데 여기서 매개변수는 딥러닝일 경우, 약 100만 개 데이터 포인트일 때 수백만 개 이상으로 늘어나는 것으로 알려져 있다. 딥러닝은 다른 인공지능 방법보다 훨씬 더 많은 컴퓨팅 파워를 필요로 하고 있다. 인공지능 인식의 오류율을 줄이기 위해서도 많은 컴퓨팅 파워를 필요로 한다. ImageNet 영상인식의 경우 11.5%의 오류율을 5%로 줄이기 위해 10만 배 더 많은 컴퓨팅 파워가 필요하고 1%로 줄이려면 100조 배나 더 필요하다고 계산하였다. 컴퓨팅 파워가 더 필요하다는 것은 더 많은 전력이 필요하다는 뜻이고, 많은 전력을 생산하기 위해서는 더 많은 환경오염을 만들어 낸다는 뜻이다. 이를 개선하기 위해 알고리즘 효율화와 저전력화 연구가 진행되고 있다. ImageNet 영상인식의 경우, 2015년 인간의 인식 오류율인 5.1%를 넘어섰다고 발표했다. 2010년 28%, 2012년 16.4%, 2011년 9.4%, 2015년 3.6%, 2017년 2.3%, 2020년 1.3%로 나아지고 있다. 그러나 연구개발 결과가 그렇다는 것일 뿐 실생활의 여러 가지 행태의 인공지능 인식에 적용될 때도 반드시 그럴 것으로 보기는 어려울 수 있다. 영상인식 이야기를 더 해보면, 자율주행을 위해 영상 인식에 의존하고 있는 우버와 테슬라 자율주행 자동차가 2018년에 각기 사망사고를 냈다. 보행자 인식과 차선 인식의 오류로 인한 사고였다. 카메라 이외의 다른 센서도 같이 사용해야 안전하다는 의견이 높아졌음에도 테슬라는 영상인식 기술에만 전념하겠다고 발표하였고 도로 상황 영상데이터 확보를 위해서 전세계에서 운행 중인 테슬라 차량으로부터 1.5PB(Peta Byte, 1,000TB)의 영상정보를 수집하여 자사가 보유하고 있는 세계 5위급인 1.8EF(Exa FLOPS, 1초에 100경 번 소수점 계산이 가능), 10PB 메모리를 가진 슈퍼컴퓨터로 분석하여 자율주행 기술을 업데이트하는 데에 사용하고 있다고 2021년 6월 발표하였다. 즉 인공지능의 활용도가 높아짐에 따라 안정되고 신뢰할 수 있는 인공지능이 되기 위해서는 강력한 컴퓨팅 환경을 더욱 필요로 하게 된다. 2차 세계대전 중인 1940년대부터 시작되어 1초에 3번 정도 정수의 덧셈을 하던 디지털컴퓨터는 약 80여년이 지난 지금, 비약적으로 성장했다. 2021년도 세계 1위 슈퍼컴퓨터인 일본 후카쿠의 계산능력은 1초에 약 40경 번 소수점 계산(442,010TFlop/s)을 할 수 있을 정도가 되었다. 단순히 비교해도 약 14경 배나 성능이 좋아졌다고 볼 수 있다. 슈퍼컴퓨터는 국가의 계산능력을 말하는 척도가 되므로 미국, 중국, 유럽은 자존심을 걸고 더 좋은 슈퍼컴퓨터를 개발하는 데에 막대한 자원을 투자하고 있다. 계산능력의 비약적인 증가와 함께 생긴 부작용도 있는데 바로 소비전력이다. 후카쿠의 소비전력은 약 30MW 정도인데 이는 서울 강남구 2018년 10월 한 달간 도소매업의 전기사용량인 21MW보다 높은 수치이다. 슈퍼컴퓨터는 여러 개의 프로세서(후카쿠 의 경우 프로세스 코어로써 760만여 개)가 병렬계산을 함으로써 계산속도 향상을 추구하고 있다. 따라서 냉각, 프로세스 간 인터페이스, 소프트웨어 안정성, 안정된 전력공급 등의 여러 가지 문제를 해결해야 한다. 그리고 필연적으로 대규모 컴퓨팅 시스템으로써 유지보수에도 많은 자원을 필요로 한다. 따라서 현재의 디지털컴퓨팅을 더 발전시키기 위한 노력뿐만 아니라 전혀 새로운 컴퓨팅 방법을 찾아내는 연구도 진행되고 있는데 뉴로모픽컴퓨팅, DNA컴퓨팅, 멤브레인컴퓨팅, 오토마타, 확률컴퓨팅 등이 있다. 그중에서도 가장 오랫동안 연구가 진행되었고, 전세계 모든 국가에서 동시에 연구개발 경쟁을 벌이고 있어서 디지털 컴퓨팅을 보완하고 대체할 수도 있는 가능성을 가지고 있다고 생각되는 것이 바로 양자컴퓨팅이다. 디지털에서 양자로 디지털은 전압으로 구분할 경우 5V인 1과 0V인 0이 1개의 비트에 할당된다. 양자컴퓨터에서는 1인 양자상태(|1>)와 0인 양자상태(|0>)가 1개의 큐비트(Qubit, Quantum Bit)에 할당되는데 1개 큐비트에는 중첩이라는 양자적 성질에 의해 |1>과 |0>이 동시에 존재하게 된다. 이 경우 3개의 큐비트라면 |000>, |001>, |010>, |011>, |100>, |101>, |110>, |111>의 2³의 경우가 모두 중첩된 상태가 되어 다음과 같이 표현될 것이다. a1|000>+a2|001>+a3|010>+a4|011>+a5|100>+a6|101>+a7|110>+a8|111>. 모든 상태가 3개 큐비트에 저장 가능하다는 뜻이 되는 것이다. 여기서 a1, a2 등은 확률인데, 복소수로 표현되어 직관적으로 이해하기에는 약간 어려움이 있을 수 있다. 반면 디지털 비트라고 하면 위와 같은 경우에서 모든 상태를 표시하기 위해서는 “3개 비트×8개” 즉, 24개 비트가 필요하다. 여러 가지 비트 상태에 대해 3개 비트씩 계산해 본다면 디지털컴퓨터로는 3개 비트에 대해 8번을 계산해야 하지만 양자컴퓨터로는 3개 큐비트에 대해 한 번만 계산하면 모든 상태를 계산한 셈이 된다. 이러한 계산방법을 ‘양자병렬계산(Quantum Parallelism)’이라 부르는데 양자컴퓨팅이 강력한 계산성능을 가진다고 말할 때 가장 많이 사용되는 예이다. 그러나 양자의 세상은 실생활과는 다른 복소수로 표현되는 세상이다. 양자계산된 결과를 알아보기 위해서는 측정이라는 과정을 거쳐 실수로 변환되어야 우리가 알아볼 수 있게 된다. 양자상태를 측정하는 방법에는 여러 가지가 있지만, 양자컴퓨팅에서는 일반적으로 On-Off 측정방식을 사용하게 되는데 1개 큐비트에 중첩된 |0>과 |1>의 2개 값이 있다면 1번 측정으로는 1개 값만을 얻을 수 있다. 0과 1이 얼마나 중첩되었는지 확률을 알고 싶으면 새로 계산하고 다시 측정하는 과정을 여러 번 반복해서 통계적으로 정리해야 한다. 즉, 양자병렬계산은 한꺼번에 계산된 결과를 가지고 있지만, 실제 어떤 결과 값이 나오는지를 알아보려면 모든 경우에 대한 확률분포를 알기 위해 실제 디지털컴퓨터보다 더 많은 계산을 해야 하는 아이러니가 있다. 때문에 이러한 방법은 양자컴퓨팅에서 추천되지 않는다. 문제의 크기가 작은 경우에는 디지털컴퓨터로 계산하는 것이 훨씬 더 빠르므로 디지털컴퓨터로 계산하는 것이 답이다. 그러나 문제의 크기가 커지는 경우에는 적절한 양자알고리즘을 사용한 양자컴퓨터가 디지털컴퓨터에 비해 문제의 크기만큼 지수함수적으로 빨라지는 것을 이용할 수 있다. 그렇다고 해서 모든 양자알고리즘이 지수함수적으로 빨라지지는 않지만 산술적으로는 빨라질 수 있다. 간단한 예를 들면 13×7이 얼마인지(91)는 금방 계산 가능할 것이다. 조금 더 어렵게 문제의 크기를 키워 937×947이 얼마인지(8,873,339)도 금방 계산할 수 있다. 그러면 91은 무슨 수의 곱인가 하는 문제는 어떨까? 프로그램과 알고리즘을 통해 별로 어렵지 않게 알아낼 수 있다. 그러나 8,873,339을 소인수분해하라고 한다면 91의 소인수분해보다 조금 늦어질 것이다. 문제의 크기를 더 키운다면? 1,000비트의 숫자라면 2의 1,000승, 즉 300자리 정수가 되는데, 이에 대해 소인수분해를 하라고 한다면 수십만 년이 걸려도 풀 수 없을정도로 어려운 문제가 된다. 이러한 경우는 문제의 크기에 따라 ‘기하급수적’으로 어려워지는 문제라고 한다. 그런데 양자컴퓨터를 사용하면 1초 만에도 가능할 수 있다고 알려져 있다. 이러한 기하급수적으로 어려지는 문제를 양자적 알고리즘에 의해 빠르게 풀 수 있다고 알려진 계산들은 소인수분해, 검색, 추천, 양자근사계산 등이다. 인공지능 분야에서 획기적으로 계산성능을 높일 수 있는 양자알고리즘과 양자RAM(랜덤어세스메모리)에 대해 연구 중에 있고, 최근에는 편미분방정식을 풀 수 있는 양자알고리즘에 대해서도 연구가 진행되고 있다. 따라서 슈퍼컴퓨터로도 며칠씩 걸리던 유체역학 해석이 수분 만에도 가능하게 된다면 자동차, 비행기, 선박, 미사일 등의 설계뿐만 아니라 바람에 날리는 머리카락 한 올 한 올, 옷의 하늘거림 등도 바로바로 계산해낼 수 있어 극사실감의 CG영상 제작도 가능해진다. 또한, 이 수식이 널리 쓰이는 분야로는 훼손된 영상의 복원, 비파괴검사, MRI 등의 영상처리, 경제학이나 금융분야의 데이터 분석 등으로 실생활에서 매우 폭 넓게 쓰이고 있어서 양자컴퓨터의 활용 영역은 상상하기 어려울 정도로 커질 수 있다. 양자하드웨어도 계속 발전 중 양자컴퓨터의 하드웨어나 전체 시스템도 계속 발전을 거듭하고 있다. 2012년 캐나다의 D-Wave는 초전도 소자로 만든 512큐비트의 양자컴퓨터를 출시한다고 발표하였다. 그 응용으로써 시스템 최적화, 기계학습, 패턴 인식과 이상패턴 탐지, 금융 분석, 소프트웨어/하드웨어 검증, 바이오인포매틱스, 암 연구 등에 사용 가능하다고 하였다. 그 당시 국내에서는 KAIST에서 NMR기술을 사용하여 4큐비트를 만들어 본다거나 ETRI에서 단일광자를 사용하여 양자암호통신을 실험실 수준에서 성공시킨 정도였다. 사실 그때까지는 양자컴퓨터에 어떤 것이 있고 어떻게 동작하는지에 대해 실제 연구자 이외에는 잘 알려져 있지 않은 상태라서 D-Wave 소식에 대한 국내외의 반향은 컸다. 2013년에 구글, NASA 등이 D-Wave 양자컴퓨터를 구매하였고, 구글은 기계학습과 인공지능의 알고리즘 성능 향상에 NASA는 외계탐사 시스템의 최적화 문제해결에 사용하기로 하였다고 한다. 양자컴퓨터에 대한 장밋빛 미래가 그려지는 듯했다. 사실 D-Wave 초전도 양자칩을 살펴보면 각 큐비트를 디지털로 제어하도록 디지털-아날로그 변환회로가 내 장되어 있는 등 정말 잘 만들어진 칩이어서 엔지니어링 입장에서 볼 때 상당한 기술력을 가진 것으로 보인다. 그러나 2014년 초 미국 물리학회 발표장의 D-Wave 양자컴퓨터의 동작원리인 어닐링(annealing)에 대한 세션에서 IBM의 스몰린은 D-Wave는 양자컴퓨터가 아니라는 발표를 해서 모두를 깜짝 놀라게 하였다. 그 후 여러 가지 방법에 의해 양자적 속도 향상에 대한 검증이 이루어졌다. D-Wave에 대한 의구심으로는 512개의 초전도큐비트는 IBM이 2016년도에나 발표하게 되는 5개의 초전도큐비트에 비해 100배나 월등히 앞서 있는가 하는 것이다. 또 최적화 문제를 잘 푼다고 하는데 교통흐름 처리, 물류처리, 신약/재료 탐색, 화학공정반응 최적화, 금융 포트폴리오 수립 등 현재의 디지털컴퓨터로 해결하기 까다로운 문제를 양자컴퓨터가 정말로 빠르게 해결해 준다는 것인가이다. 당시에는 이러한 문제들이 금방 해결될 것이라는 성급한 예상을 내는 보고가 국내외를 막론하고 많이 있었다. 현재까지 알려진 바에 의하면 D-Wave와 IBM의 큐비트는 서로 다른 방법으로 작동시키므로 초전도체를 사용하는 것은 맞지만 같은 선상에서 비교할 수는 없다는 것이다. 여러 가지 문제를 잘 풀 수 있는, 즉 실환경의 문제를 해결할 수 있을 정도의 큐비트 개수와 성능을 달성하기 위해 아직 많은 연구 중에 있고 이를 위해 어떤 하드웨어와 소프트웨어를 만들어 내야 하는지에 대해서도 진지하게 고민하고 노력하고 있다. 양자알고리즘을 설명할 때 아직도 논란이 없는 것은 아니지만 D-Wave 양자어닐러는 학자들과 일반인에게까지 양자 컴퓨터의 존재를 알리고 그 가능성에 대해 많은 기대와 관심을 불러일으키게 한 점에서 큰 공로로 인정된다. 2016년 12월 뉴욕주 요크타운하이츠에 있는 IBM왓슨연구소를 방문하였다. 2016년 5월에 인터넷 접속을 통해 누구나 5큐비트 양자컴퓨터를 누구나 사용할 수 있도록 개방한 지 6개월 정도 된 시기였다. 실제 인터넷으로 서비스되고 있는 양자컴퓨터를 볼 수 있었다. 초전도 양자칩이 들어 있어서 20mK(약 –273.1℃) 정도의 극저온으로 냉각하는 흰 드럼통(희석식 극저온냉각기), 큐비트를 제어하고 판독하기 위한 전기신호를 발생시키고 측정하는 겹겹이 쌓인 전자장비, 이들 모두를 제어하는 컴퓨터가 있었다. 5큐비트를 만든 이후 어떤 일들을 해야 하는지에 대해 설명도 들었다. 큐비트 개수를 수십 개 정도로 늘리고 큐비트의 에러정정 방법에 대한 연구를 더 해야 한다고 하였다. 이것은 양자컴퓨터를 사용하여 실제 문제를 해결할 수 있느냐 없느냐를 결정짓는 대단히 중요한 요소들이다. IBM은 2017년 4월 양자볼륨(Quantum Volume) 개념을 말했는데 큐비트 개수와 각 큐비트의 유효 에러율의 역수를 곱한 값이 크다면 성능이 더 좋다는 것을 의미한다고 밝혔다. 한마디로 성능 좋은 큐비트가 많이 있어야 한다는 것으로서 이는 양자컴퓨터의 성능지표로 볼 수 있다. 큐비트의 성능에 영향을 줄 수 있는 것으로서 온도, 자기, 전기 등 외부환경뿐만 아니라 큐비트의 배열에 따른 간섭 및 큐비트 연산종류에 따라 서로 성능에 영향을 미치게 된다. 즉 환경뿐만 아니라 큐비트 연산 방법이나 연산순서의 차이, 여러 개 큐비트에 대한 병렬처리 방법 등 큐비트 동작방법에 의해서도 에러가 생길 수 있기 때문에 양자볼륨은 큐비트 소자 자체의 성능뿐만 아니라 큐비트 동작 방법을 포함한 종합적인 평가방법이 될 수 있다. 또한, 당시 IBM의 설명으로는 양자컴퓨팅 서비스 확장을 위해 여러 대의 양자컴퓨터가 들어설 실험공간을 공사 중이라고 밝혔다. 그로부터 4년 만에 2020년 기준, 18대의 양자컴퓨터를 갖고 대기업, 벤처기업, 대학 등 106개 기관, 23만 명의 등록사용자를 보유하여 양자컴퓨팅 기술을 알리고 양자컴퓨터를 접할 수 있는 기회를 제공하게 되었다. 2020년에는 53큐비트 양자칩을 발표한 데에 이어 2020년 9월에는 2023년까지 1,121큐비트를 개발하고 그 후 수백만 큐비트를 개발하겠다는 하드웨어 로드맵을 발표하였다. 칩 사이즈도 커질 것이고 1,000여 개의 모든 큐비트를 한꺼번에 동작시키기도 만만치 않을 것이다. 사람이 들어갈 수 있는 사이즈의 극저온냉각기, 1,000여 개를 동작시키기 위한 외부제어기기로부터 큐비트 칩까지 신호전달선을 모두 합치면 어른 2명이 팔로 다 감싸지 못하는 정도가 될 것이고 구리선이므로 무게 또한 감당하기 어려울 것이다. 이를 위해서는 다중화를 통해 신호선 입출력 방법을 개선하고 플렉시블PCB를 사용하여 무게를 감소하고 칩에서는 적층에 의한 반도체패키징, 다층배선 등으로 칩의 집적도와 입출력을 개선하고 무엇보다도 반도체 공정개선을 통해 초전도 칩의 수율을 향상시키는 등 다양한 노력이 필요할 것이다. 2년 밖에 남지 않은 시간에 이러한 모든 일을 해내야 하는 것이다. 위 내용을 자세히 들여다보면 큐비트를 어떻게 만들어야 하는지에 대한 내용은 거의 없고 칩 수율, 패키징, RF선연결방법, 극저온냉동기 등의 주변기술에 대한 내용이 더 많다. 그런데 IBM은 2023년에 1,121큐비트를 동작시키기 위한 소프트웨어에 대한 로드맵을 2021년 2월에 발표하기에 이른다. 현재는 Qiskit이라는 응용 알고리즘 개발을 위한 소프트웨어 모듈을 제공하여 Use Case별로 사용되고 있으나 최종적으로는 하드웨어 컨트롤과 알고리즘 자체를 라이브러리화하고 최적화, 기계학습, 계산과학, 금융 등 분야별 모델화된 개발 서비스를 제공하는 등 통합개발환경 제공 등을 제시하고 있다. 즉 일반 소프트웨어 개발자가 어렵지 않게 양자컴퓨팅을 활용하여 응용 소프트웨어를 만들 수 있게 된다는 것이다. 한편 이온트랩양자컴퓨터도 개발 중인데 미국의 IonQ와 오스트리아의 AQT 등의 벤처기업이 20여 개 큐비트로 시제품을 만들었고 2개사 모두 인터넷으로 컴퓨팅 서비스 중에 있다. 반도체소자를 제작하는 공정기술을 그대로 사용하는 양자점큐비트도 개발 중인데 아직은 큐비트 성능과 개수를 높이는 데에 어려움이 있으나 향후에 수백, 수천만 개 집적도 가능할 것으로 예상하므로 미국 인텔이 집중하고 있다. 2020년에는 수K에서도 동작하는 큐비트를 선보여서 외부로부터의 용이한 제어와 연구개발 속도가 상대적으로 빨라질 것이라는 희망을 보이고 있다. 극저온 냉각기로 20mK까지 내리려면 하루 이상이 걸리고 양자칩의 특성을 측정 후 교체를 위해 다시 상온까지 올리는데도 하루 이상 걸리기 때문에 일주일에 양자칩 1개를 측정할 수 있다는 뜻이다. 그렇다면 1년에 최대 50여개 칩을 측정할 수 있다는 뜻인데 웨이퍼 1장에 수십, 수백 개가 나온다면 웨이퍼 1장도 다 측정할 수 없다는 뜻이 된다. 양자컴퓨팅 시스템의 발전 방향 양자컴퓨팅 기술은 그야말로 현존하는 모든 과학기술의 집약체이다. 중첩, 얽힘 등 양자현상을 보이는 여러 가지 방법 중에 외부에서 제어 가능하고 수백만 큐비트까지도 확장 가능하며 에러도 매우 작고, 많은 연산스텝도 가능해야 한다. 때문에 기본적인 큐비트 설계기술과 이를 실현시킬 나노급 반도체 제조공정기술, 현존하는 모든 반도체패키징 기술 및 수백·수천 채널 이상 다중 고주파 저온측정 기술, 시간적·공간적으로 균일한 극저온냉각기술, 이온이나 원자를 제어하고 정보를 읽고 쓰기 위한 초정밀 레이저광학기술 등이 필요하다. 또한 컴퓨터로써 동작하기 위해서는 양자적 계산을 하기위한 수학적 알고리즘과 이들을 포함한 라이브러리 및 개발환경이 필요하고 인공지능, 최적화, 금융, 신약 탐색 등에 사용하기 위한 적절한 양자알고리즘 등의 소프트웨어뿐만 아니라 컨설팅까지도 필요하다. 인공지능을 처리하기 위해 컴퓨팅 파워를 클라우드로 서비스를 받는 것처럼 양자컴퓨터의 컴퓨팅 자원도 인터넷에서 제공하기 위한 효과적인 서비스 방법이 개발되어야 할 것이다. 발전 속도에 대해 확실한 예상을 하기에는 아직 이른감이 있다. 양자컴퓨터 발전방향에서 달성해야 할 마일스톤 중 하나는 ‘슈퍼컴퓨터보다 빠르다’는 것을 증명하는 양자우월성 증명인데 2019년, 2021년에 세 가지 논문에 의해 달성되었음을 인정하고 있다. 2019년 7월 구글의 53큐비트 초전도양자컴퓨터를 사용한 무작위 양자회로 방법과 2020년 12월 중국과학기술대의 50개의 압착양자광원을 사용한 보존샘플링 방법과 2021년 6월 같은 중국과학기술대에서 56큐비트 초전도양자컴퓨터로 구글과 동일한 방법인 무작위 양자회로 방법으로 성공하였다고 발표하였다. 이것은 구글 입장에서도 환영하고 있는데, 자신의 방법을 모방했다는 것이 아니라 자신의 증명방법을 사용하여서 다른 연구자도 같은 결론을 도출할 수 있다는 것을 보여준 것이라고 생각하 고 있다. 양자컴퓨터의 최종 목표는 결함허용 범용양자컴퓨터이다. 소인수분해, 자료검색, 추천, 행렬의 고유값 계산 등 일부 계산에서만 범용고전컴퓨터보다 월등히 빠르기 때문에 양자컴퓨터는 슈퍼컴퓨터 옆에서 어려운 계산의 일부를 해 주는 계산 도우미 같은 형태로 쓰이겠지만, 최종적으로는 슈퍼컴퓨터를 대체하고 모든 계산을 양자적으로 해내는 범용컴퓨터가 되는 날까지 계속 발전해 나갈 것이다. 이런 전망에 따라 IBM, 구글, 마이크로소프트, 인텔, 알리바바, 텐센트 등 기술선도기업뿐만아니라 미국, EU, 중국, 독일, 영국, 일본 등 각 정부에서도 연간 수천억 원 정도를 기술개발에 투자하고 있다. 향후 10년 정도면 소규모 또는 중간 규모 정도의 실제 문제를 풀 수 있는 소프트웨어 툴까지 갖춘 양자컴퓨터가 나올 것으로 전망해 본다.