경제
KAIST 연구팀, 기존 인공지능 효율성 크게 늘린 양자 인공지능 알고리즘 개발
입력 2020-07-07 13:25 
IBM 양자 컴퓨터로 구현한 양자 기계학습의 예시. [사진 제공 = KAIST]

4차 산업혁명을 이끌 대표적 기술 중 하나인 인공지능(AI)의 효율성을 크게 끌어올릴 기술이 개발됐다.
7일 한국과학기술원(KAIST)은 기존 기술에 비해 완전히 다른 계산법으로 계산량을 획기적으로 줄인 비선형 양자 기계학습 인공지능 알고리즘을 개발했다고 밝혔다.
양자 인공지능은 양자컴퓨터의 발전과 함께 현재의 인공지능을 앞설 것으로 크게 기대되고 있는 기술이다. 하지만 기존 기술과 연산 방법이 전혀 달라 새로운 양자 알고리즘의 개발이 절실했다. 양자컴퓨터는 본질적으로 일차방정식을 잘 푸는 선형적 성질을 갖고 있어 복잡한 데이터를 다루는 비선형적 기계학습에 적합치 않았기 때문이다. 하지만 이번 연구는 복잡한 데이터에 대한 양자 기계학습을 가능하게 해 인공지능 구동을 위한 계산량을 크게 줄였다. 이번 연구는 대규모 계산량이 필요한 현재의 인공지능 기술을 추월할 가능성을 제시한 것으로 평가를 받고 있다.
연구팀은 양자 데이터 간의 유사성을 효율적으로 계산하는 비선형 커널 기반의 지도학습을 구현하는 양자 알고리즘 체계를 만들었다. 커널은 기계학습에서 활용되는 데이터 간의 유사성을 정량화하는 함수다. 연구팀은 이 기술을 IBM 클라우드 서비스를 통해 실제 양자컴퓨터에서 양자 지도학습을 실제 시연하는 데 성공했다.
이번 연구에 참여한 박경덕 KAIST 연구교수는 "연구팀이 개발한 커널 기반 양자 기계학습 알고리즘은 기존의 고전 커널 기반 지도학습을 뛰어넘을 것이라며 "복잡한 비선형 데이터의 패턴 인식 등을 위한 양자 기계학습 알고리즘으로 활발히 사용될 것"이라고 말했다. 한편 이번 연구 성과는 지난 5월 국제 학술지 네이처의 자매지인 'npj Quantum Information'에 게재됐다.
[이종화 기자]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]


MBN APP 다운로드