"OO야 음악 틀어줘", "OO야 영화 추천해줘"
TV를 보면 음성 인식 기술을 자랑하는 광고를 쉽게 볼 수 있다. 음성인식 기술도 하루가 다르게 진화하고 있다. 처음엔 기본 단어만 인식했지만 요즘에는 복잡한 문장을 이해하는 단계에 도달했다.
22일 HMG저널에 따르면 현대자동차그룹도 자동차의 각종 기능을 음성으로 제어하는 기술을 현재 개발중이다. 자동차 음성 인식 기술은 가정용 제품에 적용한 기술보다 복잡하다. 고속으로 달리는 상황에서 음성을 잘못 인식하면 사고가 나거나 사고를 일으킬 수 있기에 무엇보다 '안전'을 우선해야 하기 때문이다.
현대차그룹이 현재 공들이는 음성인식 기술에는 'Barge-in'과 '지능형 대화 에이전트'가 있다.
'Barge-in'은 시스템 음성 안내 및 효과음이 출력되고 있는 도중에 사용자가 명령어를 말하더라도 정확히 인식할 수 있도록 하는 기술이다.
실제로 일상에서 느긋하게 스마트폰 음성인식 기능을 사용하는 것과 달리 운전 중에는 오작동이 자주 발생한다. "안내음 종료 후 명령어를 말씀해주세요"라는 멘트가 끝나기도 전에 말을 시작하는 경우가 대표적이다. 이런 경우 오작동이 발생할 수 있다.
'Barge-in' 기술의 핵심은 '에코'를 제거해 사용자의 목소리만 인식하도록 하는 것이다. 에코는 마이크로 음성 명령을 내리는 사용자의 목소리가 입력되면서 자동차 스피커에서 나오는 안내 음성도 함께 들어가는 현상이다.
Barge-in 기술은 두 단계를 거쳐 발전했다. 1단계에서는 효과음 출력 시점에서 음성인식이 가능해졌다. 2015년부터 북미지역 양산차에 적용중이다. 2단계는 음성 안내 구간에서도 명령어를 인식하는 단계로 2016년 최초로 양산 적용됐다. 내년 하반기에는 국내 양산차에도 적용 예정이다.
'지능형 대화 에이전트'는 운전자의 말을 들은 뒤 그 의도와 맥락에 맞는 응답과 서비스를 제공하는 시스템이다. 현대차그룹이 개발하는 시스템은 키워드 중심의 단어가 아닌 문장 형태로 입력을 받는다. 사용자의 의도는 문장 동사에 주로 있기 때문이다.
내비게이션 길 안내를 위한 목적지를 설정할 때 '서울역'만 말하기보다는 '서울역으로 가자'라고 말을 해야 서울역을 검색해 사용자에게 보여준다.
현대차그룹의 지능형 대화 서비스는 궁극적으로 사용자의 음성 명령을 이해해 적절한 응답을 생성하거나 필요한 서비스를 제공하는 가상의 개인비서 '디지털 어시스턴트'를 지향한다. 구글, 애플, 마이크로소프트, 아마존 등 글로벌 기업이 경쟁적으로 뛰어드는 분야다.
현대차그룹은 지능형 대화 서비스용 애플리케이션도 개발중이다. 자동차 안과 밖에서 사용할 수 있는 모바일용 대화형 인터페이스다.
운전자가 자동차 외부에서 "서울역으로 가자"라고 말하면 애플리케이션은 서울역으로 향하는 길 안내를 예약한다. 운전자가 차에 탑승하면 가로 모드로 전환되고, 길 안내를 시작한다.
이밖에도 "차 안에서 냄새가 나"라고 말하면 외기순환으로 전환하거나 "창문 열어줘"라고 말하면 자동으로 창문도 열어준다. 에어컨을 작동중인데 운전자가 "에어컨을 켜줘"라고 말하면 "에어컨은 이미 작동 중입니다. 온도를 내려드릴까요?"라고 말하며 온도 조절도 해준다.
자동차 안에서의 지능형 대화 서비스는 언어를 이해하는 것도 중요하지만, 주행의 정황과 상황에 대한 이해도 필요하다.
현대차는 언어를 이해한 뒤 주행 정황과 통합하는 시스템을 구현할 계획이다. 아울러 사용자와 어떻게 대화할 것인지 정의하는 현대차그룹만의 '대화 전략'을 수립할 방침이다.
[디지털뉴스국 최기성 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
기사에 대해 의견을 남겨주세요.