신경망 반도체 전쟁이 시작됐다

최초입력 2017.10.24 10:33:32
최종수정 2017.10.24 11:39:25

<최형욱의 IT 차이나·유럽>

중국 화웨이의 플래그쉽 모델, 메이트 10이 최근 발표됐다. 18:9 비율의 6인치 OLED 풀비전 스크린을 탑재한 메이트 10 프로, 16:9 비율의 5.9인치 LCD 디스플레이의 메이트 10, 포르쉐 디자인과 협업한 메이트 10 포르쉐 디자인까지 총 3가지로 일반적인 사양만 놓고 보면 삼성전자의 갤럭시 S8이나 노트 8, 그리고 기타 다른 스마트폰 제조사의 플래그쉽과 큰 차이를 느낄 수 없다. 하지만 이번 제품에는 8월에 예고했던 대로 화웨이의 자회사인 하이실리콘(HiSilicon)이 자체 개발한 기린(Kirin) 970이 탑재됐다. 그리고 그 안에는 신경망 엔진인 NPU(Neural Processing Unit)가 내장돼 있다. 발표만 놓고 보면 애플보다도 빠른 세계 최초다.

하이실리콘이 개발한 기린 970의 세부 내역 [사진 출처 : 화웨이]
애플 역시 얼마전 아이폰 8과 아이폰 X의 발표 자리에서 새로운 칩셋인 A11을 공개했다. 그리고 그 안에 바이오닉 뉴럴 엔진이라는 신경망 엔진을 내장했다고 밝혔다. 이를 통해 아이폰 X에 새롭게 탑재된 페이스ID나 애니모지를 비롯해 증강현실(AR)과 같은 기능들을 지원할 예정이다.

이렇게 자체적으로 개발하고 자사 스마트폰에 탑재한 화웨이나 애플 외에 스마트폰에 애플리케이션 프로세서(AP)를 공급하는 퀄컴이나 미디어텍, 그리고 인텔이나 삼성전자까지 모두 인공지능 처리를 지원하는 신경망 엔진을 탑재한 칩셋을 올 연말부터 시장에 내놓을 예정이다. 결국 내년에 출시되는 수많은 스마트폰들은 인공지능을 내부에서 지원하는 신경망 엔진을 본격적으로 탑재할 전망이다.

애플의 새로운 칩셋 A11 [사진 출처 : 애플]


스마트폰에 왜 신경망 엔진이 필요한가?

얼마전까지 인공지능에 대한 일반적인 생각은 음성 인식을 통한 인공 지능 비서에 한정돼 있었다. 애플의 시리, 구글의 어시스턴트, 아마존의 알렉사처럼 특정 기기에 소비자들이 질문을 하면 얼마나 똑똑하게 대답하는지에 초점이 맞춰졌다. 하지만 이같은 클라우드를 통한 검색 기반의 음성 인식 비서 서비스는 인공 지능의 실질적인 혜택을 제대로 전달하는 것 같진 않다. 단지 음악을 좀 더 쉽게 틀거나 날씨나 일반적인 정보를 검색할 때 음성을 통해 좀 더 쉽게 접근하는 수준이다. 상상속에서 기대하던, 사람과 같은 대화형 인공지능 서비스는 아직까지는 먼 나라의 얘기처럼 보인다.

하지만 최근 들어 스마트폰이나 다른 기기를 통해 음성 인식이 아닌 생활형 서비스에 인공지능을 접목하는 시도가 늘어나고 있다. 또 스마트폰의 카메라를 통해 보는 이미지나 카메라로 찍은 사진들에 대한 이미지 분석으로도 관심이 옮겨가고 있다. 그러나 카메라를 통해 보여지는 다양한 실시간 이미지들과 여기에 입혀지는 서비스들을 기존 AP로 동시에 처리하기에는 배터리 효율과 발열이라는 난제가 존재한다.

사실 이미지 데이터의 동시 처리는 GPU(Graphic Processing Unit)라고 불리는 그래픽 처리 프로세서를 통해 오래전부터 해왔던 분야이기도 하다. 하지만 최근에는 이런 이미지 데이터 뿐만 아니라 스마트폰에 달려 있는 각종 센서로 취합한 데이터부터 사용자의 위치 데이터까지 그 종류와 폭이 훨씬 다양해졌다. 또 데이터를 클라우드에 전송하고 분석된 결과 값을 받아 제공하는게 아니라 스마트폰 자체에서 데이터를 직접 분석하고 결과값을 보여줘야 할 필요가 생겼다. 단적으로 애플의 페이스ID를 예로 들 수 있다. 클라우드로 사용자의 데이터를 전송하는 형태로는 응답 시간과 보안이라는 요소를 절대로 충족시킬 수 없다. 결국 이같은 이유로 GPU를 응용해 만든 인공 지능용 신경망 엔진을 스마트폰 내에 별도로 탑재해야 할 필요가 생긴 것이다.

사실 생활 밀착형 인공지능 서비스는 신경망 엔진이 탑재되지 않았을 때도 일부 지원됐다. 대표적인 예가 바로 2016년 12월 중국에서 출시됐던 화웨이의 아너 매직에 탑재된 ‘매직 라이브’다. 화웨이의 선행 제품 개발팀인 ‘2012 개발팀’에서 만든 이 서비스는 기존 음성 인식 비서 서비스처럼 음성으로 명령을 주고 받는 형태가 아니라 사용자의 주변 환경과 스마트폰 사용 패턴이나 행동 패턴 등을 다양한 센서들로 인식해 스마트폰을 좀 더 쉽고 편하게 쓸 수 있도록 지원한다. 간단한 예로 사용자가 영화표를 예매했다면 스마트폰이 이를 인식해 사용자가 극장 근처에 도착했을 때 자동으로 영화 티켓을 화면에 띄워주는 식이다. 이밖에 사용자를 인식해 메세지가 왔을 때 사용자가 아니면 잠금화면에서 볼 수 없는 서비스 등 소소하지만 다양한 서비스들을 제공한다.

면면을 살펴볼 때 매직 라이브는 초보적인 수준의 인공지능 서비스로 간주할 수 있다. 화웨이 2012팀은 음성 인식 비서 서비스와 다르면서도 실생활에 편리함을 주는 인공지능 서비스의 효용성에 대한 소비자 평가가 필요했고 이를 일종의 컨셉 제품으로만 출시했던 것이다.

하지만 내년부터는 상황이 바뀔 것으로 보인다. 애플과 화웨이가 이미 인공지능 신경망 엔진을 지원하는 칩셋을 탑재한 제품을 출시했고 다른 스마트폰 제조사들도 퀄컴이나 미디어텍을 통해 신경망 엔진이 탑재된 칩셋을 제공받아 제품을 출시할 예정이기 때문이다. 이를 통해 음성 인식 비서 서비스 뿐 아니라 다양한 인공 지능 활용 서비스가 가능해질 전망이다. AR부터 얼굴 인식 서비스나 보안의 고도화, 그리고 각종 센서와 위치 정보를 활용한 사용자 환경 인식과 이를 통한 사용자 행동 및 사용 패턴 인식, 그에 따른 서비스의 제공이 앞으로 기대된다.

주요 칩셋 제조사들의 신경망 엔진 개발 현황 [사진 출처 : 매경DB]


똑같이, 하지만 다르게

하드웨어 칩셋에서 인공 지능 처리를 위한 신경망 엔진을 지원함에 따라 스마트폰 제조사들이나 플랫폼 사업자들의 고민이 새롭게 시작되고 있다. 성능 차이는 조금씩 있겠지만 일단 스마트폰 내부에 인공 지능을 지원하는 신경망 엔진이 탑재되면 이를 활용한 서비스의 차별화가 필수 요소가 될 것이기 때문이다. 지금까지 선보였던 음성 인식 비서 서비스나 이미지 분석 서비스는 잠깐의 관심은 끌 수 있지만 지속적으로 사용하기엔 오히려 불편함이 많은 서비스로 인식되고 있다. 결국 소비자들의 관심을 끌면서 실질적으로 편리함이나 재미와 같은 혜택을 줄 수 있는 서비스가 필요한 시점이다. 애플은 신경망 엔진을 활성화할 서비스로 AR과 얼굴 인식을 통한 서비스를 선택했고 화웨이는 매직 라이브와 같은 생활 밀착형 서비스에 초점을 맞출 가능성이 높아 보인다. 다른 스마트폰 제조사나 플랫폼 사업자들 역시 인공 지능 서비스라는 매력적인 서비스를 포기할 거 같진 않다.

인공 지능의 고도화는 결국 얼마나 빠른 시간에 다양한 소비자 데이터를 확보하고 이를 통해 서비스를 고도화시키는 순환 구조를 확보하느냐가 관건이 될 것이다. 인공 지능 서비스를 효율적으로 제공할 수 있도록 하드웨어 칩셋이 스마트폰에 탑재됨에 따라 스마트폰 제조사나 플랫폼 사업자들 간에 차별화를 만들기 위한 전쟁이 이제 시작됐다.

[최형욱 주한핀란드 무역대표부 수석상무관]

[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]
맨위로