10년만 재도전…삼성과 XR 헤드셋 이어 협력 확대
‘눈’ 앞에서 실시간 번역, 길 찾기 등 눈길
검색 서비스 에 AI 기술 대거 접목
구글과 삼성전자가 협업에 나선 스마트 안경 시연 장면. [연합]
[헤럴드경제=고재우 기자] 구글이 삼성전자와 손잡고 스마트 안경 개발에 나선다. 해당 사업을 접은 지 10년 만에 재도전이다.
구글과 삼성은 확장현실(XR) 헤드셋에 이어 스마트 안경까지 협력을 이어간다. 차세대 웨어러블 기기 주도권을 확실하게 선점하겠다는 의지를 드러냈다.
또 구글은 검색 서비스에 인공지능(AI) 기술을 대거 접목한다. 구글이 독점해 왔던 검색시장에서 오픈AI 챗GPT의 도전이 거세지자, 구글도 AI 기술을 총집결시키고 승부수를 던졌다.
순다르 피차이 구글 최고경영자(CEO) 20일(현지 시간) 미 캘리포니아주 마운틴뷰에서 연례 개발자 회의(I/O)에서 기조연설을 하고 있다. [AFP]
구글은 20일(현지 시간) 미국 캘리포니아주 마운틴뷰에서 열린 연례 개발자 회의(I/O)에서 이 같은 내용을 담은 청사진을 밝혔다.
가장 눈에 띄는 부분은 삼성전자와 개발에 나선 ‘스마트 안경’이다. ‘무한’이라는 프로젝트명으로 XR 헤드셋 개발에 나섰던 양사 협력이 스마트 안경으로까지 이어졌다. 10년 만에 재도전이다. 구글은 지난 2013년 스마트 안경 ‘구글 글라스’를 출시했지만 2년 만에 철수한 바 있다.
실시간 시연에 나선 샤람 이자디 구글 안드로이드 XR 부사장은 스마트 안경을 통해 실시간 ‘번역’ ‘길 찾기’ 등을 선보였다.
이자디 부사장은 시연자와 함께 서로 다른 언어로 대화했다. 두 사람의 말은 실시간으로 번역돼 안경 오른쪽에 자막으로 나타났다. 또 눈앞에 표시된 구글 지도를 통해 스마트폰을 보지 않고도 길을 찾을 수 있었다. 안경에 탑재된 카메라를 통해 AI가 주변 환경을 확인하고, 녹화 중 지나친 사물에 대해서는 이용자에게 알리기까지 했다.
카메라를 통해 인식된 장면에 대해 AI가 맥락을 이해하고, 필요한 정보를 내놓는 ‘제미나이 라이브’ 기능도 담겼다. 스마트 안경에 장착된 카메라, 마이크, 스피커 등이 스마트폰과 연동돼 이용자가 손댈 필요 없이 전화, 문자, 앱 등을 이용할 수 있다.
20일(현지 시간) 미국 캘리포니아주 마운틴뷰에서 열린 구글 I/O 행사에서 구글 랩스 앤 제미니 부사장 조쉬 우드워드가 연설하고 있다. [AP]
이와 함께 구글은 검색 서비스에 ‘AI’ 기술을 총동원했다. 지난해 도입했던 AI 오버뷰를 ‘AI 모드’ 개명하고, 기능도 확대했다. AI 모드에는 구글 최신 AI 모델인 제미나이 2.5 버전이 도입됐다.
단순 텍스트 요약 및 이미지 분석, 영상 이해 등을 넘어선 기능이 담겼다. ‘텍스트 입력’ 외에도 음성과 영상 등 멀티모달 기능이 더해졌다. 이를 통해 이용자는 AI 챗봇과 대화하듯 검색할 수 있게 됐다.
스마트폰 카메라 기반 실시간 검색 기능인 ‘서치 라이브’는 궁금한 내용을 카메라에 보여주면 AI가 이를 확인하고, 적절한 정보를 음성 등을 통해 내놓는다. ‘딥 서치’ 기능은 AI가 이용자의 질문을 이해하고, 웹상 방대한 정보를 분석해 심층 답변을 제공한다.
구글. [로이터]
아울러 구글은 AI 영화 제작 도구 ‘플로’, 실시간 음성 번역 ‘구글 미트’ 등의 출시를 예고했다. 플로는 복잡한 기술 없이도 동영상 클립 장면을 쉽게 만들 수 있도록 설계됐다. 구글 미트는 영어와 스페인어를 시작으로 서비스 언어가 확대될 전망이다.
해당 기능들은 최근 유료로 출시된 ‘구글 AI 울트라’ 플랜을 통해 이용 가능하다. 구글 AI 울트라 월 이용료는 약 35만원(249.99달러)이다. 구글은 구글 AI 울트라 출시 국가를 점차 늘릴 계획이다.
Copyright © 헤럴드경제. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.