안경 쓰면 ‘제미나이 라이브’ 실행
AI가 앞을 보는 것처럼 영상 인식
삼성·젠몬과 협업… 하드웨어 제조
“생성형 AI로 더 현실적 기능 실현”

마운틴뷰 AP 연합뉴스
스페인 언론사 엘 콘피덴셜 소속 기자 마이클 맥러플린이 20일(현지시간) 미국 캘리포니아 마운틴뷰에서 열린 구글의 연례 개발자 회의에서 스마트 안경에 탑재된 인공지능(AI) 모델 ‘제미나이’ 시연을 보고 있다.
마운틴뷰 AP 연합뉴스
마운틴뷰 AP 연합뉴스
구글이 삼성과 손잡고 ‘스마트 안경’을 개발한다. 과거 ‘구글 글래스’로 스마트 안경 시장에 뛰어들었으나 대중화에 실패했던 구글이 10년 만에 재도전에 나선 것이다. 스마트 안경 시장을 선점한 메타와의 차별화 전략도 관전 포인트다.
20일(현지시간) 미국 캘리포니아 마운틴뷰에서 연례 개발자 회의(I/O)를 연 구글은 기조연설 막바지에 자사의 스마트 안경을 소개하기 시작했다. 샤람 이자디 구글 안드로이드 확장현실(XR) 부사장은 무대에 올라 안드로이드 기반의 XR 기기를 헤드셋뿐 아니라 안경으로 확장한다고 밝혔다.
XR 헤드셋인 ‘프로젝트 무한’을 함께 만들고 있는 삼성전자가 스마트 안경의 하드웨어 제조를 맡고, 국내 안경 전문 브랜드인 젠틀몬스터와 미국의 워비파커가 디자인을 맡는다.
구글의 스마트 안경은 자연스럽게 녹아드는 인공지능(AI) 기능이 핵심이다. 이자디 부사장은 “(구글의 스마트 안경이) ‘제미나이 라이브’의 힘을 당신이 있는 곳으로 가져올 것”이라면서 “안경을 쓰면 초능력을 얻을 수 있다”고 말했다. 여기서 제미나이 라이브는 사람이 보는 것과 마찬가지로 AI가 마치 앞을 보는 것처럼 실시간으로 영상을 인식해 사람과 대화할 수 있는 기능을 의미한다.
이날 공개된 실시간 시연에 따르면 스마트 안경은 눈앞에 구글 지도를 표시해 스마트폰을 보지 않고도 길을 찾을 수 있게 했으며, 외국인과 대화할 때는 말풍선에 실시간 번역 문구가 표시되기도 했다. 안경에 탑재된 카메라를 통해 AI가 주변 환경을 이해하고, 녹화 중 지나친 사물을 기억해 이용자에게 알려 주는 기능도 있었다. 구글은 하반기부터 이를 기반으로 개발자들이 스마트 안경용 앱 개발에 착수할 수 있도록 한다는 계획이다.
구글 공동 창업자 세르게이 브린은 콘퍼런스에서 2013년 구글 글래스가 출시됐을 때 “많은 실수를 했다”고 말했다. 그는 “소비자 전자제품 공급망에 대해 잘 몰랐고 합리적인 가격으로 스마트 안경을 만드는 것이 얼마나 어려운지도 몰랐다”면서 “생성형 AI의 등장이 구글 글래스 시절보다 스마트 안경의 기능을 훨씬 더 현실적으로 만들었다”고 했다.
한편 구글은 지난해 도입한 검색 내용을 AI가 요약해 주는 ‘AI 오버뷰’를 ‘AI 모드’로 대폭 확대했다. AI 모드는 구글의 최신 AI 모델인 제미나이 2.5의 맞춤형 버전을 도입한 검색 기능으로 텍스트 요약과 이미지 분석, 영상 이해 등 기존 텍스트 입력 외에 음성과 영상 등의 멀티모달 기능이 결합됐다.
2025-05-22 14면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지