연례 개발자 콘퍼런스서 음성-영상으로 검색 이용하는 'AI 모드' 공개챗봇처럼 복잡한 질의응답 가능…복잡한 데이터 분석-맞춤 그래픽도 생성삼성과 XR 헤드셋 이어 스마트 안경 개발 협업 확장…AI 영화제작 도구도 선봬
  • ▲ 순다르 피차이 구글 CEO가 미국 캘리포니아주 마운틴뷰에서 열린 연례 개발자 콘퍼런스 'I/O 2025'에서 기조연설을 하고 있다. 250520 사진=구글. ⓒ뉴시스
    ▲ 순다르 피차이 구글 CEO가 미국 캘리포니아주 마운틴뷰에서 열린 연례 개발자 콘퍼런스 'I/O 2025'에서 기조연설을 하고 있다. 250520 사진=구글. ⓒ뉴시스
    세계 최대 검색 엔진업체 구글이 검색에 AI 기능을 대폭 접목하고 나섰다. 챗GPT 등 AI 챗봇이 큰 인기를 끌면서 전세계 약 90%를 차지하는 구글의 검색시장을 위협하고 있기 때문이다.

    뿐만 아니라 삼성전자와 개발 중인 확장현실(XR) 헤드셋에 이어 스마트 안경까지 협업을 확대하기로 했다.

    구글은 20일(현지시각) 미국 캘리포니아주 마운틴뷰에서 연례개발자회의(I/O)를 열고 생성형 AI를 대거 접목한 새로운 검색기능 등을 발표했다.

    구글은 지난해 도입한 'AI 오버뷰'를 'AI 모드(AI Mode)'라는 이름으로 대폭 확대했다. 'AI 오버뷰'는 검색내용을 AI가 요약하는 방식이며 'AI 모드'는 구글의 최신 AI 모델인 제미나이 2.5의 맞춤형 버전을 도입해 새롭게 탈바꿈한 검색기능이다.

    순다르 피차이 구글 CEO는 기조연설을 통해 "AI 모드는 검색과 분석·요약·결과 제공까지 AI가 처리해 주는, '엔드-투-엔드' AI 기반 검색 경험을 원하는 사용자들을 위한 완전히 새로운 검색기능"이라며 "정보에서 지능으로 나아가는 검색의 새로운 시대"라고 말했다.

    'AI 모드'는 텍스트 요약과 이미지 분석, 영상 이해 등 기존 텍스트 입력 외에 음성과 영상 등의 멀티모달(Multi Modal) 기능이 결합됐다.

    이용자는 검색어 입력뿐만 아니라 문장 입력과 후속 질문 등을 통해 AI 챗봇과 대화하듯 검색을 요청할 수 있다.

    스마트폰 카메라 기반의 실시간 검색기능인 '서치 라이브'도 통합돼 이용자가 작업 중 궁금한 내용을 카메라로 보여주면 AI가 이를 보고 적절한 정보를 즉시 제공하거나 음성으로 설명해준다.

    일반적인 키워드 기반 검색을 넘어 AI가 사용자의 질문을 이해하고, 웹상의 방대한 정보를 자율적으로 탐색하고 분석해 종합적인 보고서나 심층적인 답변을 제공하는 '딥 서치' 기능도 접목됐다.

    복잡한 데이터 세트를 분석하고, 질문에 맞게 맞춤 제작된 그래픽도 생성한다.

    특히 지난해 공개한 '프로젝트 마리너'라는 에이전트 기능도 겸비해 티켓 예매와 레스토랑 예약, 서비스 신청 등 일련의 과정을 AI가 알아서 해준다. 전세계의 옷을 입어보고 결제할 수 있는 쇼핑 기능도 추가됐다.

    'AI 모드'는 이날부터 미국 내 모든 사용자가 이용할 수 있으며 앞으로 다른 국가로도 확대된다. 다만 다른 국가로 확대되는 구체적인 일정은 알려지지 않았다.
  • ▲ 구글은 미국 캘리포니아주 마운틴뷰에서 열린 연례 개발자 콘퍼런스 'I/O 2025'에서 삼성전자, 젠틀몬스터, 워비 파커가 참여한 안드로이드 XR 기반 스마트 안경을 연말에 공개할 것이라고 밝혔다. 250520 사진=구글. ⓒ뉴시스
    ▲ 구글은 미국 캘리포니아주 마운틴뷰에서 열린 연례 개발자 콘퍼런스 'I/O 2025'에서 삼성전자, 젠틀몬스터, 워비 파커가 참여한 안드로이드 XR 기반 스마트 안경을 연말에 공개할 것이라고 밝혔다. 250520 사진=구글. ⓒ뉴시스
    삼성과 운영체제 안드로이드 XR 기반의 XR 헤드셋을 개발해 오고 있는 구글은 삼성과 스마트 안경 개발에도 나선다.

    구글은 삼성전자 및 한국 선글라스업체 젠틀몬스터 등과 함께 안드로이드 XR을 접목한 스마트 안경을 개발한다고 밝혔다.

    구글이 스마트 안경 개발에 나서는 것은 2013년 구글 글라스라는 스마트 안경을 선보였다가 2년 뒤 성과 부진으로 단종한 지 10년 만이다.

    이 스마트 안경은 카메라와 마이크, 스피커가 장착되고 휴대전화와 연동돼 주머니에 손을 댈 필요 없이 전화를 받거나 문자를 보내고 앱을 이용할 수 있다.

    특히 '제미나이 라이브' 기능이 탑재돼 이용자가 보고 듣는 것을 AI가 카메라로 인식해 주변 맥락을 이해함으로써 이용자 질문에 필요한 정보를 제공하고 사용자에게 중요한 사안을 상기시킨다.

    제미나이 라이브는 이날부터 안드로이드와 iOS 스마트폰에서 앱으로도 이용할 수 있다.

    스마트 안경에는 실시간 번역기능도 탑재돼 언어가 다른 두 사람이 자연스럽게 소통할 수 있는 기능도 접목될 예정이라고 구글은 설명했다.

    이날 삼성이 개발한 시제품이 공개됐다. 구글은 하반기부터 이를 기반으로 개발자들이 스마트 안경용 앱 등의 개발에 착수할 수 있도록 한다는 계획이다.

    구글 측은 "안경은 종일 편안하게 착용할 수 있어야 진정한 가치를 발휘할 수 있다"며 "혁신적인 아이웨어 브랜드들과 협력해 안드로이드 XR 기반의 스타일리시한 안경을 만들 것"이라고 밝혔다.

    구글은 기존 동영상 생성 AI 모델인 '비오(Veo)2'에 오디오를 가미한 '비오3'도 선보이고, 선명도를 극대화한 이미지 생성 AI 최신 모델 '이마젠4'도 공개했다.

    아울러 비오와 이마젠, 제미나이를 통합해 영화 같은 장면과 스토리를 만들 수 있는 AI 영화제작 도구인 '플로(Flow)'도 출시한다고 밝혔다.

    '플로'는 창의적인 스토리텔러와 영화 제작자들이 복잡한 기술 없이도 영화 같은 동영상 클립과 장면을 쉽게 만들 수 있도록 설계됐다.

    구글 미트를 통해서는 대화하는 서로 다른 언어가 실시간 음성으로 번역된다. 구글은 영어와 스페인어를 시작으로 언어를 확대해 나갈 예정이다.

    다만 이런 기능들은 유료로 제공된다. 구글은 자사의 가장 강력한 AI 모델을 통해 비오3와 이마젠4, 플로, 구글의 실험적인 기능 등을 먼저 이용할 수 있는 '구글 AI 울트라' 플랜을 출시했다.

    월 249.99달러(약 34만원)에 제공되는 구글 AI 울트라는 미국에서만 사용할 수 있으며 조만간 더 많은 국가에 출시될 예정이라고 구글은 밝혔다.