카메라로 세상 읽는 AI…구글 ‘아스트라’ 실사용 단계 돌입

Pixel 9·갤럭시 S25에 적용 시작
실시간 화면 공유·해설 기능 공개

“이 상자가 어디서 났는지 기억하나요?” 사용자가 카메라를 비추자, AI가 망설임 없이 대답한다. “거실에 있던 박스에서 가져왔어요.”

구글이 공개한 실시간 AI 시연 영상이 온라인에서 화제를 모으고 있다. 영상은 ‘프로젝트 아스트라(Project Astra)’로 명명된 차세대 AI 프로젝트의 기능을 시연하는 장면으로, 2025년 4월 7일 구글이 발표한 ‘Gemini Live’의 최신 기능을 실제 구동 형태로 보여준다.

이 기능은 사용자가 스마트폰 카메라나 화면을 실시간으로 공유하면, AI가 이를 시각적으로 분석하고, 상황에 맞는 설명이나 대화를 제공하는 방식으로 작동한다. 즉, 단순한 챗봇이 아닌 시각적 맥락을 이해하고 기억까지 수행하는 AI 비서다.


기능 구현에는 구글의 멀티모달 AI 모델인 ‘Gemini’가 활용되며, 이번 시연은 구글 DeepMind에서 2024년 구글 I/O에서 발표한 ‘프로젝트 아스트라’의 실제 구현 사례 중 하나다. 구글은 이를 Pixel 9 시리즈삼성 갤럭시 S25 시리즈에 먼저 적용하고 있으며, 일부 사용자는 이미 사용 가능한 상태다.

기술적으로 이 기능은 ‘화면과 현실을 읽고’, ‘기억을 활용해 대화하고’, ‘음성과 시각 정보를 통합적으로 처리하는’ 것이 핵심이다. 특히, 사용자가 스마트폰 화면을 Gemini에게 보여주는 것만으로도 문맥을 이해해 요약하거나 설명하는 수준에 이르렀다.

‘프로젝트 아스트라’는 더 이상 연구실 안에 머물러 있지 않다. 스마트폰과 AI 안경이라는 현실적인 기기를 통해, AI가 ‘보는 것’을 이해하고 대화하는 시대가 실제로 구현되고 있다.

물론, 이 기술이 완전한 상용화로 이어지기까지는 개인정보 보호, 사회적 수용성, 오작동에 따른 신뢰 문제 등 해결해야 할 과제가 많다. 그러나 구글이 보여준 ‘눈을 가진 AI’는, 인간의 일상 속에서 AI가 어떤 역할을 할 수 있는지 새로운 방향을 제시하고 있다.

향후 5월로 예정된 ‘구글 I/O 2025’에서 보다 구체적인 발표가 이뤄질 가능성도 제기되며, ‘프로젝트 아스트라’는 AI 기술이 ‘보는 것’에서 ‘이해하는 것’으로 진화하고 있음을 증명하고 있다.