구글, 제미니에 이미지 상호작용 기능 추가 및 AI 생성 비디오 탐지 기능 도입

2026년 02월 16일 | 스페인어에서 번역됨
Captura de pantalla de la interfaz de la aplicación Google Gemini mostrando la nueva función de dibujo sobre una imagen subida por el usuario.

Google, Gemini에 이미지 상호작용 및 AI로 생성된 비디오 감지 기능을 추가

Google은 Gemini 애플리케이션에 중요한 업데이트를 출시하여 Nano Banana 모델과 사용자가 소통하는 방식을 변화시키는 도구를 도입했습니다. 이러한 개선 사항은 더 직접적이고 시각적인 상호작용을 가능하게 하며, 합성 오디오비주얼 콘텐츠 검증기를 통합합니다. 🚀

AI와의 시각적 소통

가장 두드러진 기능은 사용자들이 이미지와 상호작용할 수 있는 새로운 방식을 제공합니다. 텍스트 설명에만 의존하는 대신, 이제 이미지를 업로드하고 직접 그려서 주석을 달 수 있습니다. 이는 특정 영역을 지적하고 AI에게 변경 처리, 세부 분석 또는 맥락 정보를 요청하는 데 유용합니다.

실제 사용 사례:
  • 사진 편집: 객체를 표시하여 제거하거나 색상을 변경.
  • 그래프 분석: 다이어그램의 섹션을 둘러싸서 설명 요청.
  • 디자인 계획: 기본 이미지 위에 스케치를 그려 아이디어를 반복.
이제 AI가 낙서를 해석할 수 있게 되었지만, 진짜 도전은 여전히 그 막대기 인간 원이 실제로 우리 가족 자화상이라는 것을 이해하는 것입니다.

비디오 출처 확인

인공지능으로 생성된 콘텐츠의 증가에 대응하여 Google은 AI 비디오 감지기를 통합합니다. 이 도구는 오디오비주얼 자료를 분석하여 인공지능 모델에 의해 생성되거나 수정된 징후를 식별합니다. 목표는 사용자들이 실제 녹화와 합성 콘텐츠를 구분할 수 있도록 돕는 것입니다.

감지기 특징:
  • AI로 생성된 콘텐츠에서 흔한 조작 패턴을 검색하여 비디오 분석.
  • 이러한 콘텐츠가 점점 더 빈번해지는 디지털 환경에서 검증 레이어 제공.
  • 합성 콘텐츠 식별 필요성과 투명성 촉진에 대응.

업데이트 맥락

이러한 신규 기능은 Gemini 3 Flash 모델의 최근 주요 업데이트 직후에 출시되었습니다. Nano Banana 모델과 이러한 도구의 통합은 Google의 AI 상호작용을 더 직관적이고 다재다능하게 만드는 데 힘을 실어주며, 이미지 처리 및 미디어 검증의 고급 기능을 최종 사용자에게 가까이 가져옵니다. 진화는 계속되며, 단순한 단어가 아닌 우리의 가장 간단한 선 뒤에 숨겨진 의도를 이해하는 데 초점을 맞춥니다. ✍️