گوگل روند عرضه قابلیت‌های پیشرفته ویدیویی هوش مصنوعی Gemini را آغاز کرده است. این ویژگی‌ها امکان تحلیل ورودی بصری از صفحه‌نمایش دستگاه یا دوربین گوشی هوشمند کاربران را فراهم می‌کند و پاسخ‌های متنی متناسب با محتوا ارائه می‌دهد. این پیشرفت تقریباً یک سال پس از معرفی اولیه فناوری "Project Astra" در رویداد Google I/O 2024، که زیربنای این قابلیت‌ها محسوب می‌شود، به تأیید رسیده است. اولین گزارش‌های مربوط به این قابلیت از سوی یک کاربر ردیت منتشر شد که این ویژگی را در یک گوشی شیائومی مشاهده کرده بود. وی با انتشار ویدیویی، توانایی جدید Gemini در تحلیل محتوای صفحه را به نمایش گذاشت. این قابلیت یکی از دو ویژگی کلیدی است که گوگل در اوایل مارس اعلام کرد به تدریج برای مشترکان نسخه پیشرفته Gemini با طرح Google One AI Premium فعال خواهد شد. ویژگی دوم از دوربین گوشی برای پردازش ویدئوی زنده استفاده می‌کند و امکان پاسخ‌گویی به سؤالات کاربران درباره محیط اطراف را فراهم می‌سازد.

این به‌روزرسانی پس از معرفی قابلیت "Gemini Canvas" برای کمک به نوشتن و برنامه‌نویسی و ابزارهای خلاصه‌سازی پادکست ارائه شده است. این پیشرفت‌ها نشان‌دهنده برتری گوگل در حوزه دستیارهای هوش مصنوعی در مقایسه با اپل، سامسونگ و آمازون است. بااین‌حال، هنوز تمام قابلیت‌های Project Astra که سال گذشته نمایش داده شد، در دسترس نیستند، اما سرعت پیشرفت Gemini نویدبخش آینده‌ای پیشرفته در حوزه هوش مصنوعی است.