谷歌正逐渐揭开其未来愿景的面纱,即有一天能够销售配备增强现实(AR)和多模态人工智能功能的眼镜。
然而,关于这些眼镜的具体计划仍然模糊不清。目前,我们已经看到了多个Project Astra的演示——DeepMind为构建实时多模态应用程序和代理而努力的项目。
这些演示是在一对神秘的原型眼镜上进行的。周三,谷歌宣布将向一小部分选定用户发布这些具备AI和AR功能的原型眼镜,用于实际测试。周四,谷歌宣布Project Astra原型眼镜将运行在Android XR上,这是谷歌为基于视觉计算的新操作系统。
现在,谷歌开始允许硬件制造商和开发者围绕这个操作系统构建不同种类的眼镜、头戴设备和体验。谷歌还展示了新的演示视频,展示了其原型眼镜如何使用Project Astra和AR技术来实现诸如翻译你面前的海报、记住你在家里的物品位置或让你无需拿出手机就能阅读短信等功能。
“眼镜是一种非常强大的形式因素,因为它们是无手操作的;它们是一种易于获取的可穿戴设备。
无论你走到哪里,它都能看到你所看到的一切。”DeepMind产品负责人Bibo Xu在接受TechCrunch采访时在谷歌山景城总部表示,“这对Astra来说是完美的。”谷歌的一位发言人在接受TechCrunch采访时透露,他们目前没有这款原型产品的消费者发布时间表,并且没有分享关于AR技术、价格或工作原理等许多细节。
然而,在周四的一份新闻稿中,谷歌分享了其对AR和AI眼镜的看法:
Android XR未来还将支持全天候的帮助功能。
我们希望有多种选择的时尚、舒适的可以每天佩戴的眼镜,并且能够无缝地与你的其他Android设备配合使用。配备Android XR的眼镜将让你一键获得Gemini的力量,在你需要的时候提供有用的信息——比如方向、翻译或消息摘要而无需拿出手机。所有这些信息都在你的视线范围内或直接在你的耳边。谷歌还展示了其原型眼镜的一些演示视频。
许多科技公司在最近几个月都分享了类似的雄心勃勃的AR眼镜愿景。
Meta最近展示了其原型Orion AR眼镜,但也没有具体的消费者发布日期。Snap的Spectacles可供开发者购买,但它们也不是面向消费者的。然而,在所有竞争对手中,谷歌似乎有一个优势——那就是Project Astra项目。
它即将向少数beta测试者推出作为应用程序版本。我本周有机会尝试了这款多模态AI代理——尽管是以手机应用程序的形式而非眼镜的形式——虽然今天它还没有面向消费者使用版本,但我可以确认它运行得相当不错。我在谷歌园区的一个图书馆里四处走动,在手机摄像头指向不同物体的同时与Astra交谈。
代理能够同时处理我的声音和视频内容,让我可以询问我看到的东西并实时获得答案。我从一本书封面切换到另一本书封面时,Astra迅速提供了我查看书籍及其作者的相关摘要。Project Astra通过每秒传输一张你周围环境的照片到AI模型进行实时处理来工作。
同时,在你说话时也处理你的声音内容。谷歌DeepMind表示不会在其收集的所有用户数据上训练模型,但AI模型会记住你在周围环境中的对话10分钟内的情况。这使得AI能够回溯到你之前看到或说过的内容。DeepMind的一些成员还向我展示了Astra如何像理解通过手机摄像头看到的内容一样阅读你的手机屏幕内容。
AI可以快速总结Airbnb列表、使用Google Maps显示附近的地点,并根据手机屏幕上看到的内容执行Google搜索。在手机上使用Project Astra非常令人印象深刻,并可能预示着未来AI应用程序的发展方向。
OpenAI也展示了GPT-4o的视觉能力,这些能力类似于Project Astra,并且预计很快会发布这些应用。这些应用可以使AI助手的功能远远超出文本聊天的范畴。
当你在手机上使用Project Astra时,很明显这个AI模型非常适合安装在一副眼镜上。
TechCrunch有一份专注于人工智能的信息简报!请在这里订阅以每周三收到最新的信息简报。