Google Search Live 走向全球,彻底改变视觉搜索
加利福尼亚州山景城 – 在上周发生短暂的技术故障后,Google 正式开始在全球推出 Search Live,这是一款突破性工具,有望重新定义用户与其物理环境的交互方式。截至 2024 年 5 月 14 日,200 多个国家和地区的智能手机用户现在可以将设备的摄像头对准某个物体或场景并提出问题,并直接在屏幕上接收人工智能驱动的即时答案。
此次广泛的发布使 Search Live 可在 Google 目前提供 AI 模式聊天机器人的所有位置和语言中使用,从而显着扩大了可访问性。此举突显了 Google 致力于将先进的人工智能集成到日常工具中,超越基于文本的查询,转向更直观、视觉优先的搜索体验。
眼见为实:Search Live 的工作原理
Search Live 的核心是视觉搜索的演进,将 Google Lens 的强大功能与生成式 AI 的对话功能相结合。用户只需打开 Google 应用程序,激活 Search Live,然后框出他们想了解的内容即可。他们可以直接说出查询,而不用打字,例如“这种植物叫什么?”或“告诉我这座建筑的历史。”
Search Live 背后的技术利用了 Google 复杂的多模式 AI 模型(例如 Gemini)来实时处理视觉信息并理解自然语言问题。这可以实现无缝的交互式体验,其中人工智能不仅可以识别对象,还可以提供上下文信息、回答后续问题,甚至提供建议。例如,指向外国菜单上的菜肴不仅可以翻译其名称,还可以提供有关其成分和典型准备过程的详细信息。
全球视角:前所未有的覆盖范围和可访问性
在全球 200 多个国家和地区的推出是一个里程碑式的一步,确保世界上绝大多数智能手机用户都可以使用这一创新功能。这种广泛的可用性对于旅行者、学生以及任何遇到新环境或陌生物体的人尤其有影响。
想象一下,探索古代遗址并立即获取历史事实,或者通过简单的点击和提问来识别后院的稀有鸟类。对于不同语言环境的用户来说,Search Live 能够以 Google 的 AI 模式聊天机器人支持的所有语言进行操作,打破了重大的沟通障碍,使信息可以普遍访问。对广泛语言支持和地理覆盖范围的承诺使 Search Live 成为真正的全球实用程序,促进跨文化的更好理解和探索。
屏幕之外:实际应用和价值
尽管 Search Live 是一项集成到现有 Google 搜索生态系统中的免费功能,但它的实际应用广泛且显而易见,具有巨大的性价比。对于消费者来说,它可以将智能手机摄像头转变为强大的研究助手:
- 购物:只需指向商店中的商品即可立即比较价格、阅读评论或查找类似产品。
- DIY 和维修:通过向 AI 展示您正在处理的内容,识别不熟悉的工具、零件或解决问题。
- 学习和学习爱好:获取有关植物、动物、艺术、地标甚至复杂图表的即时信息。
- 旅行:以前所未有的轻松方式导航外国城市、翻译标志、了解当地习俗或识别当地美食。
从“产品规格”的角度来看,Search Live 的关键功能包括实时处理、多模式输入(视觉和音频)以及对话式 AI 集成。它可以快速(通常在几秒钟内)提供信息,并且由于谷歌不断进步的人工智能技术,其准确性正在不断提高。价值主张在于其能够提供即时的上下文答案,而无需繁琐的文本搜索,从而节省时间并丰富用户对周围世界的理解。
Google 的愿景:上下文 AI 的未来
Search Live 的推出清楚地表明了 Google 对环境计算和上下文 AI 的长期愿景。通过无缝融合数字世界和物理世界,谷歌正在迈向这样一个未来:信息不仅触手可及,而且就在我们的视线范围内。这一举措使 Google 处于 AI 军备竞赛的最前沿,挑战竞争对手开发同样直观且强大的视觉搜索功能。
将 Search Live 与其 AI 模式聊天机器人基础设施集成,可确保 Google 的 AI 产品提供一致的用户体验。它标志着一项战略推动,旨在使人工智能成为一个无处不在、有用的助手,能够理解我们现实世界交互的细微差别。随着 Search Live 成为数百万人的主要生活工具,它有望从根本上改变我们发现、学习以及与周围世界互动的方式,使知识比以往任何时候都更容易获取和直接。






