谷歌发布 Agentic Vision:模仿人类处理图像,让 AI 学会“放大看”

2026-01-28 17:56:09   |   嫣然   |   906

1月28日,谷歌 DeepMind 团队昨日(1 月 27 日)发布博文,宣布在 Gemini 3 Flash 模型基础上,推出“智能体视觉”(Agentic Vision)功能。传统 AI 模型在处理图像时,通常仅进行一次静态扫描,这种方式若遗漏了芯片序列号或远处的路牌等细微细节,模型便只能依靠猜测来生成答案。

Gemini 3 Flash 引入的“智能体视觉”打破了这一局限,将视觉理解转化为一个主动调查的过程。模型不再被动接收信息,而是通过结合视觉推理与代码执行,模仿人类“思考、行动、观察”循环处理图像,从而确立答案的视觉证据。

首先是“思考”阶段,模型分析用户查询和初始图像,制定多步计划;紧接着进入“行动”阶段,模型生成并执行 Python 代码来主动操作图像(如裁剪、旋转、标注)或进行分析(如计算边界框);最后是“观察”阶段,变换后的图像被追加到模型的上下文窗口中。这一机制让 Gemini 3 Flash 能够利用更新后的数据和更佳的语境进行二次检查,从而生成基于事实的最终回复。

引入代码执行能力后,Gemini 3 Flash 在多数视觉基准测试中质量提升了 5-10%。以建筑图纸验证平台 PlanCheckSolver.com 为例,该平台利用此功能让模型通过代码裁剪并分析屋顶边缘等高分辨率细节,使准确率提高了 5%。

此外,在处理视觉数学问题时,模型不再依赖概率猜测,而是通过编写代码识别原始数据并调用 Matplotlib 库绘制精确图表,有效解决了大型语言模型在多步视觉算术中常见的“幻觉”问题。

Google DeepMind 表示这仅仅是开始。目前的 Gemini 3 Flash 已擅长隐式决定何时放大细节,未来版本将无需用户显式提示即可自动执行旋转图像或视觉运算等操作。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

谷歌发布 Agentic Vision:模仿人类处理图像,让 AI 学会“放大看”

2026-01-28 17:56:09 浏览量: 906 作者: 嫣然

1月28日,谷歌 DeepMind 团队昨日(1 月 27 日)发布博文,宣布在 Gemini 3 Flash 模型基础上,推出“智能体视觉”(Agentic Vision)功能。传统 AI 模型在处理图像时,通常仅进行一次静态扫描,这种方式若遗漏了芯片序列号或远处的路牌等细微细节,模型便只能依靠猜测来生成答案。

Gemini 3 Flash 引入的“智能体视觉”打破了这一局限,将视觉理解转化为一个主动调查的过程。模型不再被动接收信息,而是通过结合视觉推理与代码执行,模仿人类“思考、行动、观察”循环处理图像,从而确立答案的视觉证据。

首先是“思考”阶段,模型分析用户查询和初始图像,制定多步计划;紧接着进入“行动”阶段,模型生成并执行 Python 代码来主动操作图像(如裁剪、旋转、标注)或进行分析(如计算边界框);最后是“观察”阶段,变换后的图像被追加到模型的上下文窗口中。这一机制让 Gemini 3 Flash 能够利用更新后的数据和更佳的语境进行二次检查,从而生成基于事实的最终回复。

引入代码执行能力后,Gemini 3 Flash 在多数视觉基准测试中质量提升了 5-10%。以建筑图纸验证平台 PlanCheckSolver.com 为例,该平台利用此功能让模型通过代码裁剪并分析屋顶边缘等高分辨率细节,使准确率提高了 5%。

此外,在处理视觉数学问题时,模型不再依赖概率猜测,而是通过编写代码识别原始数据并调用 Matplotlib 库绘制精确图表,有效解决了大型语言模型在多步视觉算术中常见的“幻觉”问题。

Google DeepMind 表示这仅仅是开始。目前的 Gemini 3 Flash 已擅长隐式决定何时放大细节,未来版本将无需用户显式提示即可自动执行旋转图像或视觉运算等操作。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号