苹果WWDC 2025视觉智能升级 屏幕截图整合AI功能
在2025年WWDC大会上,苹果展示了其“视觉智能”(Visual Intelligence)功能的重要更新,将其深度整合至屏幕截图系统,进一步扩展了AI在iPhone操作中的实用性。这一改进被视为苹果推进“Apple Intelligence”生态的关键一步,同时也为未来Siri的升级埋下伏笔。
在新版iOS 18(或可能的iOS 26,具体版本未明确)中,截屏操作(电源键+音量下键)将触发全新的AI交互界面。截取的图片不再仅显示缩略图,而是占据几乎整个屏幕,并环绕以编辑、分享等选项。最引人注目的是底部的“Apple Intelligence”建议栏,可根据截图内容提供智能操作,例如:
- 识别物体:如植物、动物、商品,并推荐购买链接(支持第三方服务如Etsy、Pinterest);
- 提取信息:将截图中的地址添加到通讯录,或将活动日期插入日历;
- 局部交互:用户可通过涂鸦圈选特定区域,获取针对性信息(类似照片App的“对象擦除”功能)。 此外,左下角和右下角分别保留了“询问ChatGPT”和“Google图片搜索”的快捷入口,延续了多模型协作的策略。
此次更新与苹果2024年提到的Siri“屏幕感知”(Screen Awareness)功能理念相似。后者旨在让Siri直接理解并操作屏幕内容(例如将短信中的地址保存至联系人),但至今尚未全面落地。而视觉智能的截图整合,似乎提供了一种更直接的替代方案——用户无需唤醒Siri,即可通过截屏触发AI服务。
苹果软件工程高级副总裁Craig Federighi在主题演讲中透露,Siri的深度升级可能需等到2025年晚些时候。目前的截图AI功能,或为Siri未来的“无指令交互”铺路。
尽管功能强大,部分用户对截屏流程的复杂化表示担忧。例如,频繁截屏保存内容的用户可能需要额外步骤跳过AI界面。苹果表示,传统截屏模式仍可选择,且新功能可关闭。