在2025年全球开发者大会(WWDC)上,苹果展示了全新人工智能驱动的“快捷指令”应用。

该公司宣布,现在快捷指令能直接调用苹果智能(Apple Intelligence)功能,开发者也将能接入苹果设备的本地大语言模型(LLM)。用户可通过设备端或隐私计算云服务调用AI模型生成响应,并将结果融入快捷指令流程。例如,学生可以创建这样一个智能指令:用AI对比课堂录音转文字与笔记内容,自动补全遗漏的重点内容。还能接入ChatGPT获取补充信息来完善指令输入。

Cover Image

苹果还推出了由Apple Intelligence驱动的智能动作——这是一种新型快捷指令。比如专用动作集包含“AI文本摘要”(来自Apple Intelligence的写作工具)或通过‘图像游乐场’生成图片等功能。

苹果表示这些新功能将于周一起开放测试。此次AI辅助的快捷指令升级,延续了去年公司对智能助手Siri进行AI增强的承诺。不过此前苹果推迟了这项升级计划,表示需要比预期更长的开发周期。

在WWDC2025上,苹果继续推进AI战略,发布了支持脚本编写与自动化的快捷指令更新版。这些AI改进将降低使用门槛,让非技术用户也能轻松上手——此前该应用更多属于高级用户的专属工具。

当前热门快捷指令可实现诸多功能:制作自定义表情包/GIF、生成会议纪要、追踪活动耗时、创建播放列表、保存PDF、查询照片拍摄地、设置基于位置的提醒、快速拨号、合并截图、缩短网址、下载文件、收藏待读内容等。

对苹果延迟全面升级Siri AI功能的情况而言,这次更新某种程度上起到了过渡作用。通过AI辅助自动化,至少能让iPhone的使用体验显得更高效——当然前提是用户愿意花时间研究快捷指令的创建。


文章标签: #苹果 #AI #快捷指令 #WWDC #自动化

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。