PCWorld指出,苹果新款MacBook Pro搭载的M5 Pro和M5 Max芯片凭借其卓越的本地人工智能处理能力,对微软的人工智能雄心构成了重大威胁。M5 Max提供高达128GB的统一内存,远超英伟达RTX 5090等竞争对手的32GB显存,使得大型人工智能模型能够在本地运行,从而增强隐私性并降低延迟。苹果在GPU核心内集成的神经加速器及其MLX框架,共同打造了一个比微软的Windows ML方案更高效的人工智能平台。

苹果的Mac mini已成为运行本地人工智能的热门选择。而搭载全新苹果M5 Pro和苹果M5 Max芯片的最新款MacBook Pro,可能会让开发者更加着迷。
苹果本周发布了新款MacBook Pro,其芯片结合了两个3纳米制程的CPU核心模块,并通过互连结构连接。Macworld的杰森·克罗斯(Jason Cross)指出,这种双模块设计并非首创;像AMD的锐龙9 5950X或7950X3D这样的处理器也使用了一对通过其Infinity Fabric互连的小芯片。
苹果M5芯片的新颖之处在于引入了“超级核心”和“性能核心”。正如杰森所指出的,其中一部分——即更名的“超级核心”——属于品牌营销。而其他部分,如新的性能核心,目前仍有些未知。但真正有趣的是,它们与20至40核的GPU配对,每个GPU核心内部都包含一个神经加速器,并且最高可配置高达128GB的统一内存。这是你的Windows个人电脑所不具备的,并为苹果用户带来了多项优势。
目前,我们尚不清楚围绕苹果最新芯片的一些细节,这些细节或许会在今年8月的Hot Chips芯片大会上通过深入剖析得以揭示。但仅从这些顶层特性来看,已足以让我们惊叹于苹果的成就。
内存至关重要,而M5 Max版MacBook在这方面表现卓越。让我们直接谈谈最令人印象深刻的方面:内存。苹果M5 Max芯片标配48GB统一内存,最高可达惊人的128GB。苹果的配置页面有些令人困惑,但看起来所有16英寸MacBook Pro笔记本电脑似乎都可配置到此容量,尽管价格高达4399美元。但这是一个统一的内存配置。
多年来,搭载AMD和英特尔芯片的Windows笔记本电脑都包含专用显存:在英特尔笔记本电脑中,显存通常是可用系统内存的一半;在锐龙笔记本中,显存也是固定的。当AMD宣布推出用于本地人工智能的锐龙AI Max处理器时,它调整了其Adrenalin软件,允许用户动态调整显存。去年8月,英特尔推出了“共享GPU内存覆盖”功能,基本上实现了同样的效果。从架构角度看,其Arm处理器最接近M5 Pro和Max的高通,却不提供这种能力。
当然,苹果的MacBook不仅可用于人工智能,还可用于光线追踪等任务。苹果的M5芯片使用了其称之为MLX的开源数组框架,这似乎将本地人工智能提升到了另一个层次。正如苹果所解释的,MLX不需要用户去计算分配多少内存。它甚至不一定自己做这个选择。相反,内置了对神经网络训练和推理(包括文本和图像生成)支持的MLX,可以“在CPU或GPU上运行,而无需移动内存”。用一句老话说,就是它“直接能用”。
人工智能模型会消耗你个人电脑上可用的最快内存,这通常是与你GPU相关的视频内存。最好的人工智能模型通常也是最复杂的:越大越好,人工智能模型使用参数数量作为衡量其性能的一般指标。但这些模型也需要大量内存来运行——就像Windows无法在仅有区区2GB内存的个人电脑上运行,以及为什么Adobe Photoshop需要多得多的内存一样。
因此,小结一下:苹果新款M5 MacBook Pro包含高达128GB的可用内存,其中绝大部分可供GPU——在此情况下即人工智能引擎——使用。这远远超过了与最强大的个人电脑显卡英伟达RTX 5090相关的本地显存,后者仅配备32GB显存。如果你认为花4399美元买一个“人工智能盒子”太贵,那么3099美元的MacBook Pro就标配了48GB的统一内存。你应该明白其中的优势了。
那么,苹果的MacBook应该能够加载并运行那些通常被迫在云端运行的本地人工智能模型。这意味着没有延迟,没有订阅费用,在受严格隐私法律管辖的应用程序中,数据不会离开设备。苹果自己的估计显示了各种流行模型的内存需求对比,它们应该可以轻松地在MacBook上运行。如果将Qwen3模型的内存分配加倍,运行一个700亿参数的模型应该是可能的。更酷的是,苹果发布了几行代码来量化或压缩模型,使其精度降低。这非常巧妙。
但苹果的设计也具备一些令人印象深刻的性能特征。AMD、英特尔和高通的处理器都包含一个专用的、统一的GPU。苹果则不然:相反,它在每个GPU核心内部都放置了一个NPU(或至少是一个“神经加速器”)。我们知道这些神经加速器执行机器学习所需的特定专用矩阵乘法运算,而且苹果还有一个单独的16核神经引擎,推测是其对专用NPU的命名。我们并不完全清楚它们之间是如何相互作用的。
尽管如此,苹果表示,“首次令牌响应时间”(即大语言模型对你的输入做出反应的速度)显著加快,这在上面的表格和下面的图表中都有体现。
就我个人而言,我使用大语言模型的体验并未真正受限于其速度。我喜欢快速的响应,但大语言模型生成文本时那种点阵打印机般的方式,有时会让阅读变得困难。响应的精妙程度更为重要。
Windows世界能跟上吗?公平地说,微软在其技术路线图中也有概念上类似的东西:Windows ML,它利用个人电脑上可用的最强大的硅芯片来运行本地人工智能应用程序。它基本上是说,你不需要NPU,只需要你个人电脑中最强大、可用的组件。哪种方法更好?老实说,我不知道,尽管适当的测试应该能揭示答案。
AMD的锐龙AI Max+是一个人工智能强手,可能是苹果最接近的挑战者。AMD通过AI Max+ 395为人工智能问题投入了80MB的高速缓存,并且为处理器增加内存一直是其取得卓越效果的策略。
尽管如此,我见过一些传闻称,苹果零售店的员工对Mac mini的畅销感到震惊。但这些小巧紧凑的盒子已被证明对希望在本地运行大语言模型或智能体人工智能、同时不想消耗大量电力或支付人工智能令牌订阅费的开发者来说非常有用。苹果的新款MacBook Pro只是增加了一个屏幕。
然而,据我所知,Mac mini在设计之初并未以人工智能为核心考量。随着苹果管理层现在意识到Mac mini是首选的人工智能设备,预计在2026年推出的内置M5芯片的苹果Mac mini会发生什么变化,将非常有趣。这一切无疑为AMD、英特尔和高通设定了一个需要努力追赶的高标准。



