一位软件开发者证实,2005年问世的PowerBook G4等古董设备也能运行现代大语言模型(LLM),尽管其运行效率远低于现代硬件的标准水平。

Cover Image

当前主流人工智能项目(如苹果力推的Apple Intelligence)都需要依赖高性能设备进行本地化运算。这使得新一代计算机和处理器(例如iPhone 16系列搭载的最新A系列芯片)成为AI应用的首选平台,因为它们具备足够的算力支撑。

安德鲁·罗西尼奥尔(Andrew Rossignol)——MacRumors网站乔·罗西尼奥尔(Joe Rossignol)的兄弟——在The Resistor Network最新博文中详细记录了改造古董设备的探索过程。他使用的测试设备是2005款PowerBook G4笔记本,配置包括1.5GHz处理器、1GB内存和受限于32位架构的寻址空间。

通过研究llama2.c项目(该项目用纯C语言单文件实现了Llama2大语言模型推理),罗西尼奥尔对核心代码进行优化改进。具体措施包括编写系统函数封装器、重构为带公共API的库,并最终成功移植到PowerPC架构的麦金塔电脑。这个过程中需要解决“大端序”处理器与模型检查点要求的“小端序”字节顺序兼容性问题。

在性能表现方面,llama2.c项目推荐使用TinyStories模型来提升无硬件加速时的输出效率。测试从1500万参数(15M)版本开始,后升级至1.1亿参数(110M)版本——更高参数的模型会超出地址空间限制。对比测试显示,3.2GHz主频的英特尔至强银牌4216处理器完成单次查询耗时26.5秒,每秒生成6.91个标记;而PowerBook G4需要4分钟完成相同任务,存在近九倍差距。通过Altivec矢量扩展优化后,推理时间缩短半分钟,差距缩小至八倍。

虽然所选模型生成的“充满童趣的儿童故事”为调试过程带来不少欢乐,但受限于32位架构和4GB最大可寻址内存,性能提升已接近天花板。罗西尼奥尔指出,量化压缩技术也因地址空间不足难以实施,目前项目暂告段落,但他认为“这是理解大语言模型运行机制的绝佳入门教程”。

特别值得注意的是,开发者强调:“比至强处理器年轻15岁的设备能实现这种功能已属惊人成就。”这项实验为古董设备用户带来新希望——退役设备仍可运行AI应用,但必须接受性能远逊于现代硬件的现实。

除非发现革命性的优化方案来降低计算需求,否则大语言模型开发者仍需持续升级硬件设备。虽然最新M3 Ultra版Mac Studio是本地运行大型语言模型的理想选择(尽管价格高昂),但对于技术爱好者来说,折腾PowerBook G4这类项目依然充满独特乐趣。


文章标签: #AI #古董设备 #性能对比 #LLM #移植

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。