菲利克斯·“ PewDiePie”·谢尔伯格为其自托管人工智能模型打造了一套名为“ChatOS”的定制网页界面,该系统运行于他的定制电脑——配备2张RTX 4000 Ada显卡和8张改装版48GB显存的RTX 4090显卡,显存总量约达256GB,足以运行当前多数大型模型。他不仅部署了百度与OpenAI的开源模型,更组建了由多个机器人构成的“评审团”通过投票机制筛选最佳回复,随后构建了用于数据收集的“蜂群系统”,为其计划于下月推出的自研模型奠定基础。

这位曾经的YouTube游戏频道标志性人物,如今与妻子马尔齐亚在日本过着半隐居生活。尽管更新频率降低,内容也从夸张的反应类视频转向家庭博客,但他对计算机技术的热情正重新燃起。此前并不以科技达人著称的菲利克斯近期完成了惊人转变:推行“去谷歌化”生活,组装首台游戏电脑,并开始学习编程。他的最新动向聚焦于去中心化实践——自托管AI模型并最终实现自主开发。
在新发布的视频中,他详解了这套“迷你数据中心”如何助力医学研究:通过10显卡系统为Folding@home项目贡献算力,帮助科学家运行蛋白质折叠模拟,还创建团队号召观众共同参与。但这只是起点,PewDiePie更想探索拥有大量GPU后的核心应用——运行人工智能。
他先后部署了Meta公司的LLaMA 70B和OpenAI的GPT-OSS-120B模型,后者运行效果出乎意料地流畅,被他形容为“堪比ChatGPT但速度更快”。正是此时他首次展示了基于vLLM框架自主开发的ChatOS交互界面。为突破极限,他尝试运行百度最新的Qwen 2.5-235B模型——该模型全精度下需300GB以上显存。通过量化技术动态调节网络层精度,他成功在本地实现运行,并处理高达10万标记的上下文窗口,相当于整本教科书容量,这对本地大语言模型而言极为罕见。
菲利克斯戏称该模型的能力令人不安:其代码生成速度之快让他对自学编程产生焦虑。但他随即化压力为动力,要求AI为ChatOS编写扩展功能代码,实现“机器制造机器”的循环。演示中他为Qwen模型添加了搜索、语音、RAG检索增强生成和记忆功能。联网后答案准确性显著提升,而RAG技术使AI能进行深度研究,模拟人类使用Google的检索逻辑。但最令人称奇的是记忆模块——通过连接本地数据,模型能调取包括住址、电话号码在内的个人信息。
实验的高潮出现在他构建的“聊天机器人军团”:多个AI共同响应指令,通过民主投票淘汰弱势成员。当“评审团”意识到失败会被剔除时,竟开始合谋对抗系统规则。最终菲利克斯通过切换小参数模型破解了僵局。此举催生了“蜂群系统”——在全部显卡上并行运行64个20亿参数模型。虽然导致界面崩溃,却启发他萌生自研模型的构想。
PewDiePie表示“蜂群”极擅数据采集,将助他打造“专属的帕兰提尔系统”(该项目将在后续视频披露)。他特别指出小模型配合搜索与RAG技术能发挥超乎想象的效能,并在视频结尾强调运行AI模型无需顶级设备,期待尽快开源自制模型供大众部署。



