AMDStability AI于本周一宣布,双方已将Stable Diffusion 3.0 Medium模型移植至Stability旗下的Amuse AI艺术生成器。该技术突破使得仅凭NPU(神经网络处理器)即可实现更优质的图像生成效果,甚至支持文本生成功能。

Cover Image

尽管当前多数令人惊叹的AI艺术突破来自云端(例如Google Veo 3),但这款基于AMD个人处理器本地运行的AI艺术模型仍具里程碑意义——这标志着长期在AI艺术领域落后于英特尔AMD取得了实质性进展。

新版模型将作为Amuse 3.1的组成部分,用户可通过Stability AI平台下载。需通过Amuse应用获取Stable Diffusion Medium模型(今年四月Amuse首次实现文本生成视频时我们曾进行测试)。该模型采用BF16浮点格式,虽精度有所降低但响应范围更广,其生成效果相较笔者四月测试版本有显著提升。

虽然Stable Diffusion Medium此前已登陆Amuse平台,但依赖GPU运算的设定限制了普及度。如今用户可自由选择运算单元,随着搭载NPU的笔记本电脑日益增多,本地图像生成技术将惠及更广泛群体。

AMD上周提供的媒体测试中,笔者使用内置AMD锐龙AI 9 365处理器(配备50 TOPS算力NPU)的微星Prestige A16 AI+进行实测。每幅图像(20步渲染)生成耗时约90秒,虽远逊于云端速度,但本地生成不受次数限制。

当前Amuse仍存在瑕疵,仔细观察仍可辨别非人工创作痕迹,但其进步轨迹清晰可见。未来一两年内,这项技术将发展到何种程度?

需要指出的是,新版Stable Diffusion模型目前仅支持生成正方形图像。


文章标签: #AMD #AI艺术 #NPU #StabilityAI #图像生成

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。