据PCWorld报道,Claude AI用户正采用一种“原始人”式提示技巧,通过从回答中剔除填充词和冠词来减少Token消耗。这种方法能显著削减输出Token数量,例如,一段关于神经网络的解释在使用简化语言后,Token数从460个骤降至仅80个。尽管这对编程任务很有效,但关于“原始人”提示法是否会损害细致解释的回答质量,争论仍在持续。

众所周知,Claude消耗Token的速度就像克尔维特跑车耗油一样快——而就像汽油一样,Token是要花钱的。这正是重度Claude用户一直在寻找节省Token使用量方法的原因。最新的窍门?一种疯狂且颇具争议的新方法:像原始人一样说话。
具体操作如下:用户通过专门的系统提示词或完整的插件,指示Claude像原始人一样说话,剥离所有冗余内容,包括开场白、赞美之词、题外话、填充词(如“非常”、“真的”)、重复表达,甚至冠词(“a”、“the”)。
在Reddit等平台上流传的众多“原始人”系统提示词建议中,包括这样一条:“说原始话。用名词和动词。无语法填充词(the, is, are, of)。用短词。省Token。要直截了当。”
具体结果会因你使用的确切提示词而有很大差异。我尝试了一个变体,除了指定要避免的冠词外,还要求它砍掉客套话和填充词。我从Claude那里得到的回复并非真正的原始人语言,不过我确信通过恰当的提示是可以实现的。相反,我得到的是极度简练的回应,没有任何闲聊和离题内容。
例如,当要求一个被“原始人”提示的Claude解释神经网络基础知识时,它给出了如下回复:
神经网络:连接节点的层。输入层接收数据。隐藏层发现模式。输出层给出结果。
节点传递信号,重要性加权。训练通过反向传播调整权重——最小化误差,重复数百万次。
关键类型:CNN(图像),RNN(序列),Transformer(语言)。现代LLM是大规模Transformer。
这是一个50词的回复,大约相当于80个Token。(Token数比单词数多,是因为AI模型在处理前必须将较长的单词、标点符号和表情符号分解成更小的单元,而每个单元都算作一个Token。)相比之下,当我没有使用“原始人”提示时,Claude给出的回复长达330个单词,460个Token。
那么,结论已定,对吧?我们都用“原始人”模式!嗯,并不完全如此。
自本月早些时候“原始人”提示开始流行以来,它在Reddit和其他地方引发了激烈争论。一些用户认为,这种“原始人”方法会导致回答质量降低、过于简单化。另一些人则指出,任何Token节省都只针对输出Token,而不是你发送给Claude的Token。此外,一个复杂的“原始人”系统提示词在你每次发送新提示时都会产生成本。
“原始人”方法也可能并非万能。虽然它可能非常适合编程这类通常期望得到干脆利落回答的任务,但对于需要更多细节或微妙之处的“解释性”提示(例如我之前“告诉我关于神经网络”的请求),它可能就不是最佳选择了。
尽管如此,Claude的“原始人”方法仍是用户如何创造性地提高其AI Token效率的又一个例证。随着越来越多强大的智能体工具(如Claude Cowork)进入主流,即使是偶尔使用AI的用户也面临着Token效率问题。
事实上,那些更受欢迎的Claude“原始人”插件的开发者们,正在迅速找到在不牺牲质量的前提下,延长其Claude Token使用的方法。



