AMD光追卡顿非独家,英伟达特供引擎惹祸
阅读全文

锤刻创思寰宇网
如果它看起来像鸭子,游泳像鸭子,叫声像鸭子,我们是否该称它为鸭子?或者说,当宾夕法尼亚大学沃顿商学院和香港科技大学的研究人员在论文中探讨“人工智能驱动的交易”行为时,这些行为需要与合谋相似到何种程度,金融监管机构才能合理地对其实施相应监管?
这份题为《人工智能驱动的交易、算法合谋与价格效率》(AI-Powered Trading, Algorithmic Collusion, and Price Efficiency)的工作论文由美国国家经济研究局发布,通过使用强化学习算法的交易代理进行实验,试图解答上述问题。这些算法根据市场历史数据、趋势和预测来决定买卖资产的时机。
论文作者温斯顿·魏·窦(Winston Wei Dou)、伊泰·戈德斯坦(Itay Goldstein)和季岩(Yan Ji)发现:“证券交易中的AI合谋可能通过两种不同的算法机制出现:一种基于价格触发策略,另一种源于学习过程中的过度修剪偏差”。他们毫不客气地将这两种机制分别称为“‘人工智能’驱动的AI合谋”和“‘人工愚蠢’驱动的AI合谋”。
虽然论文包含大量专业术语和数学符号,但通过作者的前言和结论部分可以获知核心发现。需要说明的是,笔者的投资策略一直是——相信各位会保密——穷到无需担心对冲基金算法会影响个人净资产。(不过谷歌的算法另当别论......)
笔者对这类算法“做决策”的方式足够了解(如果这能称为决策的话),因此对论文发现并不惊讶。此类工具旨在找到最大概率让数字上升、最小概率让数字下降的方法,最终导致多个算法对特定条件产生大体相似的反应。
作者写道:“这揭示了关于AI的一个基本认知:仅依赖模式识别的算法,其行为可能非常接近逻辑与战略推理。”他们补充指出,发现的过度修剪偏差“并非特定非标准算法假设或局限的结果,而是强化学习的普遍特征,即使在复杂环境中依然存在”。
问题在于,监管机构试图解决“人工智能”问题时,可能加剧“人工愚蠢”问题。前者偶尔会促使算法交易者采取潜在高风险操作;后者则多导致保守交易策略。如何在抑制激进的同时避免助长畏缩?
最经典的例子来自12年前一篇描述任天堂娱乐系统游戏机器人的论文。这个机器人在《超级马里奥兄弟》中表现优异,却在《俄罗斯方块》中一塌糊涂——最终它发现“赢得”这个理论上只有失败没有真正胜利条件的游戏的最佳方式,就是在失败前暂停游戏。
要避免因算法激进交易导致合谋嫌疑、监管审查和潜在罚款,最快捷的方法是什么?就是教导它们不要激进交易——这正是“人工愚蠢”所鼓励的行为。这对于开发算法交易的公司和监管市场的金融机构而言,都将是个棘手难题。
需要说明的是,该论文并未证明金融市场中已存在通过人工智能或人工愚蠢实现的AI合谋,其结论基于不同算法交易者在模拟市场中的表现。但如果模拟池塘里的生物看起来像鸭子、游泳像鸭子、叫声像鸭子......