如果你认为那些高度依赖生成式人工智能的员工可能不太擅长处理无法由机器简洁回答的问题,那么你的看法很可能是正确的。微软(Microsoft)和卡内基(Carnegie)的研究人员最近在一项自我报告的研究中,尝试探讨生成式人工智能对员工“认知努力”的影响。该研究指出:“如果使用不当,技术可能会导致本应保留的认知能力的退化。”

Cover Image

这项研究涉及319名每周至少使用一次生成式人工智能工具(如ChatGPT或Copilot)的员工,分析了936个相关的“真实世界生成式人工智能工具使用案例”,参与者分享了他们如何完成工作。研究发现,批判性思维主要用于验证工作质量,但随着对人工智能工具信任度的提升,批判性思维的运用却随之减少。

该研究的结论是:“因此,我们的研究表明,生成式人工智能工具需要设计成能够支持知识工作者的批判性思维,通过解决他们的意识、动机和能力障碍来实现。”由于这项研究基于319名员工的自我报告,其结果受到参与者自我认知的影响,因此在方法论上存在一些局限性。例如,某些参与者可能会将工作的复杂性和一致性与较少的批判性技能混为一谈。

研究表明,如果人工智能生成的回答让用户感到满意,他们可能会自我感觉并未像面对更复杂的问题时那样进行批判性思考。此外,批判性思维和满意度等指标本质上是主观的。

未来的研究建议:“在未来的工作中,进行纵向研究,追踪人工智能使用模式的变化及其对批判性思维过程的影响,将是有益的。”

尽管如此,研究得出的结论——对生成式人工智能工具的更多信任可能导致对其结果的批判性思维减少——在现实世界中的人工智能工具中也有所体现。例如,基于人工智能的代码编辑器Cursor(Cursor)最近在回应一位用户要求生成超过750行代码的请求时,表示无法生成这么多代码,因为这相当于“完成你的工作”。它进一步解释:“为他人生成代码可能导致依赖性增加和学习机会减少。”

这一观点与近期研究中的发现相呼应。如果程序员要求人工智能生成数百行代码,而这些代码出现问题,那么在不了解代码内容的情况下,找到问题会更加困难。

从根本上说,人工智能生成的工具并非无懈可击。它们通过抓取数据(其中一些可能受版权保护)创建,并且由于信息的多样性,容易产生“幻觉”。它们可能会出错,而且在某些情况下经常出错,因此在使用它们提供的信息时保持批判性思维至关重要。

正如这项研究所指出的,如果人工智能工具被引入工作流程,必须持续进行严格审查,以避免在处理大量数据时失去必要的批判性思维技能。

研究报告指出:“生成式人工智能工具在不断进化,知识工作者与这些技术互动的方式也可能随着时间的推移而改变。”也许这些人工智能工具的下一步是设置接管工作的门槛,更多依赖于人类创造力。或者说,我其实是希望如此。


文章标签: #人工智能 #微软 #研究 #认知 #工具

负责编辑

  菠萝老师先生 

  让你的每一个瞬间都充满意义地生活,因为在生命的尽头,衡量的不是你活了多少年,而是你如何度过这些年。