苏格拉底并不是文字的忠实粉丝。这位伟大的哲学家以不给后人留下任何文字而闻名,据说他相信对书写的依赖会破坏记忆并削弱心灵。
大约 2400 年后,苏格拉底的担心似乎是多余的——特别是有证据表明写下来可以改善记忆形成。但他对认知技术更广泛的不信任依然存在。越来越多的心理学家、神经科学家和哲学家担心 ChatGPT 和类似的生成式人工智能工具会削弱我们的信息回忆能力并削弱我们清晰推理的能力。
更重要的是,虽然苏格拉底依靠巧妙的修辞来提出他的论点,但这些研究人员的论点是以经验数据为基础的。他们的研究发现,有证据表明,即使是训练有素的专业人士在使用生成式人工智能时也会失去批判性思维能力,并表明在学习过程中过度依赖这些人工智能工具会降低大脑的连通性,并使信息变得不那么令人难忘。因此,毫不奇怪,当我问谷歌的 Gemini 聊天机器人时,人工智能工具是否正在将我们的大脑变成果冻,将我们的记忆变成筛子,它承认可能是这样。至少,我认为是这样:我现在不太记得了。
但一切并没有失去。许多研究人员怀疑我们可以扭转这种说法,将生成式人工智能变成一种提高我们认知能力和增强智力的工具。 “人工智能不一定会让我们变得愚蠢,但我们可能会愚蠢地与之互动,”劳伦·里士满说 在纽约石溪大学。那么,我们的生成式人工智能工具出了什么问题呢?我们如何改变习惯以更好地利用技术?
生成式人工智能时代
近年来,生成式人工智能已经深深融入我们的生活。治疗师用它来寻找模式 在他们的笔记中。学生依靠它来写作论文。它甚至受到了一些媒体机构的欢迎,据报道,这可能就是财经新闻网站 Business Insider 现在允许其记者使用人工智能的原因 起草故事时。
从某种意义上说,所有这些人工智能用户都遵循着数千年的“认知卸载”传统——使用工具或身体动作来减轻精神负担。我们许多人在日常生活中都使用这种策略。每当我们写下购物清单而不是记住要购买哪些物品时,我们都在使用认知卸载。
里士满说,以这种方式使用,认知卸载可以帮助我们提高准确性和效率,同时释放大脑空间来处理更复杂的认知任务,例如解决问题。但在今年早些时候里士满与她的石溪同事瑞安·泰勒 (Ryan Taylor) 发表的对行为的评论中,她发现这对我们的认知也有负面影响。
“当你卸载某些东西时,你几乎会在心里删除它,”里士满说。 “想象一下,你列了一份购物清单,但你没有随身携带它。实际上,你的情况比你只是计划记住在商店需要购买的物品还要糟糕。”
研究证实了这一点。举个例子,2018 年发表的一项研究表明,当我们给参观博物馆时看到的物品拍照时,我们对参观后展出的物品的记忆力会更差:我们下意识地赋予手机记住展示物品的任务。
这可能会造成一个螺旋,我们卸载的东西越多,我们使用大脑的次数就越少,这反过来又会让我们卸载更多的东西。安迪·克拉克 (Andy Clark) 表示:“卸载会引发卸载——这种情况是有可能发生的。”,英国苏塞克斯大学哲学家。 1998 年,克拉克和他的同事大卫·查默斯 – 现于纽约大学 – 提出扩展思维论文,它认为我们的思想通过购物清单和相册等物体延伸到物理世界。克拉克并不认为这本质上是好还是坏——尽管他担心,当我们通过生成人工智能和其他在线服务扩展到网络空间时,如果这些服务因断电或网络攻击而变得不可用,我们就会让自己变得脆弱。
认知卸载也可能使我们的记忆更容易受到操纵。在 2019 年的一项研究中,加拿大滑铁卢大学的研究人员向志愿者提供了一系列需要记忆的单词,并让他们输入单词来帮助记忆。研究人员发现,当他们偷偷地在键入的列表中添加一个流氓单词时,志愿者们非常确信这个流氓词实际上一直在名单上。
每当我们写购物清单时,我们都会在认知上减轻负担
米哈伊尔·鲁登科/阿拉米
正如我们所看到的,对认知卸载危害的担忧至少可以追溯到苏格拉底时期。但生成式人工智能让它们变得更加强大。在今年在线发布的一项研究中,Shiri Melumad 和尹振浩 宾夕法尼亚大学要求 1100 名志愿者在使用标准网络搜索或 ChatGPT 研究该主题后写一篇短文,提供有关种植菜园的建议。如果文章是由使用 ChatGPT 的志愿者撰写的,那么最终的文章往往会更短,并且包含的事实参考也会更少,研究人员将其解释为人工智能工具使学习过程变得更加被动的证据 ——由此产生的理解更加肤浅。 Melumad 和 Yun 认为这是因为人工智能为我们综合信息。换句话说,我们在认知上放弃了自己探索和发现某个主题的机会。
滑动能力
最新的神经科学正在加剧这些恐惧。在论文详细的实验中 今年夏天发布的待审同行评审,Nataliya Kos’myna 在麻省理工学院,她和她的同事使用脑电图头帽测量了 54 名志愿者的大脑活动,因为他们正在撰写诸如“真正的忠诚需要无条件支持吗?”等主题的论文。以及“选择太多会带来问题吗?”。一些参与者仅使用自己的知识和经验来撰写论文,第二组的参与者可以使用 Google 搜索引擎来探索论文主题,第三组可以使用 ChatGPT。
研究小组发现,使用 ChatGPT 的小组在执行任务期间大脑连接性较低,而仅依靠自己的知识的小组则得分最高。与此同时,浏览器群体则介于两者之间。
“使用这个几乎可以做所有事情的工具肯定存在危险。而且这可能会产生认知成本,”Kos’myna 说。
批评者可能会争辩说,大脑活动的减少不一定表明缺乏对某项活动的认知参与,科斯米纳也承认这一点。 “但关注行为指标也很重要,”她说。例如,当后来对志愿者进行测验时,她和她的同事发现 ChatGPT 用户发现引用他们的文章更困难,这表明他们在写作过程中没有投入那么多。
还有新出现的(如果是暂时的)证据表明,大量使用生成式人工智能与较差的批判性思维之间存在联系。例如,迈克尔·格里希 SBS 瑞士商学院今年早些时候发表了一项研究,评估了 666 名来自不同背景的人的人工智能习惯和批判性思维技能。
Gerlich 使用结构化问卷和深度访谈来量化参与者的批判性思维技能,结果显示,17 岁至 25 岁之间的参与者的批判性思维得分比 46 岁以上的参与者低约 45%。
当我们使用相机时,我们对所看到的事物的记忆较少
格热戈日·恰普斯基/阿拉米
“这些 [younger] “人们还报告说,他们越来越依赖人工智能。”Gerlich 说:与年长的参与者相比,他们表示依赖人工智能工具的可能性高出 40% 到 45%。综合起来,Gerlich 认为这两项发现表明,过度依赖人工智能会降低批判性思维技能。
其他人则强调,现在得出任何确切的结论还为时过早,特别是因为格里希的研究显示了相关性而不是因果关系,并且考虑到一些研究表明青少年的批判性思维能力本质上不发达。。 “我们还没有证据,”亚伦·弗伦奇说 在佐治亚州肯尼索州立大学。
但其他研究表明,生成式人工智能工具和批判性思维之间的联系可能是真实的。在微软和宾夕法尼亚州卡内基梅隆大学的一个团队今年早些时候发表的一项研究中,319 名“知识工作者”(科学家、软件开发人员、经理和顾问)被询问了他们在生成人工智能方面的经验。研究人员发现,对这项技术表现出较高信心的人坦率地承认,在使用该技术时,他们的批判性思维较少。这与格尔利希的怀疑相符,即过度依赖人工智能工具会给人们带来一定程度的“认知懒惰”。
也许最令人担忧的是,生成式人工智能工具甚至可能会影响那些不经常使用这些工具的人的行为。在今年早些时候发表的一项研究中,Zachary Wojtowicz 和西蒙·德迪奥 当时他们都在卡内基梅隆大学,尽管沃伊托维奇后来转到了麻省理工学院。他们认为,我们已经学会重视某些行为所付出的努力,比如为了修复社会关系而精心设计一个深思熟虑和真诚的道歉。如果我们无法摆脱这样的怀疑,即有人将这些认知上棘手的任务转移给了人工智能——比如让技术代表他们起草道歉——我们可能不太愿意相信他们是真诚的。
明智地使用工具
避免所有这些问题的一种方法是重置我们与生成式人工智能工具的关系,以增强而不是削弱认知参与的方式使用它们。这并不像听起来那么容易。在一项新的研究中,格里希发现,即使是那些以其批判性思维能力而自豪的志愿者,在使用生成式人工智能工具时也容易陷入懒惰的认知习惯。 “一旦他们在没有指导的情况下使用生成式人工智能,他们中的大多数人就会直接放弃,”格里希说。
然而,当有指导时,情况就不同了。 Kos’myna 和她的同事的补充工作提供了一个很好的例子。他们要求仅使用自己的知识撰写论文的志愿者撰写同一篇论文的第二个版本,这次使用 ChatGPT 来帮助他们。脑电图数据显示,这些志愿者即使在使用人工智能工具时也保持了较高的大脑连接性。
记下笔记会让我们容易受到记忆操纵的影响
凯尔·格伦/Unsplash
克拉克认为这很重要。 “如果人们思考 [a given subject] 在使用人工智能之前,他们自己独立思考,这对他们后续论文的兴趣、原创性和结构产生了巨大的影响,”他说。
弗伦奇也看到了这种方法的好处。在他去年与已故同事 JP Shim 发表的一篇论文中,他认为思考生成人工智能的正确方法是作为一种工具来增强你对特定主题的现有理解。与此同时,错误的方法是将工具视为一种方便的捷径,取代了您发展或保持任何理解的需要。
那么正确使用人工智能的秘诀是什么呢?克拉克建议我们首先应该少一点信任:“像对待一个有时有好主意但有时完全偏离轨道的同事一样对待它,”他说。他还认为,在使用生成式人工智能工具之前思考得越多,他所说的“混合认知”就会越好。
话虽如此,克拉克表示,有时在认知上有点懒惰是“安全的”。如果您需要汇集大量公开信息,您可能可以信任人工智能来做到这一点,尽管您仍然应该仔细检查其结果。
Gerlich 同意有很多使用人工智能的好方法。他说,重要的是要意识到“锚定效应”——一种认知偏差,使我们在做出决策时严重依赖我们获得的第一条信息。 “你第一次收到的信息会对你的想法产生巨大的影响,”他说。这意味着,即使你认为你正在以正确的方式使用人工智能——批判性地评估它为你产生的答案——你仍然可能会受到人工智能最初告诉你的内容的指导,这可能成为真正原创思维的障碍。
但格尔利希说,您也可以使用一些策略来避免这个问题。如果你正在写一篇关于法国大革命对社会的负面影响的文章,不要向人工智能询问这些负面后果的例子。 “让它告诉你有关法国大革命和其他革命的事实。然后寻找负面因素并做出你自己的解释,”他说。最后阶段可能涉及与人工智能分享你的解释,并要求它找出你理解中的任何差距,或者提出反驳的建议。
这可能更容易或更难,具体取决于您是谁。为了最有效地使用人工智能,你应该了解自己的优势和劣势。里士满说,例如,如果你正在经历认知能力下降,那么卸载可能会带来好处。个性也可能发挥作用。如果你喜欢思考,最好使用人工智能来挑战你对某个主题的理解,而不是要求它用勺子喂你事实。
其中一些建议可能看起来像是常识。但克拉克表示,重要的是让尽可能多的人意识到这一点,原因很简单:如果我们中有更多人以深思熟虑的方式使用生成式人工智能,我们实际上可能有助于保持这些工具的锋利。
他说,如果我们期望生成式人工智能为我们提供所有答案,那么我们自己生产的原创内容最终会减少。最终,这意味着为这些工具提供动力的大型语言模型(LLM)——使用人类生成的数据进行训练——的能力将开始下降。 “你开始面临一些人所说的模型崩溃的危险,”他说:法学硕士被迫进入反馈循环,他们接受自己内容的培训,他们提供创造性、高质量答案的能力下降。 “确保我们继续写出新的、有趣的东西,这符合我们真正的既得利益,”克拉克说。
换句话说,生成式人工智能的错误使用可能是一条双向路。新兴研究表明,对人工智能让我们变得愚蠢的担忧是有一定道理的,但过度使用人工智能的做法也有可能让人工智能工具变得愚蠢。
主题:
- 心理学/
- 人工智能






