使用AI后为什么思考会变得困难?
使用AI后为什么思考会变得困难?
我总结了四篇近期的研究论文,来展示AI是如何以及为什么侵蚀我们的批判性思维能力。
作者使用AI制作的图像
前言:作者在这篇文章中,借AI技术的崛起,揭示了一场悄然发生的思想博弈。表面上,AI为我们带来了前所未有的效率与便捷,但在无形之中,我们也正在放弃一些至关重要的东西——独立思考的能力。这不仅是一场关于技能与工具的讨论,更是一场深刻的哲学思辨:当AI代替我们思考,我们究竟是在进步,还是在退化?这篇文章带着批判与自省,引导我们重新思考人与技术、效率与思维、依赖与成长之间的微妙关系。当AI日益融入生活与工作,你是否还记得,真正让我们成为“人”的那些能力?
看,我承认,我搞砸了。
AI输出有时会让人失望,但这是一条双向街道。是的,模型有时会产生幻觉,表现不好。但你的提示质量很重要——有时候我也懒得仔细想。被AI的便利性诱惑,我会匆忙完成任务,发送未经检查的邮件和发布未经审核的内容。
现在我尽力三重检查每一件事。但那些疲惫的时刻呢?几百万年的进化并没有让人类具备AI那种机械一致性。
微软的这项研究震撼了我,暗示着频繁使用AI正在积极地重塑我们的批判性思维模式。有些群体会比其他群体更容易承受这种变化的冲击。
一篇2023年的论文预见了这一点,强调了在AI时代将变得至关重要的两项技能。猜猜是什么?
批判性思维和科学。
不是编程,不是数据分析,甚至不是AI工程。但就是那种把战略思维和机械执行区分开来的基本人类能力。
在这篇文章中,我们将探讨Gen AI如何悄悄地重塑我们的认知格局,利用最新的研究来绘制这种转变的地图。但更重要的是,我们将直面那些没人谈论的二阶效应。
因为在我们这个以利润为中心的世界里,谁会去思考日益扩大的技能差距呢?商业老板们会优先考虑这个问题吗?还是我们正走向一个未来,在那里我们正侵蚀那些使我们成为人类的能力?
我们开始吧?
让你不可替代的技能
所以,我们已经确认了AI正在搅动一切。那么,这对你的工作、你的技能、你的未来意味着什么呢?
OpenAI和宾夕法尼亚大学的研究人员决定深入探讨这个问题,他们在论文中写道:《对LLM在劳动力市场潜在影响的初步研究》。
当然,他们不是凭空猜测的。他们拿到了一个庞大的工作数据库,并分析了这些工作中涉及的任务(叫做O*NET)。然后,他们让人类和GPT-4分别评价每个任务使用AI后能提高多少速度。
他们专注于评估单个任务,而不是整个工作。可以这样理解:即使AI不能写完整的报告,能否帮助你检查语法错误?
这张表格才是真正有趣(并且与我们今天的话题相关)。把它看作是一个备忘单,揭示了哪些技能会变得不那么有价值,哪些技能会在AI时代变成你的超能力。
我们来简单明了地解析一下:
想象这张表格中的数字是这样的(我们会关注“β”列,这是一个很好的中等估计值):
• 正数(比如写作的0.467):越依赖这种技能的任务,AI影响的可能性越大。
• 负数(比如科学的-0.230在β列):越依赖这种技能的工作,AI影响的可能性越小。这就像是说,“日常任务越需要科学推理,这个任务越不容易受到AI的直接影响。”
• 更大的数字(无论是正数还是负数,离0越远):表示这种技能对工作的重要性与AI对该工作的影响之间的关系越强,越可预测。
我们来看一些关键技能及其分数:
• 写作(0.467):大正数=巨大的红旗。涉及大量写作的任务很可能会受到AI的影响。比如内容创作、报告写作,或者撰写邮件,也就是你很可能已经交给AI做的任务。
• 编程(0.623):更大的正数!如果你的工作涉及编程,那么……你应该已经在用GitHub Copilot或Cursor了。你最了解这点。这并不意味着程序员会消失,我们会在下一个部分讨论这个问题。
• 批判性思维(-0.196):负数。需要批判性思维的工作——分析信息、做出判断、解决没有明确答案的复杂问题——较不容易受到AI的影响。正如我之前所说,AI可以生成文本,但它还不能真正思考。
• 科学(-0.230):另一个负数!依赖科学方法、实验和深厚领域专长的工作相对安全。AI可以帮助数据分析,但它无法取代思考的部分。
这并不是“高技能”与“低技能”任务的对比,而是那些使人类成为人类的技能。
而涉及例行、公事、重复性任务的技能,即使需要培训(比如基础编程或写作公式化报告),也最容易受到威胁。
然而,一种残酷的讽刺正在浮现。那些帮助我们更“聪明”工作的工具正在悄悄地侵蚀我们最宝贵的认知防线。
让我们来看看证据。
用AI效率换取脑力劳动
技能格局正在发生变化。
是的,批判性思维、科学推理和复杂问题解决正变成你在AI驱动的世界中的盔甲。 但这在实践中到底意味着什么?Gen AI是如何改变我们思维方式的?有哪些取舍?
在我们深入探讨之前,我希望你做个小实验。打开你最喜欢的AI工具——ChatGPT、Gemini、DeepSeek,或你使用的任何工具。给它这个提示(根据你的具体角色稍作调整):
“我需要分析[你的职位名称]角色的批判性思维要求。
首先,根据行业标准预期,生成一个该职位的典型日常和每周任务的完整列表。然后,分析每个任务,并根据它需要多少:
• 分析复杂信息
• 独立判断
• 在没有明确解决方案的情况下解决问题
• 战略决策
将输出格式化为CSV,包含以下列:
任务、批判性思维评分、理由
按批判性思维评分降序排序。”
去吧,我等你……
结果与你自己的评估一致吗?无论如何,这都是一份很好的清单。这次小练习凸显了我们即将探讨的核心困境:AI的双刃剑。
讽刺。AI正在剥夺批判性思维
ChatGPT发布已有两年。从那时起,研究实验室已经开始绘制一个令人担忧的取舍:效率与思维能力。
我分析了三项揭示这一模式的关键研究:
• 《生成性AI对批判性思维的影响:知识工作者的自我报告的认知努力和信心影响》(Lee等,微软研究)
• 《技能差距扩大:生成性AI对初学者程序员的利与弊》(Prather等)
• 《AI工具在社会中的影响:对认知卸载和批判性思维未来的影响》(Michael Gerlich) Gen AI工具无疑是强大的。
例如,“GPT是GPT”研究发现,LLMs可以在相同质量水平下,平均加快15%的工作任务。通过一些额外的辅助工具,这一比例提高到47%至56%的任务。这是一个巨大的提升!《AI工具在社会中的影响》论文也得出结论,AI提供了“更高的效率和前所未有的信息访问”。
但有一个问题。
一些研究揭示了一个紧迫的问题。 他们发现,AI工具使用和批判性思维技能之间有着强烈的负相关(-0.68)。也就是说,使用AI工具越频繁,涉及批判性思维的程度就越低。
“生成性AI对批判性思维的影响”总结时指出: 此外,尽管GenAI可以提高工作效率,但它可能会抑制与工作的批判性参与。它可能导致对工具的长期过度依赖,削弱独立解决问题的能力。
稍微反思一下:
• 你上次真正与一个问题“搏斗”是什么时候?那个你需要深呼吸,集中精力完成的问题。 • 你多久验证一次AI提供的信息?
这不仅仅是关于AI,而是我们对AI的过度依赖。
做得少,做得更好
忘掉机器人全面抢占工作的过时想法。
这种转变是微妙而深刻的。
这是一个正在以指数级速度发生的变化,与Gen-AI工具的采用率完美契合。但它的变化如此渐进,以至于我们很多人甚至没有察觉。我们正在不自觉地适应一种新的工作方式。
想想你的日常。
• 你是否花更多时间编辑AI生成的草稿,从邮件到报告?
• 你是否仍然从头开始构建报告,还是专注于完善AI的分析?
• 你是自己写每一行代码,还是验证Copilot的建议并将其集成到更大的项目中?
这并不是完全由自动化取代工人的问题。一项研究将其称为从“物质生产”到“关键整合”的转变。你的角色正在从创作者逐渐转变为管理者、验证者和AI生成内容的策展人。
AI可以生成文本;但它(目前)还无法运用那些真正让文本变得有效和相关的细微判断。
因此,批判性思维就显得尤为重要。它让你能够评估AI输出的质量,识别偏见,发现错误,并将这些输出整合到更广泛、更复杂的上下文中。
我重新排列了研究中提到的这些能力顺序,把它变成一个迷你框架,方便你对照自己的工作流程进行检查:
1、任务管理(Task Stewardship):很多人在这里犯了错。
问题:你在使用生成式AI时,是否经常带着清晰的目标?
你是否能清楚界定AI的局限,并知道什么时候该由你接管?
2、信息验证(Information Verification):
你是否能区分可靠信息和AI生成的幻觉信息?
3、结果整合(Response Integration):
你能多快、多准确地把一段AI生成的内容无缝融入到你的整体工作中?简单地复制粘贴是行不通的。你需要判断AI输出是否符合你的目标,然后对输出进行调整,使其贴合最终结果。
以软件开发者的角色为例。我去年写过一篇文章,探讨AI是否提升了开发者的生产力:
《AI代码助手提升26%的生产力?请看小字部分》。
结合这篇文章和“鸿沟扩大”(Widening Gap)研究的发现,大多数资深开发者都遵循了上述三个步骤。他们先理解架构以及任务在其中的位置;然后,他们使用生成式AI工具来完成一个小的具体工作;最后,他们将其整合到现有代码库中。
而使用生成式AI的新手程序员,则遇到了以下元认知困难:
1、干扰(Interruption):
AI不断提供建议,打断他们的思考流程。
2、误导(Mislead):
AI把他们带入错误的方向,提供了不正确或无用的代码。
3、进阶困境(Progression):
即使AI提供了一个能运行的解决方案,他们依然很难理解背后的原理。
所以你看,现在想找到一份未来可持续的工作,比以往任何时候都更具挑战。
但你又有多自信,自己并没有过度依赖AI?那些刚入行的人又如何?他们是否正在掉入陷阱?对AI的过度信任,加上缺乏经验,甚至还有一点人类的懒惰,正在共同加剧这个“鸿沟”。
研究已经开始看到这些裂缝了。
更多AI使用 = 更少思考?
隐藏在表面之下的一个危险:虚假的安全感。我们自以为很擅长使用AI,但实际上我们使用AI的效果远没有我们想象的那么好,这之间存在着危险的脱节。
所有这些研究揭示了一个令人不寒而栗的“信心悖论”:人们对AI能力越自信,越不愿意进行批判性思考。
两项独立研究中的数据表格,最能说明这个悖论。
请你想象一下,你正在驾驶一辆配备高度先进自动驾驶系统的汽车。这个系统几乎可以处理驾驶的所有环节。然而,最终负责的依然是你——驾驶员。我将这些“驾驶员”分为两类:一类是拥有强大批判性驾驶技能的人,另一类是批判性驾驶技能较弱的人。
表4:混合效应回归模型的非标准化系数 —— 生成式AI对批判性思维的影响
具备强批判性思维技能的驾驶员:
• 有经验且善于反思的驾驶员,即使有自动驾驶系统,依然会持续监控道路和系统的行为,随时准备接管。(0.52*,反思倾向)
• 自信且技术娴熟的驾驶员,即使使用自动驾驶,依然保持参与,一旦需要,他们随时准备接手。(0.26*,对自身能力的信心)
• 能准确判断自动驾驶何时可能出错的驾驶员,更可能主动介入并纠正。(0.31*,对评估能力的信心)
不具备强批判性思维技能的驾驶员:
• 那些过于信任自动驾驶并认为它能应对一切的驾驶员,更不可能保持警觉,因而可能错过关键错误。(-0.69*,对AI的信任)
同样,另一项研究的数据也证明了完全相同的现象。
继续沿用我们的“汽车与高级自动驾驶系统”的比喻。下表解释了驾驶员对自动驾驶的整体使用情况(AI工具使用),与他们在驾驶决策中对其依赖程度(认知卸载)之间的关系。
表5. 相关矩阵 — 社会中的AI工具
1、AI使用↑,认知卸载↑(r = 0.89):更多的自动驾驶使用,强烈导致对系统的更多依赖。因此,呈现出0.89的强正相关。
2、AI使用↑,批判性思维↓(r = -0.49):频繁使用自动驾驶,与核心驾驶技能的下降有关。-0.49的负相关反映了这一点。
总结:更多AI使用 → 认知卸载增加 → 批判性思维下降
也就是说,驾驶员对AI信任度越高,对道路的关注就越少。
我们乐于把思考外包出去,其实并不令人意外。我们正在让AI处理那些我们本可以自己完成,却主动选择不做的任务。如果AI是GPS,你是在学习路线,还是只是机械地听从每一个导航指示?
生成式AI如何加剧技能差距?
事实证明,“经验”比以往任何时候都更加重要,而这也正是“鸿沟不断扩大”的根源之一。
当然,这并不是说有经验就一定没问题,你仍然需要具备批判性思维。
想象一下,你刚毕业,拿到人生中的第一份工作,满怀热情,迫不及待想要证明自己。
但与此同时,你的经验还很欠缺。而你的资深同事们,则早已身经百战。
他们见过顺利推进的项目,更重要的是,他们也见过“惨案现场”,并且熬夜收拾过烂摊子(当然,不是真的现场清理)。因此,资深人士往往会培养出一种“直觉”——什么行得通,什么行不通。
这正是Marvin Minsky所说的“负面专业知识(negative expertise)”,这种直觉极其宝贵。
现在,把生成式AI也放进这个场景里。
对于有经验的员工来说,生成式AI的潜力是指数级的。他们用它来加速那些自己本就熟练掌握的任务。当AI开始“脱轨”时,他们能迅速察觉,因为他们具备“负面专业知识”——他们以前见过类似的错误。
但对新手来说,生成式AI却像雷区。他们可能过度依赖AI,无条件接受AI的建议,而对背后的原理缺乏真正的理解。这些新手更容易陷入“漂移(drifting)”,正如“鸿沟扩大”研究中所描述的那样——不断在AI的建议之间来回切换,却几乎没有真正的进展。
他们缺乏一套完整的思维模型或框架,来有效地引导AI为自己所用。
研究人员观察到,许多使用生成式AI工具的新手程序员都表现出了“元认知困难(metacognitive difficulties)”——这个专业术语的意思其实很简单:他们很难意识到自己在如何思考**,缺乏“思考自己的思考”的能力。这些新手程序员具体表现为:
• 被打断:AI持续弹出的建议不断分散他们的注意力,严重干扰思路。
一名参与者说:“这些提示有时候真的很烦”,
还有人说:“我正想个东西……算了,等下,这个是什么?”
• 被误导:AI提供的错误或无用建议,把他们引向了错误的方向。
• 困在循环里:他们无法理解AI生成的代码为什么能运行(或者为什么不能运行),
这暴露了他们基础知识薄弱的问题。
这些新手并非真的懒惰,他们往往是真的想学。但由于缺乏经验,他们很难有效地筛选和整合AI的输出。
很多使用AI却苦苦挣扎的程序员,以为自己理解了代码,即便代码是错的,他们依然觉得自己“掌握得不错”。AI的帮助给了他们虚假的信心,反而让他们更难意识到自己正在犯错。
教育鸿沟(补充说明):
这不仅仅是工作年限的问题,教育水平也起到了关键作用。一项研究发现,受教育程度更高的参与者,更倾向于交叉核对AI生成的信息。
受过更高教育的人通常更具怀疑精神,因此更容易运用批判性思维。这意味着,正式教育强调的分析和评估能力,或许能为人们提供一定程度的防护,防止对AI的过度依赖。
社会中某些群体被“去技能化”(deskilling)的风险,已经成为真实的隐忧。如果他们无法建立起扎实的基础知识和批判性思维能力,未来他们想要成功将变得越来越难。
拯救你自己,不要在梦游中走向未来
我已经给你描述了一个迫在眉睫的威胁:AI驱动的高效正在侵蚀你的批判性思维。
然而,真正的问题不是这件事是否正在发生,而是——你现在所处的位置,以及这种趋势会带来什么样的后果。
这不是某种抽象的学术争论(尽管我引用了不少研究)。
这是一个正在你我职业生涯中逐步裂开的深渊。
“轻松工作”悖论
你可能已经同意批判性思维的重要性,但现实是:很多岗位并不会直接奖励这种能力。
无论你是开发、市场、客服,还是其他岗位,是的,有些人在自己的职位上堪称战略天才。但更多的人只是按照流程操作,执行任务,依赖既有框架。
如果你的雇主现在已经乐意让AI完成你80%的任务,而你只负责“监督”,那么,无论是对你自己,还是对你的雇主来说,还有什么动力去培养你的批判性思维能力?
激励错位(这是我最担心的)
当你因为依赖AI提升效率而逐渐丧失批判性思维时,你的公司真的会投资资源来帮你重新掌握它吗?
天啊,我当然见过企业里的“技能提升”项目。资源分配极度不均,质量也参差不齐。
或者,公司会不会发现:直接从那群越来越少的批判性思考者里挖人更便宜、更快捷、更省事?然后让剩下的人自己摸索?我是个现实主义者。利润永远优先于长期员工培养,这就是商业法则。
批判性思维,真的能“培训”出来吗?
理论上是有框架可用的,没错。
但如果你把自己定义为一个批判性思考者,我希望你认真思考这个问题:
你的批判性思维是从公司培训课上学到的吗?还是来源于你亲身经历的那些混乱局面,来源于你用科学方法一点点摸索出来的经验?这些东西,真的能在一个2小时的Zoom会议或1天的工作坊里复制出来吗?
对我个人而言,我的批判性思维来源于:我的STEM教育背景,我作为技术人的职业经历,以及那些跟伴侣一起熬夜讨论战略的夜晚。
教育的回声
高等教育似乎与更强的批判性思维能力存在某种相关性。
但这是教育本身带来的,还是因为本来能接受高等教育的人就具备更强的思辨能力?
而且,STEM背景的人,是否真的更有优势?如果答案是肯定的,其他人应该怎么做才能缩小这种差距?
“经验”错觉
是的,经验很重要,特别是那种“负面专业知识”——知道什么是行不通的。
但如果你的经验来自一个长期压制批判性思维的岗位呢?如果你多年只是在按部就班执行别人制定的流程,把分析工作都交给AI,那这样的“经验”,并不会自动把你变成一个批判性思考者。“经验”本身不是你的护身符,重要的是你经历的是什么样的经验。
我希望你重新审视自己的“经验”。
最后的思考
再强调一次,我并不反对AI。我支持技术进步。
但我对批判性思维和深入研究有太多热爱,绝不会允许AI把它们从我手里夺走。
如果有一天,我失去了独立思考的能力,那么活着还有什么意义?
你是在梦游着走向未来,还是愿意掌控自己的命运?当我们停止批判性思考时,这对我们的大脑会产生什么长期影响?如果你跟我一样在意这些,那你打算怎么保持自己的思维敏锐度?
希望我的这些问题,能让你看到这场技术革命背后那些意想不到的后果。别等到那个深渊宽得没人能跨过去才惊醒。
说到底,没有人会替你思考,也没有人会替你走这条路。