本文来自微信公众号: 不懂经 ,作者:不懂经也叔的 Rust,原文标题:《AI 时代的张文宏悖论:为什么越用 AI,越觉得自己不值钱了?》,题图来自:视觉中国
前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月 10 日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把 AI 引入医院病历系统。”
因为,未经系统性训练的 AI,会从根本上改变医生的培训路径,破坏或损害年轻医生需要通过传统训练才能掌握的独立诊断能力。
张文宏解释说,他自己当然用 AI,让 AI 先过一遍病例。但关键是,以他三十多年的临床经验,他一眼就能看出 AI 哪里错了。
问题在于年轻医生。
如果一个医生从实习阶段就开始依赖 AI 给诊断结论,跳过了完整的临床思维训练,那他将永远丧失一项关键能力:鉴别 AI 对错的能力。
张文宏的这番话,从一个普通 AI 用户的角度,道破了一个被普遍误解的现实,关于 AI 时代的技能和杠杆。
过去一两年,我看到一种奇特的“群体性焦虑”。
有意思的是,这种焦虑不是来自那些不懂技术的人,恰恰相反,它更多来自那些已经熟练使用 AI 的精英群体:程序员、律师、分析师、自媒体人。
大家最初都兴奋地以为,AI 会让自己成为超人。但短暂的效率狂欢之后,很多人陷入了一种更深的无力感:
当 AI 能以零成本完成 80%的工作时,我剩下那 20%的价值,到底能不能撑起我的职业尊严?
如果一个 AI 可以几分钟搞定我两周的代码;如果大模型能秒出一份完美的尽调报告;如果 gemini 或豆包能让毫无绘画基础的人产出大师级作品,如果 gpt 能够“准确”阅读体检报告或检查报告,那人类技能的护城河,究竟还在哪里?
之前,大西洋月刊曾经发表过一篇文章,说我们正在进入一个去技能化的时代;但硬币的另一面恰恰是:AI 并没有让技能变得无用,它引发的是一场剧烈的“技能通胀”。只是技能要被重新定义。
在一个执行成本趋近于零的时代,AI 就是一面照妖镜。它放大的不仅是你的效率,更是你认知的颗粒度或精度。
你感到“废了”,可能是因为 AI 无情地暴露了一个事实:过去你引以为傲的工作,大部分只是在“搬砖”,是执行,是“听话照做”,而不是在“思考”,更不是提出问题和解决问题。
21 世纪的技能真相,不再关乎你手里有多少工具,而关乎你脑子里有多少原本的真实的杠杆。“宏观把控+微观验证”的综合能力,才是 AI 时代真正的铁饭碗。
一、张文宏悖论:0的 10 倍还是 0
硅谷有一个广为流传的观点,但常常被误读。
人们说:“AI 是生产力的 10 倍放大器。”
这句话的数学含义,比字面意思更冷酷。
如果你现在的能力是 1,AI 让你变成 10;如果你是 10,AI 让你变成 100。但如果你对某个领域的底层理解是 0,那么,0 乘以 10,依然是 0。
这正是张文宏担忧的核心:一个从实习阶段就依赖 AI 的年轻医生,他的临床判断力可能就是 0。AI 再强大,0 乘以任何数,结果还是 0。
更可怕的是,这个“0”自己还不知道自己是 0。
张文宏说得很直白:“新手医生不能只会依靠 AI 看病。”为什么?因为即使 AI 准确率高达 95%,那 5%的错误也需要由专业医生来识别和纠正。
如果医生根本不具备独立诊断能力,他怎么发现 AI 的错误?怎么处理 AI 搞不定的疑难杂症?
这就是我说的“张文宏悖论”,某种层面上,它是个先有鸡还是先有蛋的问题。但另外一个层面上,它强调的是,是人在用工具,还是工具在用人。
它揭示了 AI 时代技能的第一层真相:
AI 的本质是“概率的拟合”,而人类的价值在于“后果的承担”。
过去我们说的技能,往往指的是熟练的执行,熟记语法、背诵法条、掌握各种快捷键。但在 AI 时代,这些硬技能迅速贬值,变成了基础设施。
取而代之的,是一种更隐蔽、更稀缺的能力:判断力。而所谓判断力,就是知晓自己行为的长远后果。
试想一个场景:一位资深工程师和一位新手同时用 AI 写代码。
新手得到的只是代码块。他无法判断这段代码有没有架构隐患,无法预知它在极端并发下的表现,甚至不知道这是不是一个“死胡同”式的解决方案。
而资深工程师看到的不是代码,是路径。他知道该给 AI 什么任务,知道如何验收结果,更知道当 AI 犯错时该在哪个环节修正,而 AI 一定会犯错。
对于新手,AI 是个黑盒,只能祈祷它输出正确答案。 对于专家,AI 是个无限精力的实习生团队,指哪打哪。
于是,未来的专家与普通人的分野,在于你是否具备“验证 AI 输出”的能力。
张文宏能一眼看出 AI 的诊断错在哪里,靠的不是什么神秘直觉,而是三十多年临床经验积累出的“元能力”。这种能力,恰恰是被 AI 跳过训练的年轻医生最缺乏的。
所以,如果没有深厚的专业知识作为压舱石,AI 带来的不是效率,而是昂贵的混乱。
二、为什么你的提示词总是“差点意思”?
为什么有的人能用 AI 解决复杂问题,有的人只能把它当聊天机器人?
问题不在于你不会写“咒语”,而在于你思维的熵值太高。
最近有一种很值得警惕的现象:人们开始把思考本身外包给 AI。
遇到问题,不做拆解,直接把一团浆糊似的需求扔给模型,然后对着平庸的输出发火:“这 AI 根本就没用。”
其实,不是 AI 蠢,是你没想清楚。
AI 模型再先进,本质上也是基于“上下文”的预测机器。它的输出质量,严格受限于你输入的上下文质量。这就是“Garbage In, Garbage Out”(垃圾进,垃圾出)的现代版。
21 世纪的顶级技能,变成了“清晰的表达”和“结构化思维”。
真正的高手在打开对话框之前,脑子里已经完成了一场严密的推演:
1.定义问题:我到底要解决什么核心矛盾?
2.拆解逻辑:这个大问题由哪几个子任务构成?依赖关系是什么?
3.设定标准:什么样的结果才算合格?
比如,在让 AI 协助开发一个功能前,你是否已经厘清了数据流向?在让 AI 写一篇文章前,你是否已经构建了独特的观点框架?
别指望 AI 替你完成“从 0到 1”的思考。
AI 擅长的,其实是填充血肉(从 1到 100),但那个“1”,那个核心的洞察、逻辑的骨架,必须由你提供。
如果你无法清晰地向人类同事阐述你的想法,你也绝不可能从 AI 那里得到满意的结果。
清晰的写作就是清晰的思考。
未来,用自然语言编程将是通用技能。但这不意味着编程变简单了,而是意味着语言和逻辑的精度成为了新的代码。
如果你的思维是混乱的,AI 只会高效率地放大这种混乱。
三、走出信息茧房:比 99%的人更接近本质
既然 AI 是基于人类已有的海量数据训练出来的,它天生就带有一个巨大的缺陷:平庸的共识,即向均值回归。
你问 AI 关于健康、理财或历史的观点,它大概率给你一个“教科书式”的回答。这些回答安全、正确,但往往极其平庸,因为它们只是重复了互联网上出现频率最高的信息。
这就引出了第三个维度:去伪存真的洞察力。
知识(Knowledge)和理解(Understanding)是两码事。
- 知识是你知道“应该这样做”;
- 理解是你明白“为什么要这样做,以及什么时候不该这样做”。
这正是张文宏和年轻医生之间的根本差距。
年轻医生通过 AI 可以瞬间获得“知识”,如诊断结果、用药建议、治疗方案。但张文宏拥有的是“理解”:他知道这些知识的边界在哪里,什么情况下要打破常规,什么时候 AI 给的“标准答案”是错的。
在这个信息过载的时代,如果你只是通过填鸭式教育和算法推荐获取信息,你本质上只是在一个巨大的“回声室”里机械复述。你并不真正理解事物的运作机制。
要比 AI 更聪明,我们需要比 99%的人更接近事物的本质(第一性原理)。
- 想理解商业?不要只看畅销书和公众号,去研究现金流、杠杆、供需关系和人性的贪婪。
- 想理解健康?不要只信所谓的权威指南,去研究代谢、激素、炎症反应的生物学机制。
当 AI 给你一个“标准化建议”时,只有那些真正理解底层系统运作的人,才能敏锐地发现其中的漏洞,或者在特殊情境下果断推翻 AI 的建议。
就像张文宏说的:会不会被 AI 误导,取决于你自身的能力有没有强过 AI。而你没办法和 AI 比知识,只能比理解。
未来的竞争优势,属于那些敢于质疑“训练数据”的人。你需要建立自己的认知体系,这套体系不是抄来的,而是你通过实践、通过痛苦的反馈循环、通过独立思考亲自验证过的。
AI 是全人类知识的平均值。如果你想超越平均值,你就不能只依赖 AI,你必须拥有 AI 无法通过统计概率得出的独到见解。
四、执行价值归零之后:从干活的到验收的
把视线拉长,历史虽然不会重复,但总是押韵。
1980 年代,电脑的普及曾让当时的会计和律师恐慌不已。在此之前,律师为了寻找一个判例,需要在堆积如山的卷宗中翻找数日。电子检索技术的出现,让这项工作瞬间变成了几秒钟。
律师失业了吗?没有。相反,法律行业变得更庞大、更复杂了。
因为检索变得容易,客户对律师的期望也随之提高。人们不再为“找到判例”付费,而是为“基于复杂判例构建独特的辩护策略”付费。
同理,当 AI 接管了代码编写、文案生成、基础诊断之后,人类的角色正在发生本质的跃迁:
我们正在从“手艺人”进化为“指挥官”;从“干活的”升级到“验收的”。
过去,一个优秀的工程师可能需要 50%的时间写代码,50%的时间思考架构。现在,他可以用 90%的时间去思考架构、理解业务、优化体验,而把代码工作交给 AI(并由他来审核)。
这意味着,工作的复杂度上限被打开了。
独立开发者现在可以一个人运行一家原本需要十人团队的公司;一个懂行的自媒体人可以一天产出过去一周的内容量;一个资深医生(如张文宏)可以在 AI 的辅助下处理过去根本不可能的病例量。
这就是 AI 时代“技能”的新定义:
它不再是单一维度的“专精”,而是一种跨维度的整合能力。
你不需要亲自砌每一块砖,但你必须知道大楼的力学结构,必须有审美能力来决定大楼的外观,必须有商业头脑来决定大楼建在哪里最值钱。
这种“宏观把控+微观验证”的综合能力,才是 AI 时代真正的铁饭碗。
张文宏强调的两大关键能力,本质上就是这个意思:
1.判断 AI 诊断的准确性(微观验证)
2.诊治 AI 无法应对的疑难杂症(宏观把控)
没有这两项能力的医生,只能算是“AI 的操作员”。
结语:只有升维,才能享受降维打击的快感
回到开头谈到的那个现象:为什么越用 AI,越觉得自己废了?
因为 AI 剥夺了你通过“苦力”获得成就感的权利。
以前,你花三天时间整理出一份精美的报告,会觉得自己很有价值;现在,AI 三秒钟就能做出来,这种虚幻的价值感瞬间崩塌。
这确实让人痛苦,但更是一种觉醒。
AI 逼迫我们直面那个最难的问题:除了机械的执行,我真正的思想价值在哪里?
对于那些不愿意思考的人,这是一个最坏的时代。他们将彻底沦为算法的附庸,甚至无法察觉自己正在被平庸的信息茧房吞噬。
但对于那些充满好奇心、拥有独立思考能力、渴望探究事物本质的人,这是人类历史上最好的时代:
- 所有的门槛都降低了。
- 所有的天花板都消失了。
- 你拥有了人类历史上最强大的智囊团和执行队,24 小时待命。
张文宏不是反对 AI,他反对的是跳过底层能力建设直接使用 AI,把思考和元认知外包给 AI。
他自己用 AI 用得飞起,因为他有三十年的内功作为地基。AI 对他来说是如虎添翼;而对于没有内功的年轻医生,AI 可能是拔苗助长,饮鸩止渴。
在 21 世纪,技能不会消失,但它会经历一次残酷的提纯。
不要试图和 AI 比赛“做题”,要去和 AI 比赛“出题”。
当你不再把 AI 当作一个帮你偷懒的工具,而是把它当作一个需要你用极高智商去驾驭、去指引、去纠错的超级杠杆时,
你通过 AI 看到的,就不再是平庸的自己,而是一个被无限放大的、强悍的超级个体。
免责声明:本文提供的信息不是交易建议。BlockWeeks.com不对根据本文提供的信息所做的任何投资承担责任。我们强烈建议在做出任何投资决策之前进行独立研究或咨询合格的专业人士。