本文整理自 Machine Learning Street Talk 播客对深度学习奠基人杰瑞米·霍华德(Jeremy Howard)的深度访谈。当整个科技圈都在为 Vibe Coding 欢呼时,这位 Kaggle 天才却发出了截然不同的声音——他直言这种方式"让他感到恶心,甚至是反人类的"。这不是对 AI 技术的反对,而是对人类认知未来的深切担忧。
序章:被狂热掩盖的真相
2025 年,安德烈·卡帕西(Andrej Karpathy)提出了 Vibe Coding 的概念。仅仅一年时间,整个科技圈就陷入了狂热。
社交媒体上,非技术人员吹嘘自己一天能开发十个应用。彼得·斯坦伯格用 Vibe Coding 写出了现象级软件 OpenClaw。甚至有声音开始宣布:“软件工程师这个职业,即将被扫进历史的垃圾堆。”
当所有人都在欢呼时,有一个人发出了不同的声音。
他就是杰瑞米·霍华德(Jeremy Howard)——深度学习的奠基者之一,Kaggle 的前总裁兼首席科学家,世界顶级的机器学习思想家。 他对 Vibe Coding 的评价出奇地严苛:
“这真的让我感到恶心,甚至是反人类的。”
这不是一个愤怒的反对派的胡言乱语。霍华德有资格说这些话——因为他本人就是大模型微调范式的开创者。
第一部分:理解霍华德的思想根源
ULMFit:改写 NLP 历史的里程碑
2018 年,霍华德与塞巴斯蒂安·鲁德(Sebastian Ruder)共同提出了 ULMFit——一项革命性的研究,直接打破了当时"语言模型无法微调"的行业铁律。
这项研究不仅改写了 NLP 的发展轨迹,更直接启发了后来的 BERT 和 GPT 系列,拉开了预训练大模型的序幕。
但 ULMFit 的精妙之处并不在于它的规模有多大,而在于它的思想有多深刻。
三阶段架构:被低估的精妙设计
ULMFit 提出的"三阶段架构"看似简单,实际上体现了霍华德对学习过程的深刻理解——某种意义上,这就是人类学习的方式:
- 预训练 — 在通用语料库(维基百科)中学习预测下一个词,建立对世界的基础认知
- 领域微调 — 在特定领域(如电影评论)的语料库中进行一小时的微调
- 下游任务微调 — 仅用几分钟完成分类器的微调
当时的"专业做法"是针对每个具体任务从零开始训练完整的大模型,耗费数周甚至数月。但霍华德证明了:通过正确的迁移学习策略,你可以用一台 2080 Ti 显卡在 8 小时内完成任务,用几分钟微调就能达到 SOTA 水准。
这背后的核心是正则化——与其通过缩小模型的范围来限制它,不如用增加约束的方式来规范它,让模型既保持灵活又能具备可控性。
这一点至关重要,因为这恰恰是 Vibe Coding 所完全缺失的。
第二部分:Vibe Coding 的三宗罪
第一宗罪:控制的幻觉
在霍华德看来,Vibe Coding 最致命的问题就像一台老虎机。
你可以精心雕琢提示词,列出长长的模型上下文,标注各种技能要求——看似充满掌控力。但本质上,你还是在按下回车的那一刻祈祷生成的代码能跑通。
老虎机玩家会告诉自己:“我有策略,再转一次就赢了。” Vibe Coding 的使用者会告诉自己:“我有技巧,再改一次提示词,bug 就消失了。”
但最终的结果完全相同:要么吐出金币,要么空奖;要么吐出能跑的代码,要么吐出毫无意义的乱码。
而真正的赢家,从来都不是使用者,而是老虎机的运营方——或者说,是生成代码的 AI。这就是**“控制的幻觉"的本质。**
第二宗罪:“代码黑盒"的致命风险
霍华德抛出了一个终极问题:
你愿意把公司的产品押注在一段自己完全看不懂的代码上吗?
答案显然是否定的。
当没有人经历过代码的构建过程时,维护、优化、甚至基础的软件工程实践就都成了空谈。一个 bug 可能隐藏在某个你从未见过的模型参数中。安全漏洞可能来自你无法追踪的地方。性能瓶颈可能永远无法被优化。
更致命的是:当代码本身就是一个黑盒时,你永远无法真正理解系统。
第三宗罪:扼杀认知成长
这是霍华德最深切的担忧。
他举了一个医学 AI 的例子来说明 AI 的正确用法。在他创办的 Enlitic 医学 AI 公司中,AI 的角色是:
- 自动化低价值任务 — 精准识别肺部 CT 扫描中的所有候选结节
- 解放专家的注意力 — 让医生专注于核心判断:这些结节是良性还是恶性?
结果是什么?医生的能力不仅没有退化,反而变得更强了。 因为 AI 去除了低价值的噪音,让专业能力得到了更充分的发挥。
但软件开发领域的 Vibe Coding 情况完全相反。
它不是去除低价值劳动,而是剥夺了开发者与代码深度交互的机会。 对于入行前五年的新手程序员来说,虽然"抠底层逻辑、处理繁琐的初级编程任务"的过程很痛苦,但这正是建立代码直觉和心智模型的关键过程。
那些在过去几十年成长起来的伟大程序员,都是在与复杂系统"充满摩擦力"的对抗中,构建起了自己庞大的心智模型。而现在的 Vibe Coding 把这些有摩擦力的任务全部做完,让开发者永远无法建立起真正属于自己的知识结构。
第三部分:数据会说话
也许你会说,“但代码能跑就行啊,效率难道不是最重要的?”
数据会说话。
2026 年初,研究机构 METR 发布了一项研究,结果令人震惊:
使用当前顶级 AI 辅助编程工具的资深开发者,在处理复杂编程问题时,耗时反而比不用 AI 的人增加了 19%。
为什么?因为开发者需要花费大量的时间和精力:
- 检查 AI 生成代码的错误
- 理解这个自己没有参与构建的"代码黑盒”
- 修复那些深层的逻辑缺陷
而这个过程,比人类自己从头架构系统还要耗费心智。
第四部分:知识的本质,以及为什么 AI 会失败
AI 真的"理解"代码吗?
霍华德提出了一个深刻的哲学问题:AI 真的理解这个世界吗?
网上对此有两种截然相反的声音:
- 一派认为大语言模型只是"随机鹦鹉”,根本什么都不懂
- 另一派认为 AI 既然能解决复杂问题,必然具备理解能力
但霍华德给出了一个更清晰的答案:两派都对,因为这就是一种"角色扮演"。
AI 只是假装自己懂了——但这就足以解决大多数在其训练分布范围内的问题。
当 AI 编写 C 编译器时发生了什么?
最近,Anthropic 发布博客声称,旗下 Claude 的 Agent 团队自主编写了一个 C 编译器,甚至有人称这是"无尘室级别的成果"。
但当霍华德深入分析后,他发现:这不过是对当前最主流的 Clang/LLVM 架构的极其拙劣的风格迁移。
原因很简单——互联网上充斥着 LLVM 的代码和编译器教材。Claude 所做的,只是把 C 语言编译器的逻辑转换成 Rust 语言。本质上是在训练数据的不同部分之间进行插值,而非真正的创造。
这引出了一个灵魂拷问:
如果这个世界上从来没有过编译器,也没有相关的算法,AI 能从零开始发明吗?
答案是否定的。 目前没有任何经验数据表明 AI 具备这样的软件工程能力。
知识的真相
知识不是冰冷的文字,而是活的、具身化的、有视角的。 它存在于人类的身体里,存在于社会和组织的协作中。
一个组织的核心价值,就是保存和进化这种知识。但当我们把需要认知能力的任务交给 AI 时,其实是在侵蚀组织内部的知识 —— 这是一种极具破坏性的矛盾效应。
第五部分:艾宾浩斯曲线与"适当的困难"
有一个教育学原理叫**“适当的困难”(desirable difficulty)**。
艾宾浩斯的记忆曲线告诉我们:人类的记忆不会平白无故形成。只有在快要忘记的时候,努力去回忆,这份记忆才会被深深刻在大脑里。
而深层的知识和直觉,更是需要在克服困难的过程中逐步构建 —— 这正是为什么学生需要做练习题,程序员需要调试 bug,医学生需要在真实环境中实习。
但当 AI 在我们遇到认知挑战的那一刻,就把答案直接喂到嘴边时,我们永远无法建立起真正属于自己的知识结构。
这不仅仅是一个教育问题,更是一个生存问题 —— 对于人类的认知成长而言。
第六部分:正确的道路
既然 Vibe Coding 如此有害,那么霍华德认为正确的编程方式应该是什么样的?
Jupyter Notebook:交互式编程的力量
答案是 Jupyter Notebook 及其背后的交互式编程理念。
当然,Notebook 在软件工程界一直存在争议。乔尔·格鲁斯(Joel Grus)曾经发表过著名演讲《我不喜欢 Notebooks》,指出它违背了软件工程的最佳实践,比如代码容易乱序执行、难以版本控制等等。
这些问题确实客观存在。但霍华德认为,争议的核心是很多人误解了数据科学和传统软件工程的区别。
对于数据科学研究,或者面对一个未知复杂系统时(比如处理混乱的数据库,或分析深度学习模型的隐藏层特征),开发者需要的是交互式的探索。
在运行一行代码的瞬间看到数据的分布、看到可视化的图表,这种实时的反馈是建立物理直觉的关键过程。如果放弃 Notebook,像传统软件工程那样写一个庞大的 Python 脚本,再一次性跑一遍测试,中间的反馈链路太长,开发者会彻底隔绝与数据和系统之间的真实接触。
nbdev:桥接探索与工程
为了解决 Notebook 的弊端,霍华德的团队开发了 nbdev 工具。这个工具的核心使命是:在探索性的 Notebook 和严谨的软件工程之间,搭建一座桥梁。
让开发者既能享受 Notebook 带来的实时状态反馈,又能通过工具自动生成模块化的代码、文档和测试——兼顾探索的灵活性和工程的严谨性。
拉近人与系统的距离
好的软件工具的核心目标,无论是 Jupyter Notebook 还是优秀的 REPL 环境,都是拉近人类与系统内部状态的距离,让人类能更精准地操控和理解系统。
而现在被滥用的 AI 生成工具,却是在人类和系统之间砌起了一堵厚厚的高墙,让人类失去了与系统深度交互的机会。
这与布雷特·维克托(Bret Victor)在著名演讲《在原则上发明》中提出的理念高度契合:
创造者需要与自己正在创造的东西建立实时和无延迟的反馈循环。
而人类科技发展的整个历史——从鼠标的诞生到拖拽交互的发明——本质上都是在不断拉近人类与操作对象的距离,让交互更直接、更高效。但现在那些盲目追捧大模型自动化的人,却是在亲手摧毁这种直接的连接。
第七部分:真正的终极威胁
也许你期待霍华德会像其他 AI 领域的大佬(如杰弗里·辛顿、德米斯·哈萨比斯)一样,签署关于防范"AI 灭绝人类"的声明。
但他没有。相反,霍华德明确反驳了这种观点。
在他看来,现在有比"AI 觉醒将毁灭人类"更现实、更迫切的问题需要担心。
真正危险的不是"超级智能"
那份"AI 灭绝人类"声明的核心逻辑源于埃利泽·尤德科夫斯基(Eliezer Yudkowsky)等 AI 毁灭论者的观点:AI 会变得完全自主,进而摧毁世界。
但这个观点在多个层面上都被证明是完全错误的。
真正的威胁:权力集中
在霍华德的威胁模型里,AI 真正的危险不是来自抽象的超级智能机器,而是来自人类自己。
对于那些拥有大量权力或极度渴望权力的人来说,垄断技术是永恒的目标。而 AI 毁灭论的恐慌,恰好成为了他们的武器。
他们会散布"AI 技术太危险,不能让普通人接触"的言论,进而提出看似合理的解决方案:集中权力,让极少数几家富有的科技公司或政府来掌控 AI 技术,确保其他人都无法接触。
这是最糟糕的结果,因为把控制权集中在一个地方,意味着只要有人接管这个核心,就能控制一切。这是人类历史上反复上演的戏码。
“巨大的权力倒退”
霍华德直言:
我们正在亲眼目睹一场巨大的权力倒退。科技巨头利用人们对 AI 的恐惧,制造监管壁垒,建立起极高的护城河,让开源社区失去生存空间,让初创公司无法发展。最终把人类文明下一个十年的知识基础设施,牢牢锁在他们的私有服务器里。
这也是为什么霍华德一直坚持开源,坚持研发端侧设备上运行的小模型,坚持让人类能够继续掌控自己编写代码、理解系统的能力。
缓慢的"安乐死"
如果人类失去了认知能力和与技术深度交互的机会,我们面临的不会是《终结者》里的审判日,而是在安逸的自动化中,人类集体失去思考能力、失去创新能力,最终失去掌控自己未来的权利。
这是一场缓慢的、看不见的"安乐死"。
结语:AI 的正确角色
霍华德的批判从来都不是反对 AI 技术本身。相反,作为深度学习的奠基者,他比任何人都清楚 AI 的价值和潜力。
他反对的,是把 AI 当作替代人类的工具,是那种为了短期效率而牺牲人类认知成长的错误方式。
AI 的核心价值应该是:
- ✅ 增强人类的能力
- ✅ 让人类专注于高价值创意性工作
- ✅ 保护和深化人类的知识结构
- ✅ 维护人类对技术的理解和掌控
而不是:
- ❌ 替代人类的思考
- ❌ 剥夺人类的学习机会
- ❌ 创造"控制的幻觉"
- ❌ 集中权力在少数人手中
AI 时代我们真正需要的,不是放弃自己的双手和大脑,把一切交给机器,而是保持与技术的深度交互,建立起属于自己的心智模型和深层直觉。
唯有如此,我们才能在享受科技带来的便利的同时,始终掌控着科技发展的方向,让科技真正成为人类进步的助力。
一句话总结:Vibe Coding 不是编程的未来,而是一个温柔的陷阱——它用便利的幻象,换取我们对思考、学习和掌控的权利。真正的智慧是,既要拥抱 AI 的力量,也要守护人类的认知尊严。
