人工智能科普

一口气了解人工智能基本原理

type
status
date
slug
summary
tags
category
icon
password
commet

智能的炼金术:从“规则”到“感知”,AI如何从数据中“悟道”

这一切的起点,要回溯到1956年的那个夏天。当几位顶尖的科学家聚集在达特茅斯学院,他们试图用一个夏天的时间,去“制造”一种机器,使其能够模拟人类智能的每一个方面 [00:50]。这个看似狂妄的设想,开启了人工智能长达半个多世纪的漫长征途。
但他们首先必须回答一个根本性的问题:究竟什么是“智能”?
我们常常将智能与“思考”或“意识”混淆。然而,抛开哲学的迷雾,智能的核心或许简单得多。它是一种高级的“反应”能力。正如草履虫会本能地趋利避害 [02:49],智能的本质,就是在一个给定的情景(输入)下,作出一个精准的、有针对性的反应(输出) [02:41]。
从这个角度看,智能便不再神秘。它是一个“黑箱”,一个精妙绝伦的“函数” [04:16]。无论是阿法狗的落子,还是GPT的对话,它们都在求解这个函数:给定X(棋局或问题),什么是Y(最佳落子或回答)?人类近七十年的AI探索史,便是一部寻找、构建并优化这个“智能函数”的史诗。

规则的牢笼:为什么“专家”无法孕育智能

在最初的探索中,科学家们选择了一条最符合直觉的道路:符号主义 (Symbolism) [06:01]。他们相信,人类的智慧源于逻辑与推理。因此,只要我们将人类专家的所有知识,都编写成一条条“如果A,那么B”的刚性规则,机器就能像计算器一样“算出”答案。
这催生了“专家系统” (Expert Systems) 的短暂辉煌 [06:52]。在疾病诊断、金融咨询等领域,这些系统一度展现出惊人的能力。但很快,人们就触碰到了“规则”的天花板 [07:17]。
现实世界是模糊、混沌且充满例外的。专家的知识往往相互冲突,而更多时候,我们依赖的是一种难以言说的“直觉”或“品味”(比如围棋中的“棋感” [49:16])。更致命的是,这种“复刻”专家的思路,注定了机器的上限永远无法超越其创造者。它是一个完美的、静态的知识容器,却不是一个能自我成长的生命体。规则,最终成为了一个无法孕育真正智能的牢笼。

神经的低语:用“连接”模拟“理解”

于是,另一条截然不同的道路——连接主义 (Connectionism) [11:12]——开始崭露头角。它的灵感来源更为古老:我们自己的大脑。连接主义者们放弃了复杂的“规则”,转而拥抱了极致的“简单”:模拟最基础的神经元。
他们设计出了一种被称为“感知机” (Perceptron) 的数学模型 [14:52]。它就像一个最简单的数字神经元:接收多个输入信号(如同感官特征),为每个信号分配不同的“权重”(重要性),然后将它们加总 [13:23]。如果总和超过一个门槛,它就被“激活”。
这便是“感知”的雏形。通过调整这些权重,一个感知机可以学会识别苹果(“红色”权重高,“绿色”权重低) [13:00]。然而,这个简单的模型很快就遭遇了毁灭性的打击。1969年,一篇雄辩的论文指出,感知机连最简单的“异或” (XOR) 逻辑都无法实现 [21:47]。
原因何在?因为一个感知机,本质上只能在数据的版图上画出一条“直线”来进行分类 [22:09]。而“异或”问题,需要的是一条曲线。这个发现,将连接主义打入了长达数十年的“AI寒冬” [23:03]。
但火种并未熄灭。真正的突破在于一个天才般的想法:如果一个“神经元”不行,那我们就用一层,乃至很多层呢?[24:44] 这就是多层感知机 (MLP),也就是我们今天熟知的神经网络 (Neural Network) [25:54] 的诞生。
当神经元层层堆叠,奇迹发生了。第一层网络可能只能识别基础的像素点;第二层将“点”组合成“线”;第三层将“线”组合成“形状”;更深的层次则能识别出“面孔”或“数字” [27:04]。这个黑箱不再是画一条直线,它拥有了拟合宇宙间几乎任何复杂“函数”的潜力 [26:24]。一个能够从数据中“感知”模式、构建“概念”的强大黑箱,终于被制造出来了。

“梯度下降”的心法:在亿万维迷雾中寻找“最优解”

黑箱已经造好,但它还只是一个空壳。如何让它“学会”我们想要的技能?
想象一下,一个大型神经网络(如GPT-3)拥有多达1750亿个可调节的参数(权重) [01:06:52]。这就像一台拥有1750亿个“旋钮”的超级机器 [34:08]。我们的任务,就是找到这亿万个旋钮的“完美组合”,使其能够通晓人类语言。
这在数学上是一个令人绝望的优化问题。要理解AI如何解决这个问题,我们必须掌握一个贯穿所有现代人工智能的核心框架。
首先,我们需要一个“惩罚”机制。我们定义一个**“损失函数” (Loss Function)** [31:24],它用来衡量机器的“预测”与“标准答案”之间的差距。差距越大,损失值(惩罚)就越高。我们的唯一目标,就是调整所有旋钮,让这个“损失值”降到最低。
这个过程,好比将我们蒙上双眼,置于一片由亿万维度构成的、地形极其复杂的“损失曲面” (Loss Surface) 上 [36:34]。我们不知道山谷(最优解)在哪里,我们能感知的,只有脚下这一小片土地的“坡度”。
我们该如何下山?AI的答案是:梯度下降 (Gradient Descent) [38:12]。
“梯度” (Gradient) 在数学上,就是指向“最陡峭上坡”的那个方向 [40:17]。那么,我们只需要反其道而行之——沿着“梯度的反方向”,也就是最陡峭的“下坡”方向,迈出一个极小的步子。然后,在新的位置上,重新感知坡度,再迈一小步。
如此循环往复,即使身处亿万维度的迷雾中,我们也能确保每一步都在“下山”,并最终“走”到某个足够深的山谷——一个损失值极低的最优解。
那么,又该如何高效计算这亿万个旋钮“共同作用”下形成的“坡度”呢?答案是**“反向传播” (Backpropagation)** [41:38]。它巧妙地利用了微积分中的“链式法则” (Chain Rule) [42:55],将“损失”这个惩罚信号,从网络的最后一层,像齿轮传动般一层层“反向”传递回去,高效算出每个旋钮应负的“责任”。
“梯度下降”负责指明方向,“反向传播”负责高效计算。这一整套心法,就是驱动神经网络这个庞然大物进行学习的唯一引擎。

从“接龙”到“造物”:当黑箱学会了语言与现实

当这个强大的“学习引擎”被应用到极致,便催生了我们这个时代的AI革命。
GPT是如何“学会”语言的?
它执行的任务出奇地简单:“预测下一个词” (N Token Prediction) [01:02:04]。
它阅读了人类互联网上TB级的文本数据 [01:06:01],在海量的“完形填空”中,试图用“梯度下降”去拟合人类语言的“函数”。
这个看似朴素的“接龙游戏” [01:02:28],其背后蕴含的力量是惊人的。因为要**“正确”**地预测下一个词,黑箱必须被迫“理解”:它必须学会语法结构、上下文逻辑、事实常识,乃至人类情感的微妙之处 [01:03:56]。当它为了“接龙”而将亿万参数调整到最优时,它便在数据中“悟道”了,掌握了语言的深层规律。
SORA是如何“学会”现实的?
它使用的,是另一种被称为**“扩散模型” (Diffusion Model)** [01:11:24] 的黑箱。
它的学习过程是:先向一张真实的图片不断注入“噪声”,直到它变成一片纯粹的杂乱无章(一个“熵增”过程) [01:11:32]。然后,它训练神经网络去“逆转”这个过程——即学会“去噪”。
当这个网络训练完成后,奇迹发生了。我们给它一堆纯粹的“噪声”(随机数),它便能启动这个“时光倒流” (Time Reversal) [01:14:36] 的过程,一步步将其“去噪”,最终“还原”出一张它从未见过、却无比真实的图片。
它并不是在“拼接”图片,而是在学习一个“函数”——一个指向“真实世界样貌”的引力场,在数学上被称为“流形” (Manifold) [01:21:23]。它学会了从混沌中重塑秩序,仿佛一个数字世界的“造物主”。

镜中的倒影:我们是“智能”的主人,还是“模式”的囚徒?

从达特茅斯的逻辑规则,到神经网络的感知连接;从梯度下降的优化心法,到GPT和SORA的惊艳“悟道”,人工智能的本质从未改变:它是一台终极的“模式识别”与“函数拟合”机器。
它强大,但也脆弱。它能从数据中发现人类都难以察觉的微妙关联,也因此会陷入“相关性”的陷阱,把“柴犬”误认为“面包” [50:43],或被“对抗样本” (Adversarial Samples) 轻易欺骗 [52:11]。
它仍被困在柏拉图的“洞穴”之中 [01:08:51]。它能完美地描述“影子”(语言、图像)的规律,却从未真正触碰过产生影子的“现实”(物理世界、因果)。
它无疑将重塑我们的工作,所有“模式固化”的领域,都将被其深刻改变 [01:26:05]。但这台机器缺乏真正的“意图”与“理解”。它是一面镜子,映照出我们数据中的智慧、偏见、光明与黑暗。
与其恐惧被它“取代”,不如思考如何与它“协同” [01:28:18]。毕竟,这台机器的出现,正在迫使我们重新思考一个更深层的问题:
当我们惊叹于AI能从海量模式中“悟道”时,我们又该如何定义我们自己的智能?我们是“智能”的主人,还是在某种意义上,亦是“模式”的囚徒?

思想来源 (Source of Inspiration): 漫士沉思录 Meditation Math
原始视频 (Original Video): https://www.youtube.com/watch?v=LF9sd-2jCoY
Loading...
千逐

千逐
一个有趣的灵魂,希望看见更远的世界