deepseek对程序员的冲击
提示词工程师这个全新的程序员工种,面临着多少挑战?
type
status
date
slug
summary
tags
category
icon
password
commet

这个全新的程序员工种,面临着多少挑战?
作者:原子能
链接:https://www.youtube.com/watch?v=2Ub0cIOfFLs
时长:11分37秒
开篇引入
本视频深入探讨了“提示词工程师”(Prompt Engineer)这一新兴职业,在AI大模型时代所扮演的关键角色及其面临的挑战。随着AI技术的普及和应用落地,提示词工程师成为连接人类语言与AI大模型的桥梁,他们的工作不仅关乎AI的稳定输出,更决定了AI在特定场景下的应用深度和广度。本文将带您深入了解这一工种的来龙去脉、核心职责、技术挑战以及未来的发展前景。
逐段深度解析
DeepSeek的出现打破AI应用红沟 [00:00]
- 核心观点: DeepSeek的出现,通过显著降低AI模型的研发和使用成本,使得AI大模型得以跨越“红沟”,从少数科技巨头的专属技术转变为大众可获取的普适性技术,从而开启了AI大规模应用落地的时代。
- 深度阐述: 过去,像ChatGPT这样的早期AI模型因其高昂的研发和使用成本(上百亿美元),仅限于少数科技巨头或背后有巨头支持的AI独角兽进行应用探索。这形成了AI发展的“红沟”,阻碍了其广泛应用。然而,DeepSeek的出现,并未在AI能力上取得突破,而是在成本控制上实现了重大突破:研发成本降至百万级,使用成本更是跌至万元级别。这一改变使得AI大模型变得触手可及,在短短几十天内,汽车、手机、电视、甚至游戏等各个行业都完成了DeepSeek的接入。负责这种接入工作的,正是今天讨论的“提示词工程师”。
- 重要原话引用: "depse 的 出 現 是 有 利 益 程 序 員 的 因 為 它 代 表 了 ai 發 展 的 一 個 新 的 階 段 那 就 是 大 規 模 的 應 用 落 地" [00:27]
提示词工程师的诞生:驯服AI的不稳定性 [01:30]
- 核心观点: AI大模型的“黑盒子”本质和不稳定性,使其难以融入需要高度稳定性和可预测性的现代工业体系,因此诞生了提示词工程师这一职业,旨在通过设计输入文本来驯服AI,使其行为符合规范,实现稳定输出。
- 深度阐述: 现代科技和工业体系要求一切严丝合缝、紧密相连,以确保整个庞大机器的顺利运行。然而,AI大模型作为一个“黑盒子”,其输出结果的不可预测性(你永远不知道它下一个回答会是怎样的)在软件开发角度来看是灾难性的。我们能接触到的只是一个纯文本交流的API,输入文本,输出文本,没有语法规则,没有可重复性,甚至连单元测试都无法编写。在这种背景下,提示词工程师应运而生,他们的工作就是让AI遵守规则,使其像一个传统的API那样,可以与其他系统组件整合,成为一个稳定的产品。所有的技巧都围绕着如何设计输入给AI的文本。
- 重要原话引用: "他 們 的 工 作 就 是 讓 ai 遵 守 規 則 讓 它 像 一 個 傳 統 的 api 那 樣 從 而 可 以 和 系 統 的 其 他 組 件 整 合 在 一 起 成 為 一 個 穩 定 的 產" [02:12]
人类语言与机器对话的历史与演变 [02:22]
- 核心观点: 人类与机器对话并非新鲜事,SQL语言早在50多年前就实现了通过人类语言向数据库发送命令。AI大模型的提示词(Prompt)与SQL有着异曲同工之妙,并且AI对传统编程语言的设计思路,如变量和数据结构,也表现出一定的感应能力。
- 深度阐述: 早在50多年前,IBM工程师发明SQL(Structured English Query Language)的目的就是为了让用户能用简单的自然语言向数据库发送命令。SQL通过指定关键词来表达命令,数据库能理解需求并执行。在AI大模型中,输入文本被称为“提示词”(Prompt)。虽然提示词本身没有语法规则,不像SQL那样能发送精准命令,但科学家们已摸索出一些能让AI更敏感的词汇,其中一半与SQL语法关键词重叠。这表明大模型在训练阶段从海量数据中习得了类似的规律。此外,提示词工程师发现AI对传统编程语言设计思路也有感应,例如变量的使用 [04:00]。我们可以在提示词中定义变量,后续直接更新其值而无需重复整个提示。对于大模型输出作为流水线环节,涉及到数据结构和类型定义的问题,微软的TypeChat框架(基于TypeScript) [04:31] 提供了一个解决方案,允许用TypeScript语法规范大模型输出结构,实现与其他TypeScript代码的无缝衔接。视频作者大胆预测,TypeScript很有可能超越Python,成为AI应用行业的主流语言,因为很多落地应用面向用户,前端语言本身就具优势。
- 重要原话引用: "所 以 我 們 可 以 大 膽 的 推 測 正 是 因 為 sql 標 準 的 優 歷 史 以 及 它 對 人 機 交 互 設 計 的 影 響 深 遠 但 大 模 型 在 訓 練 階 段 就 從 海 量 的 數 據 中 結 出 了 同 樣 的 規" [03:31]
提示词工程师的核心工作:模型调教与In-Context Learning [05:07]
- 核心观点: 提示词工程师的核心工作更接近AI科学家,通过In-Context Learning(通过在提示词中提供大量例子)来调教模型,控制输出风格和规则,以弥补传统Fine-tuning成本高昂且耗时的问题。
- 深度阐述: 如果说前一部分工作围绕编程语法和数据结构,与普通程序员相似,那么提示词工程师真正的核心工作更接近AI科学家,即模型调教。大模型在训练过程中追求知识的广度而非深度,虽然足以应对普通用户的大部分问题,但在特定行业解决专业问题时,其深度不足。解决这一问题常用的方法是Fine-tuning(精调训练) [05:54],即在现有模型基础上用特定领域数据进行再训练,但这种方法成本高昂,需要大量硬件、数据和漫长的等待时间。
然而,随着主流大模型可以接受10万字以上的提示词 [06:31],提示词工程师有了直接在提示词中调教AI的空间,这种做法被称为In-Context Learning(FSP, Few-shot Prompting) [07:13]。通过在提示词中提供大量例子,让AI在处理问题时优先考虑例子中的规则。FSP更多用于对大模型的输出进行风格化控制,从输出规则到内容呈现形式都可以控制。视频中展示了一个简单的FSP例子,用于控制AI返回答案的结构,比如根据提供的例子,AI可以生成简洁、详细或分解的答案。提示词工程师在调教提示词时,也应用了许多技巧,如Chain of Thought、Tree of Thought、Role Prompting等 [08:11],这些工程技巧更难掌握,需要反复测试和调整,如同科学家训练AI一般。
- 重要原话引用: "但 當 我 們 要 把 大 模 型 投 入 到 特 定 行 業 裡 要 他 去 解 決 專 業 問 題 的 時 候 我 們 的 要 求 就 會 更 加 嚴 格" [05:43]
提示词工程师的挑战:Prompt Sensitivity与保住下限 [08:37]
- 核心观点: AI大模型的“黑盒子”本质导致了“提示词敏感度”(Prompt Sensitivity)问题,即微小的文本改动可能导致AI回答的严重偏移。提示词工程师的重要工作之一就是“避坑”,在追求大模型能力上限的同时,努力保住其输出的下限。
- 深度阐述: 提示词工程师还有一个重要工作是“避坑”。由于大模型的黑盒子本质,其内部有多少“坑”无人能知。一个常见的问题是“提示词敏感度”(Prompt Sensitivity) [09:06],即提示词中哪怕是细微的文字改动、标点符号甚至空格的差异,都可能导致AI回答的严重偏移。这是因为当前大模型在训练时追求极致的规模,放弃了大多数传统NLP技巧,有些甚至连分词都不做,直接将原始数据当作二进制字符串输入。在传统NLP中会被清理干净的符号、空格、停用词、大小写区分等干扰项,在当代大模型中反而具有举足轻重的影响。
这个问题目前无解,因为保持原始数据结构不变、不加人工干涉是当前AI发展的主流路线。理论上这能拉高大模型的上限,但在实践中也发现它会拉低大模型的下限 [09:55]。因此,如果说科学家的工作是突破上限,那么提示词工程师的工作就是保住下限。在大模型中保住下限比传统机器学习更难,因为传统机器学习能知道函数曲线、是否处于局部最小值,知道如何爬升;但在大模型这个黑盒子里,很多试错是毫无规律的。尽管有科学家指出,训练大模型的数据基本包含所有东西,从概率学角度看数据质量呈正态分布,通过反复试错(随机行为),在足够次数后应该能触碰到比较靠前的答案,但这些仍需提示词工程师自己去摸索。
- 重要原话引用: "當 你 的 提 示 詞 裡 有 一 些 非 常 細 位 的 文 字 改 動 標 點 符 號 甚 至 是 空 格 的 區 別 都 有 可 能 造 成 ai 回 答 的 嚴 重 移" [08:54]
AI应用场景的拓展与提示词工程师的需求增长 [10:53]
- 核心观点: 随着AI大模型成本的进一步压缩,各行各业和个人开发者将入场,挖掘出更多新的业务场景,这将催生对提示词工程师岗位需求的持续增长。
- 深度阐述: 除了前面提到的网红聊天服务 [10:54],视频中还提到了帮助程序员在线面试自动作算法题的服务,以及自动优化简历的服务 [10:58]。这些服务都没有现成的竞争对手,因为它们都是在AI大模型的基础上才能提供的服务。随着AI大模型成本的进一步压缩,各行各业的企业甚至个人开发者都将入场,挖掘出更多新的业务场景,同时也会催生更多的提示词工程师岗位的需求。因此,视频作者认为,AI的发展不仅不会抢走程序员的工作,反而会创造更多新的机会。
- 重要原话引用: "更 多 的 新 的 業 務 場 景 會 被 挖 掘 同 時 也 會 催 生 更 多 的 及 事 工 程 師 崗 位 的 需 求" [11:16]
精华收获总结
- 提示词工程师的诞生与价值:AI大模型的不稳定性催生了提示词工程师这一职业,他们通过设计高质量的提示词来“驯服”AI,使其输出稳定且符合预期,从而将AI从实验室推向大规模应用。
- In-Context Learning的重要性:相对于成本高昂的Fine-tuning,In-Context Learning(通过在提示词中提供大量例子)成为提示词工程师调教AI、控制其输出风格和规则的核心技术。
- Prompt Sensitivity的挑战:AI大模型的“黑盒子”特性导致了提示词敏感度问题,即使是微小的文本改动也可能导致AI输出的巨大差异,提示词工程师需要不断试错以“保住下限”。
- AI与就业的新机遇:AI大模型的发展,尤其是成本的降低,将催生更多新的业务场景,从而创造出更多对提示词工程师等新兴岗位的需求,而非简单地取代现有工作。
个人洞察与价值提取
🎯 核心洞察 (Core Insight)
提示词工程师并非简单的AI“调教者”,他们是AI大模型时代连接人类意图与机器智能的“翻译官”和“驯兽师”,其核心价值在于将AI的不可预测性转化为可控的、业务驱动的稳定输出,这代表着人机协作范式的一次深刻转变。
🧠 阅读启发 (Inspiration Points)
2.1. 思维模型窃取:
- “红沟理论”:此视频借用“红沟理论”解释了技术从实验室走向大规模应用的关键障碍——高昂的成本。这个模型可以被“窃取”来分析任何一项新技术能否普及,其核心是关注“成本曲线”和“可用性曲线”的交叉点,而非仅仅是技术能力的突破。DeepSeek的案例表明,成本突破有时比纯粹的能力突破更能推动技术普适化。
- “In-Context Learning”作为一种“软性调教”:与传统的模型训练(Fine-tuning)相比,In-Context Learning提供了一种更灵活、成本更低、迭代更快的模型调教范式。它启发我们,在处理复杂系统时,除了“硬编码”的修改,还可以通过“情境化输入”来引导系统行为,实现预期的结果。
2.2. 认知盲区填补:在普遍认为AI会抢走人类工作的背景下,视频填补了“AI创造新工种”的认知盲区。它指出AI的黑盒子特性和不稳定性需要新的专业人才去“驯服”,并举例说明了这些新工种并非传统的程序员或数据科学家,而是更侧重于人机交互、逻辑引导和问题规避的复合型人才。
🔑 关键提问 (Key Questions to Ponder)
3.1. 挑战性问题:作者在阐述提示词工程师的挑战时,强调了“提示词敏感度”和“黑盒子”的不可控性,但可能回避了更深层次的伦理和社会难题。例如,当提示词工程师通过精巧的设计“驯服”AI,使其输出看似专业且无懈可击,但其内部逻辑依然是“随机”和“无规律”的 [10:27]时,我们如何确保这种“伪智能”不会被滥用,或者在关键决策场景中引发不可预知的风险?被“绕过去”的核心权衡是:在追求AI应用落地效率和成本降低的同时,我们是否牺牲了对AI透明度、可解释性和安全性的深层次考量?
3.2. 批判性问题:如果让我来阐述“AI时代新工种”这一主题,我会从“人类在未来人机协作中的不可替代性”这一完全不同的角度切入。我会构建一个论证:人类的创造力、情感理解、批判性思维和伦理判断是AI无法完全替代的,因此,未来的新工种将更多地围绕如何放大这些人类特质,而非仅仅是“驯服”AI。提示词工程师只是这种协作的初步形式,更高级的阶段可能涉及“AI伦理设计师”、“AI哲学顾问”等,他们将从更宏观的层面确保AI技术朝着符合人类价值观的方向发展。
🔗 逻辑链路分析 (Logical Chain Analysis)
4.1. 问题引入 (Problem Framing):视频试图解决的核心冲突是:AI大模型虽然强大,但其高昂的成本和不稳定性(黑盒子本质、无语法规则、不可重复性) [01:41] 阻碍了其大规模应用和融入现有工业体系。它提出了“如何让AI大模型变得稳定、可控,并能广泛应用于各行各业”的核心设问。
4.2. 前提与边界 (Context & Definition):
- DeepSeek的定义:并非能力突破,而是成本突破,是AI普及的关键催化剂 [00:55]。
- 提示词工程师的定义:负责接入和驯服AI,使其遵守规则、稳定输出的新型技术工种 [01:30]。
- AI大模型的局限性:黑盒子特性、缺乏可重复性、难以进行单元测试 [01:49]。
- 工作边界:围绕如何设计向AI输入的文本,使其行为可预测。
4.3. 论证展开 (Argument Development):
- 历史类比:通过类比SQL的历史,指出人类与机器对话并非新鲜事,SQL的成功为AI提示词的语法探索提供了启发 [02:32]。
- 技术探索:展示了提示词工程师如何利用编程语言的设计思路(如变量 [04:00]、数据结构和类型定义 [04:27])来提高AI的输出质量和稳定性,例如微软的TypeChat框架。
- 核心职责深化:从基础的编程语法应用深入到“模型调教”层面,引入Fine-tuning和In-Context Learning [05:54] 的对比,强调FSP作为一种更经济高效的模型调教方式。
- 挑战与应对:揭示了提示词敏感度(Prompt Sensitivity)这一核心挑战,并解释其产生的原因(大模型训练追求规模而放弃传统NLP技巧) [09:06],指出提示词工程师在“保住下限”方面的艰巨任务。
4.4. 结论与方案 (Solution & Conclusion):视频最终得出结论,AI大模型成本的持续降低将促使更多企业和个人开发者入场,挖掘出更多基于AI的新业务场景,从而持续创造对提示词工程师岗位的需求 [11:12]。它希望观众转变对AI的恐惧,认识到AI带来的不是失业,而是新的职业机会,并以“Make Programming Great Again”的口号作结 [11:34]。
Loading...