内容摘要
本视频是"人人皆可用的生成式 AI"课程第三周第二讲,核心内容是介绍一套分析企业 GenAI 应用机会的系统框架。该框架源自经济学家 Eric Brynjolfsson、Tom Mitchell 和 Daniel Rock 的研究成果:与其问"AI 会取代哪些工作?",不如更精准地问"AI 可以自动化哪些具体任务?"。吴恩达以客服代表岗位为例,演示了如何将一份工作拆解为多项具体任务,并逐任务评估 GenAI 的"辅助潜力"或"自动化潜力",最终帮助企业决策者找到最值得投入的机会点。
核心观点
-
分析单位应是"任务"而非"工作"——这是最关键的认知转变
媒体讨论 AI 时经常问"AI 会取代哪些工作",但从技术和商业实践角度看,AI 不会整体取代一份工作,而是可以辅助或自动化工作中的某些具体任务。大多数工作都由多项不同任务组成,AI 对不同任务的适用性差异很大。 -
客服代表案例:同一岗位的不同任务,GenAI 潜力差异显著
以客服代表为例,其典型任务包括:- 接听电话(GenAI 潜力低:长时间语音对话仍难以自动化)
- 处理文字客服聊天(潜力高)
- 查询订单状态(潜力中等)
- 记录客户互动记录(潜力高)
- 核查客户投诉的准确性(潜力低)
-
辅助(Augmentation)vs 自动化(Automation)的渐进路径
- 辅助:AI 为人类推荐回复,人类编辑/审批后再发送——适合对 AI 质量还没建立足够信任时的阶段。
- 自动化:AI 完全自主执行任务(如自动转录并总结客户互动记录)——适合建立信任后的阶段。
- 实践中,企业通常从辅助起步,随着对 AI 输出的信心增长,逐步向更高程度的辅助乃至完全自动化过渡。
-
评估 GenAI 潜力的两个核心维度:技术可行性 + 商业价值
- 技术可行性:AI 能做到吗?建成需要多少成本?可以用"刚毕业大学生"标准初判,也可以直接用 LLM 试跑几个典型提示词快速验证;AI 工程师还可以评估 RAG、微调等进阶技术是否能进一步提升效果。
- 商业价值:这个任务每天花多少人力时间?更快/更便宜/更一致地完成它能创造多大价值?后续还将说明,自动化任务有时带来的价值远超单纯省人工——因为它还可能推动流程重构。
-
O*NET:评估任务的实用参考资源
O*NET 是美国政府资助的在线职业数据库,按岗位列出了大量具体任务清单(如客服代表需"通过电话或当面接待确认顾客"、"记录客户互动记录"等)。吴恩达建议将其作为头脑风暴的起点,但强调它是通用描述,不一定完全符合你的具体公司实际情况,需要结合内部了解进行调整。
关键收获
💡 收获 1:"任务分析框架"是企业 AI 战略落地的起点——比"AI 会取代什么工作"更实用
媒体和公众讨论 AI 失业时往往以"工作"为单位,但这对企业决策没有直接价值。吴恩达提供的"按任务分析"框架直接可操作:列出岗位任务清单 → 评估每项任务的 GenAI 潜力 → 按潜力排序 → 聚焦最高潜力任务。这是一个可以在一次工作坊中完成的分析过程。
💡 收获 2:从辅助到自动化是建立信任的渐进过程,不是非此即彼的二选一
"辅助"和"自动化"不是两个互相排斥的选择,而是一个连续谱。企业可以安全地从辅助起步,在实际使用中积累数据、建立信心,再逐步减少人工环节——这是一种风险可控的 AI 落地路径。
💡 收获 3:"刚毕业大学生"标准 + 直接试跑,是快速评估技术可行性的最低成本方法
不需要复杂的技术评估流程。把真实的任务提示词直接粘贴到 LLM 里试跑,几分钟就能得到"大概能做到什么程度"的感性认知——这比任何理论分析都更有说服力,而且几乎零成本。
💡 收获 4:O*NET 是快速了解陌生岗位任务构成的有用工具
对于不熟悉的岗位,O*NET 提供了一个结构化的任务清单起点,避免从零开始头脑风暴时遗漏重要任务。即使它不完全精准,作为检查清单的价值也是显著的。
重要引述
"From a technical and business perspective, it's more useful to think of AI not as automating jobs, but as automating tasks — and it turns out most jobs involve a collection of many tasks."
(从技术和商业角度来看,把 AI 视为"自动化任务"而非"自动化工作"更为有用——事实证明,大多数工作都涉及许多不同任务的集合。)
"What I see in many applications is that businesses will sometimes start with augmentation — maybe let a human double-check or finalize the output — and then as you gain trust and confidence in the GenAI output, gradually shift toward higher and higher degrees of augmentation and perhaps eventually to full automation."
(在很多应用中,我看到企业有时会从辅助起步——也许让人类核查或最终确认输出——随着对 GenAI 输出建立起信任和信心,逐渐向越来越高程度的辅助,也许最终走向完全自动化转变。)
"The potential for augmenting or automating a task depends mostly on two things: technical feasibility and business value."
(辅助或自动化一个任务的潜力主要取决于两件事:技术可行性和商业价值。)
总体结论
本讲提供了一套经济学家开发、可被企业直接应用的 GenAI 机会识别框架。核心范式转变是:从"工作"到"任务"——这一看似细微的视角转换,在实践中产生了根本性的分析价值。通过对客服代表岗位的细致案例演示,吴恩达展示了即使在同一岗位内部,不同任务的 GenAI 潜力也可能天差地别(高/中/低);而辅助→自动化的渐进路径则为企业提供了风险可控的落地策略。技术可行性 + 商业价值的双维评估框架,加上 O*NET 等公开资源的辅助,使得这套分析方法对没有 AI 专业背景的业务决策者同样可操作。
逐字稿(中文翻译)
很多企业——无论大小——都有许多人在做许多不同的工作。有一个起源于经济学领域的分析框架,由 Eric Brynjolfsson、Tom Mitchell 和 Daniel Rock 提出,用于分析工作任务是否可能被 AI 自动化。这个框架不仅对经济学家理解 AI 的经济影响有用,对于企业识别使用生成式 AI 的具体机会同样很有价值。我们来看看如何应用这个框架。
媒体上有很多讨论,比如"AI 会自动化哪些工作",但从技术和商业角度来看,把 AI 视为"自动化任务"而非"自动化工作"更为有用——事实证明,大多数工作都涉及许多不同任务的集合。
让我们看一个例子。一名客服代表会做很多不同的工作,包括:接听客户的来电、通过文字(而非语音或电话界面)回复客户聊天查询、查询客户订单状态、记录客户互动记录,以及评估客户投诉的准确性。
如果你的公司有很多客服代表,分析使用生成式 AI 潜力的第一步,就是了解你公司的客服代表实际在做哪些任务。之后,我们可以审视这些不同的任务,尝试评估生成式 AI 对这些任务的辅助、增强或自动化潜力。
例如,对于生成式 AI 接听电话并进行长时间对话,这仍然很困难,所以我们评估这是一个较低潜力的机会。但通过文字与客户聊天的回复,可能有更高的潜力。查询客户订单状态可能是中等潜力,记录客户互动可能是高潜力,评估客户投诉的准确性可能是低潜力。这些例子中右侧栏的评估都是假设性的,对你的业务的实际影响会有所不同,取决于你的业务具体情况。
进行这样的分析之后(我稍后会讲一些如何进行这种分析的具体方法),你可能会决定回复客户聊天查询和记录客户互动具有最高潜力,因此将精力集中在这两项任务上。
生成式 AI 的机会可能是辅助或自动化。所谓辅助,我的意思是我们可以用 AI 来帮助人类完成某项任务。在客服代表的场景中,我们可能让生成式 AI 为客服人员推荐回复,由人工编辑或审批,但不完全自动化向客户发送消息的过程。所以如果我们还不确定生成式 AI 是否会给出好的答案,推荐回复可以加快工作人员的工作速度,但不会完全自动化——这是辅助的例子。而自动化则是指 AI 系统完全自动地执行全部任务——例如,自动转录和总结客户互动记录,这就可以是一个自动化的例子。
在很多应用中,我看到企业有时会从辅助起步——也许让人类核查或最终确认输出后再使用——然后随着你对生成式 AI 输出建立起信任和信心,用户界面可以不断调整,使人类操作流程越来越高效,逐渐向越来越高程度的辅助,也许最终走向完全自动化转变。
那么,给定这样一个任务清单,如何得出右边那一列的评估?如何评估各个任务的 GenAI 潜力?
辅助或自动化一个任务的潜力主要取决于两件事:技术可行性和商业价值。
技术可行性指的是:AI 能做到吗?构建一个 AI 系统来实现它的成本如何?对于使用 LLM 来评估,我发现上周讨论的框架很有用——问"一个刚毕业的大学生按照提示词中的指令能完成这项任务吗?"这可以给你一个初步猜测——不一定完全准确,但提供了一种思考某项任务是否可行的方式。有时如果你不确定 LLM 能否完成某项任务,我会鼓励你试着用 LLM 来尝试一下,看看能不能让 LLM 完成那项任务。这个实验你可能能很快完成——只要你没有透露机密信息,如果你把一些客户聊天查询的提示词粘贴到大语言模型中,你可能很快就能对 LLM 的回复质量有个感性认知,这可以帮助你相对快速地评估使用生成式 AI 完成某项任务的技术可行性。AI 工程师也可以帮助你评估 RAG(检索增强生成)、微调或其他更高级技术是否能有所帮助,并让你了解构建 AI 系统来处理某项任务的复杂度,以及因此带来的成本。
在本课程中,我主要聚焦于使用生成式 AI 技术的技术可行性评估。如果你或你的团队熟悉其他 AI 工具(如监督学习),你也可以同样评估使用其他工具来辅助或自动化不同任务的技术可行性。
除了技术可行性,我建议你思考的第二个标准是商业价值——使用 AI 来辅助或自动化某项特定任务有多大价值?我用来构建对商业价值思考的问题包括:这项任务花了多少时间?这样我们能实现多少时间节省?其次,使用 AI 来更快、更便宜或更一致地完成这项任务是否创造了实质性价值?
虽然辅助和自动化似乎主要带来成本节省,但我们本周稍后会看到,当你自动化一项任务时,有时带来的好处远不止成本节省——因为它还可能带来围绕这项任务的流程重构。但如果我说的还不太明白,现在不用担心,我们本周稍后会看到一些具体例子。
在结束这个视频之前,我还想分享一个资源,也许对你分析如何将岗位分解为任务会有帮助——那就是在线职业数据库,你可以查阅特定岗位的任务构成。这是一个叫做 O*NET 的网站截图,它是一个美国政府资助的网站,对于客服代表岗位,它列出了大量不同的任务,包括"通过电话或当面接待确认顾客"、"记录客户互动记录"等等。
我发现这类职业数据库往往比较通用,不一定完全针对你的具体公司,所以我不建议直接使用 ONET 数据库的结果并假设它适用于你的公司——通常你会发现一些条目,读完后会觉得"不,这似乎不适用于我的公司"。但我发现这是一个很有用的资源,可以浏览一下,只是为了获取一些想法,并帮助确认你在思考公司不同岗位人员所做的任务时没有遗漏什么。ONET 略有些美国中心化倾向,但有一个很好用的用户界面,我鼓励你去试试;也有一些其他国家或地区拥有一些特定的数据库,你也许能在网上找到。但我发现对于很多岗位来说,O*NET 也许是一个合理的初始起点。
所以,这就是你如何审视不同的工作岗位,开始将其分解为具体任务,并分析各个任务的辅助或自动化潜力。希望你能去玩玩 O*NET 网站,感受一下不同任务和不同岗位的情况。在这个视频中,我们举了客服代表的例子,我还想带你看几个其他岗位的例子——让我们在下一个视频中来看看吧!
本文档根据视频字幕整理翻译,内容为 DeepLearning.AI "Generative AI for Everyone" 课程第三周第二讲。
工作任务分析
下载 MP3