元启 · AI Research
/

LLM:你的思维伙伴

LLM as a Thought Partner

本视频是"人人皆可用的生成式 AI"课程第一周第三讲,聚焦于大语言模型(LLM)在日常实践中的具体用途

YQ元启
·2026 年 5 月 12 日·6 分钟·studies·#generative-ai #andrew-ng #deeplearning-ai #week1

内容摘要

本视频是"人人皆可用的生成式 AI"课程第一周第三讲,聚焦于大语言模型(LLM)在日常实践中的具体用途。吴恩达通过一系列生动的例子——查询信息、润色写作、创意故事、食谱搜索——展示了 LLM 作为"思维伙伴"的价值,同时坦诚指出其局限性:LLM 存在"幻觉"(虚构事实)问题,在医疗、健康等高风险领域尤需谨慎。视频重点帮助学习者建立判断力:何时用 LLM,何时用网络搜索


核心观点

  1. LLM 提供了一种全新的信息获取方式,但需警惕"幻觉"
    向 LLM 提问可以得到自然语言回答,例如"南非的首都是什么?"但 LLM 有时会"一本正经地编造事实"(hallucination),在高风险场景下必须用权威资料加以核实。

  2. 上下文对话能够帮助 LLM 给出更准确的回答
    LLM 的回答质量高度依赖上下文。例如先问"LM 代表什么",再追问"在 AI 语境下呢",LLM 才会给出"大语言模型"这个正确答案。对话来回是引导 LLM 聚焦的有效方式。

  3. LLM 是优秀的写作助手和创意伙伴
    要求 LLM 润色文章、改善表达清晰度,或者临时创作一个有趣故事(如"写一个涉及卡车的 300 词故事来鼓励孩子刷牙"),LLM 表现出色。虽然远不如顶级作家,但作为快速生成工具已经够用。

  4. LLM vs 网络搜索:场景决定选择

    • 用网络搜索:医疗健康问题(扭伤脚踝怎么处理)——优先梅奥诊所、哈佛健康等权威网页;常见食谱(菠萝派)——网上有大量质量稳定的参考。
    • 用 LLM:偏门、小众、创意性问题(咖啡味菠萝派怎么做)——网络上几乎找不到,LLM 可以作为思维伙伴帮你"想"一个方案。
  5. LLM 擅长的三大任务类别:写作、阅读、对话
    下一讲将系统梳理生成式 AI 的能力边界,并围绕"写作(Writing)、阅读(Reading)、对话(Chatting)"三类任务展开。


关键收获

💡 收获 1:"幻觉"是 LLM 的已知缺陷,使用时要有意识地核实
LLM 可能用自信的语气给出错误答案。这不是偶发事故,而是技术局限。在涉及事实、数据、医疗建议时,务必用可信来源二次验证。

💡 收获 2:LLM 最适合"没有标准答案"或"需要发散思维"的问题
当一个问题互联网上已有大量权威答案时,直接用搜索引擎更高效。当问题偏门、创意或主观时,LLM 才是最佳伙伴。

💡 收获 3:对话来回(迭代式提问)是提升 LLM 回答质量的关键技巧
不要只问一次,要像跟人对话一样补充上下文、追问澄清,LLM 会在来回中逐渐收窄到你真正想要的答案。

💡 收获 4:LLM 可以做有趣的即兴创作,但别用于高风险决策
给孩子讲个关于卡车的睡前故事?完全没问题。决定是否做手术?绝对不行。用途决定可信度阈值。

💡 收获 5:LLM 已经进入日常工具箱,但定位是"助手"而非"权威"
LLM 不是百科全书,也不是专业顾问,而是一个随时可用、有创造力、但也会犯错的思维伙伴。把它定位准了,它的价值才能被充分发挥。


重要引述

"A LM can sometimes make facts up — we call this hallucination."
(LLM 有时会编造事实——我们称之为"幻觉"。)

"Sometimes a back and forth with an LM is helpful too — it helps you give the right context to get the information you're looking for."
(有时候与 LLM 来回对话很有帮助——它能帮你给出合适的上下文,从而获取你真正需要的信息。)

"For something more esoteric... there aren't any web pages on coffee infused pineapple pies — this would be one example where an LM can help be a thought partner."
(对于更小众的需求……网上几乎找不到关于咖啡味菠萝派的网页——这就是 LLM 能作为思维伙伴发挥价值的一个例子。)


总体结论

本讲的价值在于它非常接地气:没有艰深的技术原理,而是直接给出"什么时候用 LLM、什么时候用搜索引擎"的决策框架,并用菠萝派、脚踝扭伤等生活场景说明。核心结论是:LLM 是思维伙伴,而非权威信源。在模糊、创意、发散性任务上,LLM 是绝佳工具;在有明确答案的事实性或高风险问题上,传统搜索和专业权威仍然不可替代。这个判断力框架对任何开始使用 AI 工具的人都极为实用。


逐字稿(中文翻译)

可以访问大语言模型的网页界面有很多。ChatGPT 是最广为人知的一个,Google 的 Bard、Microsoft 的 Bing 以及其他一些平台也都表现不错。让我们来看看人们是如何使用这些 LLM 应用的。无论你是否已经在日常使用它们,我希望这能给你一些新的思路,让你了解它们在哪些场景下可能对你有帮助。

LLM 提供了一种获取信息的全新方式。例如,你问它"南非的首都是什么?",它会给出这样的回答。不过,正如我们稍后会讲到的,LLM 有时候会编造事实——我们称之为"幻觉"(hallucination)。因此,如果你真的需要一个准确答案,在正式使用前最好用权威资料核实一下。但在这个例子里,它确实正确地给出了南非的首都(或者说三个首都)。

有时候,与 LLM 来回对话很有帮助。例如,你问"LM 代表什么意思?",它可能会回答"LM 是法律领域的一个术语"——这实际上也是互联网上 LM 这个缩写的一个常见用法。但如果你接着追问"那在 AI 语境下呢?",它就会说"在 AI 语境下,LM 指的是大语言模型(Large Language Model)"。所以,这种来回对话有助于你给 LLM 提供正确的上下文,从而获取你真正想要的信息。

LLM 还可以作为思维伙伴,帮你梳理问题。例如,我经常用 LLM 来帮我打磨写作。你可以告诉它"请改写这段话,让它更清晰简洁",优秀的 LLM 确实很擅长为你重写文本。

这里还有一个有趣的例子:你可以让它"写一个 300 词的涉及卡车的故事"——比如你有个喜欢卡车的孩子(就像我儿子一样),你想用故事来鼓励他刷牙。LLM 确实能创作出挺有趣的故事。我觉得这远比不上伟大小说家的水准,但作为一个临时快速生成的东西,我觉得还不错。

现在,有时候你在寻找某个信息时,可能会想:我应该用网络搜索还是用 LLM?

举个例子:如果你在运动中不幸扭伤了脚踝,想知道该怎么处理,网络搜索能带你找到权威且可信的资源,比如梅奥诊所或哈佛健康的网页,这些来源对医疗类问题的建议是值得信赖的。当然,你也可以问 LLM 扭伤脚踝怎么办,它会给你一些回答。但鉴于 LLM 有时会一边编造内容、一边听起来非常自信的倾向,对于任何医疗或健康相关的建议,我建议在采纳之前务必二次核实。

再举一个例子:如果你想烤一个菠萝派,在网上搜索食谱会发现大量结果,选一个来自可信网站或知名厨师的食谱,通常能得到不错的成品。或者,你也可以让 LLM 给你"编"一个食谱,它会给出一个也许还行、但也很可能有点奇怪的方子。所以对于菠萝派,我还是建议去网页上找——因为网上有很多稳定可靠的好食谱。

但如果你想找一个更偏门的方子——比如朋友给你出了个难题,让你做一个"咖啡味菠萝派",那我找了一圈,确实几乎没有相关网页。这就是 LLM 可以作为思维伙伴的一个典型场景——帮你想想怎么去烤一个咖啡味菠萝派。

以上就是你可能会发现 LLM 网页界面有用的一些任务类型。本周我们还会探索更多例子,讨论 LLM 的优势与局限,并介绍一些最佳实践。正如你从本视频中看到的,生成式 AI 能做的事情非常多样。在下一个视频中,我们将更系统地讨论生成式 AI 作为一项通用技术的定位,并梳理它能做的事情——包括写作、阅读和对话这三大类。让我们接着来看。


本文档根据视频字幕整理翻译,内容为 DeepLearning.AI "Generative AI for Everyone" 课程第一周第三讲。

中文配音 · 可下载

LLM:你的思维伙伴

下载 MP3
想直接聊聊这篇?扫码加我 →

相关阅读