元启 · AI Research
/

生成式 AI 应用:写作

Generative AI Application — Writing

本视频是"人人皆可用的生成式 AI"课程第一周第五讲,专注于"写作"这一 LLM 核心任务类别的实际演示

YQ元启
·2026 年 5 月 12 日·7 分钟·studies·#generative-ai #andrew-ng #deeplearning-ai #week1

内容摘要

本视频是"人人皆可用的生成式 AI"课程第一周第五讲,专注于"写作"这一 LLM 核心任务类别的实际演示。吴恩达通过三个具体案例——头脑风暴创意名称、撰写新闻稿、翻译文本——展示了如何用网页界面型 LLM 完成写作任务。视频的核心洞察在于:提示词的质量决定输出质量,给 LLM 提供更多上下文,会得到更具体、更有价值的结果;第一次提示不满意是正常的,迭代改进是标准流程。


核心观点

  1. 写作任务的通用结构:短提示 → 长输出
    LLM 的写作能力来源于"预测下一个词"的训练机制,因此不意外,它们在写作任务中表现突出。典型写作任务的模式是:用一段相对简短的提示词,让 LLM 生成一段更长的文本输出。

  2. 头脑风暴是 LLM 写作能力的低门槛高价值入口
    无论是给花生酱饼干想名字("Nutty Nirvana Nibbles")还是寻找销售增长思路,LLM 都能快速生成多个有创意的建议,为人类决策提供丰富的起点,即使最终不全部采用,也能激发灵感。

  3. 上下文越丰富,输出越精准:新闻稿案例
    如果只告诉 LLM "写一篇关于新任 COO 的新闻稿",它会生成极其通用的模板文本(公司名称用占位符,COO 姓名用占位符)。但如果同时提供 COO 的简历、公司名称和背景信息,它就能生成一篇真正有价值的个性化新闻稿。

  4. 迭代提示是正常工作流,不是失败
    吴恩达明确指出:第一次写提示词往往不完美,看到输出后修改提示、再次尝试,这是完全正常的过程。本周后续视频会专门讲解写出有效提示词的技巧。

  5. LLM 的翻译能力极具竞争力,但低资源语言仍有不足
    对于互联网上文本资源丰富的语言(如印地语),LLM 的翻译质量已经能与专用机器翻译引擎比肩甚至超越。但对于"低资源语言"(互联网上文本较少的语言),质量会下降。有趣的技巧:用"海盗英语"作为翻译测试语——不懂目标语言的团队成员可以通过此方法间接验证翻译逻辑是否合理。


关键收获

💡 收获 1:提示词是写作质量的关键杠杆,上下文越多越好
不要只给 LLM 一个简单指令,把你知道的相关信息都告诉它。COO 的背景、公司特点、目标受众——这些信息越完整,输出越个性化、越有用。

💡 收获 2:把 LLM 当头脑风暴伙伴,而非最终决策者
LLM 生成的名字或建议不一定直接采用,但它能帮你在几秒钟内获得十几个方向,打破"白纸焦虑",这本身就是巨大的价值。

💡 收获 3:第一次不完美完全正常,迭代是标配
专业人士也需要反复修改提示词才能得到满意输出。把与 LLM 的交互理解为"草稿→修订"的写作流程,而不是"一键完成"的期待。

💡 收获 4:LLM 的翻译能力已经实用化,但专业校对不可缺
LLM 翻译的"前台"译成了"前面的桌子"而非"前台/接待处",说明即便是高资源语言的翻译也需要熟悉目标语言的人来校对。AI 是翻译的加速器,不是替代者。

💡 收获 5:"海盗英语测试法"是一个绝妙的多语言团队协作技巧
团队中没有人懂目标语言时,可以把翻译结果再翻译成"海盗英语"——如果语义逻辑基本保留,说明原翻译的结构是对的。这是一个创意十足的 AI 辅助 QA 方法。


重要引述

"If you can give the large language model more context or more background information, then it will write more specific and better copy for you."
(如果你能给大语言模型提供更多上下文或背景信息,它就会为你写出更具体、更好的内容。)

"I'll often not get the prompt right the first time — and that's totally fine. If you see the result isn't what you want, just revise the prompt and try again."
(我通常第一次写提示词都不对——这完全没问题。如果结果不是你想要的,修改提示词再试一次就好。)

"Some of the large language models you can access via web UI are competitive and sometimes even better than the dedicated machine translation engines."
(一些可通过网页界面访问的大语言模型,其翻译质量已与专用机器翻译引擎相当,有时甚至更好。)


总体结论

本讲是"写作任务"的实操演示课,以三个贴近真实工作场景的案例(头脑风暴、新闻稿、翻译)具体化了上一讲中的"写作"框架。最核心的教学点是**"上下文即质量"**——这个认知改变了许多人对 LLM 的使用方式,从"随便问问"升级为"策略性提示"。"海盗英语"翻译测试是本讲最令人印象深刻的创意洞察,展示了吴恩达团队在实际工作中摸索出的工程智慧。本讲为后续"提示词技巧"的专题视频做了铺垫,整体节奏轻快,非常适合初学者建立信心。


逐字稿(中文翻译)

在上一个视频中,我们把写作、阅读和对话作为三大任务类别来了解 LLM 能做什么。既然大语言模型是通过反复预测下一个词来训练的,它们擅长写作——也就是生成文字——也就不令人意外了。而且很多写作任务都可以通过网页界面来完成。我希望这个视频能让你马上用起来。

对于写作任务,我们通常的做法是:用一段相对简短的提示词,让 LLM 生成一段长得多的文本。让我们来看几个写作应用场景。

我经常把大语言模型的网页界面用作头脑风暴伙伴。如果你让它为花生酱饼干想五个创意名字,它真的能想出一些挺有创意的名字——比如"Nutty Nirvana Nibbles"(坚果涅槃小饼),我会吃的!或者让它头脑风暴一些提升销售的想法,它会给出几条思路,你可以看看哪些可能对你有用。

你也可以用大语言模型——网页界面版——来帮你写文案。来看一个例子:如果你让它写一篇宣布公司新任 COO 上任的新闻稿,它可能会生成这样的文字:"[公司名称]欢迎[COO 全名]担任……"等等,这是一篇相当通用的新闻稿。

在写提示词时,你会发现:如果你能给大语言模型更多上下文或背景信息,它就会为你写出更具体、更好的内容。如果 LLM 只看到"写一篇新闻稿",它根本不知道你的公司是什么、新任 COO 叫什么名字或者有什么资历,最终写出来的就是这种非常通用的东西。如果你最终用这个提示词得到了这样的结果,这不是问题——你可能会意识到自己得到了一篇很通用的新闻稿,然后决定更新提示词、补充更多信息。

比如这样提示:"请使用以下信息来写新闻稿:这是新任 COO 的简历,这是我们公司的名称和一些相关介绍。"然后 LLM 就能写出一篇更详细、更有针对性、真正属于这位 COO 加入该公司的新闻稿。

我发现在写提示词时,第一次往往不能写对——就像我们刚才看到的那样,第一次只写了"宣布新任 COO 入职的新闻稿"而没有给任何背景。这完全没问题——如果你看到结果不是你想要的,修改提示词再试一次就好。本周后面的视频中,我还会聊更多关于如何写出有效提示词的技巧。

再来看一个例子——我有时会用 LLM 来做翻译。事实上,一些可以通过网页界面访问的大语言模型,其翻译质量已经能与专用机器翻译引擎媲美,有时甚至更好,尤其是对于那些互联网上文本资源丰富的语言。在这些语言上,LLM 有足够多的数据来学习如何生成对应语言的文字,所以表现较好。相比之下,它在所谓"低资源语言"——即互联网上该语言文本较少——上表现会差一些。

如果你经营一家酒店,想把欢迎辞翻译成正式的印地语来欢迎客人,大语言模型也许能帮你生成这样的文字。不过我不会说印地语,我很希望自己会——结果这次翻译只是差强人意:它把"前台(front desk)"翻译成了"前面的桌子",而不是酒店"前台/接待处"的含义。如果你身边有一位说印地语的同事——我准备这张幻灯片的时候确实有——他们就能给你一些建议,告诉你这段印地语不够地道正式。但如果你让 LLM 把它翻译成"正式口语化的印地语",它就会更新这段文字,把"前台"正确地翻译成印地语中"接待处"的词,这就是一个更好的翻译了。

有一件事我最近在 AI 社区里看到越来越多,觉得很有趣:我们很多做翻译的人,经常需要把文字翻译成我们自己不会说的语言。那我们怎么判断大语言模型的翻译是否合理呢?即使团队里有一位会说印地语的成员,如果其他成员都不懂印地语,他们怎么知道发生了什么?所以我看到越来越多的 AI 团队这样做:把文字翻译成"海盗英语"来测试逻辑是否通顺。如果你让 LLM 把酒店欢迎辞翻译成海盗英语,你会得到:"哦嗬,船友啊,希望你好好享受这片海景……"听起来挺像海盗英语的!

这就是大语言模型在写作方面的用途。接下来,让我们去看看阅读类任务吧。


本文档根据视频字幕整理翻译,内容为 DeepLearning.AI "Generative AI for Everyone" 课程第一周第五讲。

中文配音 · 可下载

生成式 AI 应用:写作

下载 MP3
想直接聊聊这篇?扫码加我 →

相关阅读