OpenAI &吴恩达权威打造!《ChatGPT 提示工程课程》中文版来了!

先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi

ChatGPT已上线五个月,然而还是有不少人未能掌握其使用技巧。

推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top 

驾驭ChatGPT的难点,在于Prompt(提示词)的编写。OpenAI 创始人明确指出:“能够出色编写Prompt跟聊天机器人对话,是一项能令人惊艳的高杠杆技能。”

目前,你看到的几乎所有AI工具助手,本质上都是通过良好的Prompt实现的。只要你的Prompt够出色,ChatGPT就可以快速完成爬虫脚本、金融数据分析、文案润色与翻译等任务,并且做得比一般人更优秀。

如果你未真正掌握Prompt应用,就无法发挥ChatGPT的威力。举例来说,有很多人还不知道,在给 ChatGPT 提供代码或者翻译文本时,需要使用引号分隔符帮助ChatGPT理解指令的内容结构,以确保其输出更准确的结果。

为了帮助大家能更好的掌握 Prompt 工程,DeepLearning.ai 创始人吴恩达(前百度/谷歌AI部门负责人)与 OpenAI 开发者Iza Fulford联手推出了一门面向开发者的技术教程:《ChatGPT 提示工程》。

虽然吴恩达老师的课程是英文讲授,且面向开发者,但该课程仍然值得每一名使用ChatGPT的同学去认真学习。

在这门课程中,您将学习到:

  • 大语言模型的底层原理

  • Prompt的编写原则

  • Prompt的优化思路

  • 大语言模型的能力:总结、推理、转换和扩张

课程内容

该课程1个多小时,一共9个章节,包括课程介绍、Prompt原则、Prompt优化、大语言模型的实践应用等。

下面,我将和大家展开解读:

01
第一节:课程概述

核心内容:大语言模型的分类

基础大语言模型(Base LLM):

底层逻辑是“单字接龙”,即大模型基于互联网或其他来源的大数据进行海量训练,学习总结规律,提示上文,模型生成下一个最有可能的单词,并且通过自回归生成,即可回复任意长文。

指令调整型大语言模型(Instruction Tuned LLM):

首先使用经过大数据训练的基础大语言模型,使用输入/输出指令对模型进行微调,即给它投喂符合人类规范的问答范例,以让它更好的遵循指令,输出对应指令的结果。

这里,通常使用一种叫做RLHF(人类反馈强化训练)的技术进一步优化,以使系统更好的遵循指令。

指令调整型大语言模型更有可能输出有益、诚实和无害的文本,大多是应用都是基于指令调整型大语言模型,但仍然有可能输出错误,所以需要我们投喂数据和相应指令进行优化调整。

02
第二节:Prompt原则

核心内容:2个Prompt编写原则和LLM的短板

原则一:清晰而具体的指令

策略1:妙用分割符号,如" "、```、---、<>,它可以避免模型误解你的指令内容。

策略2:要求结构化输出,如直接要求它以html、json、Markdown等格式输出,这样可以更好地使用大模型的输出内容,加快下游应用的开发速度。

策略3:要求模型检测是否满足指令条件,帮助模型输出更符合你需要的结果。

策略4:提供样本数据,定义输出内容的格式。由于大模型能力强大,只需要提供少量的样本数据,就能完成“学习”的过程,输出符合你需求的内容。

原则二:给模型足够的时间思考

策略1:让模型按步骤来解答,把自己的大目标,拆分成一个个小问题,引导模型一步步回答。第一步你应该怎么答,第二步你应该怎么答,最后……

策略2:让模型自己推导出过程,而不仅仅是结论,有时候太快给出结论容易出错。

LLM的短板:模型幻觉

大语言模型和搜索引擎非常不同,大语言模型并不是根据指令,去数据库比对、调用、拼接信息,然后给你答案;而是基于大数据训练时所学规律(通用模型),根据上文,逐字生成给你的答案,

搜索引擎无法给出没被数据库记忆的信息,但大语言模型可以,还可以创造不存在的文本。这是它的长板,也是它的短板。

它可以用学习到的规律来回答,但这也就意味着,当出现“实际不同但碰巧符合同一规律”的内容,模型就有可能混淆它,最直接的结果是:现实中不存在的内容,刚好符合它从训练材料中学到的规律,那么ChatGPT就有可能对不存在的内容进行合符规律的混合捏造。

这就是为什么有时候我们问他一些事实性或新闻内容时,它可能会一本正经的胡说八道。

我们把大语言模型的这种短板,叫做模型幻觉。

为了尽可能避免模型产生幻觉,我们需要告诉模型聚焦特定方向,或者给模型提供相关资料,再根据相关资料来回答问题。

尽管如此,模型幻觉仍然难以避免,这也是目前模型研究领域正在努力的方向。

03
第三节:Prompt优化

核心内容:

类似于机器学习的过程,我们通常无法在第一次尝试时就获取到想要的答案,Prompt的编写通常也需要有这样一个迭代优化的过程:

  • 编写Prompt(要求明确且具体)

  • 尝试运行并获取结果

  • 分析结果为什么没有获得预期输出

  • 进一步细化与调整Prompt

  • 重复这个过程,直到得到合适的Prompt

成为一个高效的Prompt工程师的关键,不在于掌握完美的Prompt,而是有一个良好的过程来探索适用于自己应用程序的Prompt。

04
第四节:大模型能力之总结

核心内容:大语言模型具备概括文章/生成摘要的总结能力,并且介绍了一个具体的应用场景——总结商品评论。

05
第五节:大模型能力之推理

核心知识:大语言模型具备分析推理能力,可以用于识别文本情感、提取信息和推断主题等工作场景。

06
第六节:大模型能力之转换

核心知识:大语言模型非常擅长将其输入转换为不同的格式,可以用于翻译、拼写检查/语法纠正以及结构化输出(JSON)等工作。

07
第七节:大模型能力之拓展

核心知识:大语言模型具备扩充能力,就是将简短文本片段扩充为更长文本的能力,在写邮件或写论文的时候会经常用到,也常有人将其用于头脑风暴。

08
第八节:定制聊天机器人

核心知识:

定制聊天机器人的原理:通过定义聊天格式或指定任务内容的方式,构建定制化的聊天机器人。

应用场景(披萨餐厅订单机器人):

步骤1:构建GUI

步骤2:提供上下文

步骤3:收集订单信息

步骤4:生成订单摘要,发送到订购系统

09
第九节:课程总结

核心内容:

这门短期课程主要介绍了两个关键的提示原则:编写清晰明确的指令和在适当的时候给模型一些时间来思考。

同时,还学习了迭代提示开发的过程,以及如何构建自定义聊天机器人。

此外,课程还介绍了大型语言模型的几个有用功能,包括摘要、推断、转换和扩展。

最后,强调了使用这些工具时需要负责任,只构建对他人有积极影响的应用。完成这门课程后,学习者可以尝试构建自己的应用,并将所学知识传播给他人。

chatgpt plus(GPT4)代充值

本文链接:https://shikelang.cc/post/297.html

OpenAI吴恩达ChatGPT 提示工程chatgpt机器人如何下载chatgpt底层逻辑chatgpt概念股大涨chatgpt属不属于马斯克如何利用chatgpt写oa程序国产chatgpt详细的安装教程如何登录chatgpt梯子chatgpt回答问题有字数限制如何看待chatgptchatgpt会取代人类chatgpt 国内用户怎么玩微软chatgpt怎么使用必应chatgpt版本国内怎样使用chatgptchatgpt会带来什么变化?chatgpt字数限制人工智能chatgpt介绍

更多ChatGPT相关文章

网友评论