一个普通人入坑GPT的心路历程是怎样的?
初见GPT:惊为天人
再见GPT:效果好像不是很好啊
最后的GPT:乖乖待在回收站吧
看到这里是不是很多人都深有同感,包括以前的小编也是这样的
但是随着小编的奋发图强,废寝忘食,逐日研究,深入的了解大模型
哥们肤浅了,太肤浅了
所以不是大模型的能力不行,有可能,极有可能是你不会使用
要不然李彦宏会说未来会有一种职业叫提示词工程师,未来的50%的工作机会来自提示词工程,他还说,提示词工程师的门槛不高,做的好的话,可以轻松年入百万。
所以小编的任务就是教大家写提示词,让大家更好的使用大模型。
此前在新加坡首届GPT-4提示词工程大赛中,张席拉(Sheila Teo)摘得桂冠。
使用CO-STAR框架构建提示
CO-STAR框架,由新加坡GovTech的数据科学与人工智能团队创造,是一个非常实用的提示词构建模板。它考虑了所有影响LLM回应效果和相关性的关键因素,让我们得到更好的输出。
CO-STAR框架由六部分组成
1,(C-context) 上下文:提供任务上下文信息
2,(O-objective) 目标:明确你希望LLM完成的任务
明确目标能够帮助LLM集中回应,以达成特定目标。
3,(S-Style) 风格:指明LLM输出的写作风格
这可以是某位名人的写作风格,或某个领域专家的风格,比如商业分析师或CEO。这有助于指导LLM采用与你需求相符的表达方式和词语选择。
4,(T-tone) 语气:确定回应的情感态度
这确保LLM的回应和我们希望的回复情感相同。例如,正式、幽默、同情等。
5,(A-audience) 受众:识别回应的目标受众
让LLM的回应针对特定受众,比如(领域专家、CEO、初学者、儿童),保证其在所需语境中的适宜性和易懂性。
6,(R-response) 回应:指定回应的格式
这确保LLM按照你需要的确切格式输出,以便于后续任务。例如,列表、JSON、专业报告等等。对于大多数程序化处理LLM回应的应用而言,JSON输出格式将是理想选择。
下面我们来做一下对比,来看一下CO-STAR框架的实际用途
假如你是一名新媒体运营师,你要写一篇关于“安慕希”的种草文案
没有CO-STAR框架的是这样的:
帮我写一篇关于安慕希的种草文案
GPT是这样输出是这样的
其实这样写的是没毛病的,但是不是我想要的
有CO-STAR框架的是这样的
#上下文#
我想为我公司的新产品写一篇文案。产品名叫安慕希,是一款超级好喝的酸奶。
#目标#
为我创建一个小红书帖子,目的是让看到这篇帖子的人购买安慕希。
#风格#
小红书的种草风格。
#语气#
幽默的,有说服力的。
#受众#
我们的群体是6~18岁的年轻群体
小红书上的种草文案,简明扼要而又富有感染力。
GPT的回复是这样的:
这样就会更加符合我的想要表达的意思了,缺点就是没有给我配图。。。
最近小编在追求小美,索性看一下用CO-STAR框架生成的情书效果如何
#上下文#
我想为我暗恋对象写情书。我暗恋的对象叫小美,人美心善,我非常非常喜欢
#目标#
帮我写一封情书,让小美看到情书后就答应我
#风格#
鲁迅的风格
#语气#
幽默的,有说服力的。
#受众#
小美,年芳22
情书的格式,简明扼要而又富有感染力。
我只能说好肉麻啊!我好喜欢啊啊啊啊啊~~~
通过对比我们也就知道会写提示词和不会写提示词的差别有多大了
所以掌握提示词的方法真的很重要!很重要!很重要!
最后小编也整理了关于学习提示词的方法
系统学习推荐吴恩达教授的《提示词工程师课程》
链接如下:
Open AI的官方文档也帮大家找到了
链接如下:
最后给大家推荐的是通往AGI之路,上述的学习内容里面都有,还有很多提示词框架,大家可以参考这些大神的框架
好了,今天的任务圆满结束
都看到这里,记得去写一下提示词
扫码邀请进群,我们带你一起来玩转ChatGPT、GPT-4、文心一言、通义千问、讯飞星火等AI大模型,顺便学一些AI搞钱技能。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.