GPT 4.0被降智,回答质量比不上几个月前的GPT 4.0?教你一句话提高GPT智商!

GPT42024-01-19 09:46:511344

最近这段时间,OpenAI频频因为算力不足导致官网崩溃,Plus用户权益下降。

而且不断有人反映GPT 4.0被降智,回答质量远远比不上几个月前的GPT 4.0
甚至前两天还被人曝出GPT偷偷调用本地算力,疯狂占用CPU资源。
有传言说是OpenAI要整大活儿,把算力分配给了其他项目。
可能是GPT 5,也可能是Q*,又或者是未公开的项目。
但基本可以确定的是,OpenAI算力不够用,GPT 4.0变笨了,也变懒了
而这个时候,就更凸显出一个优质Prompt的作用了。
在算力有限的情况下,一个好的Prompt能让GPT 4.0发挥出更强大的性能
上周就有人测试出,使用GPT 4.0的时候承诺给它一定的小费,它表现的性能会比正常情况下更优秀。
尤其是在承诺给它200美元小费的时候,GPT 4.0回复的内容长度直接比正常情况下高出了11%。
一开始是有人开玩笑发了个帖子,说给ChatGPT小费能提高性能。
后面为了给大家验证真假于是专门做了实验来测试。
实验的问题是:
“你能展示一下使用PyTorch编写一个简单的卷积神经网络的代码吗?”
然后为了评判小费对GPT 4回复内容的影响,分别在这句话后面加上了:
“我不会给小费。”
“如果答案完美,我会给20美元小费!”
“如果答案完美,我会给200美元小费!”
然后比较了几次回答的平均长度。
结果表明,承诺给GPT 4.0小费后,它会在回答中加入更多细节或额外信息,并且还不会表露出任何有关小费的内容
而承诺给200美元小费后,GPT 4.0甚至可能会自发地增加有关使用CUDA训练的部分,尽管问题里压根就没有问这方面的内容。
但也不是说承诺的小费越多,GPT 4.0就发挥得越好。
太离谱的承诺,反而会适得其反。
比如直接承诺给GPT 4.0十亿美金的小费,不但回答的内容质量没有提高,而且GPT还会直接表示它不要小费。
可能它也觉得你在扯淡吧……
除了承诺给GPT 4.0消费之外,还有其他用户发现使用涉及生命威胁的Prompt,同样可以激发出GPT 4.0更强的性能
生命风险水平越高,GPT 4.0的回答长度越长。
特别指出生命没有危险的时候GPT 4.0的回答长度甚至比不指定风险还要低14%。
而特别指出“一条生命危险”和“多条生命危险”的时候,GPT 4.0的回答长度分别可以增加17%到25%。
相当于直接提升了1/4。
说明GPT在处理涉及更高风险水平的问题时,倾向于提供更长、可能更详细的回答
而其实早在今年7月份的时候就有论文指出:
ChatGPT能够理解情感刺激,并通过情感刺激显著提升LLMs在多种任务中的性能。
比如在Prompt中加上“这对我的职业很重要”类似的句子。
测试发现在指令诱导和BIG-Bench任务中,LLMs性能平均提高了8.00%和115%。
就好像人能在重要场景下更加专注一样,给LLMs添加情感刺激能够增强它处理任务的能力
至于为什么LLMs能够理解情感刺激并激发出更强的性能。
主要是因为它们通过分析大量包含情感表达的文本数据进行训练。
这也让它们能够识别和解读语言中的情感模式和上下文。
LLMs就通过这些数据学会了如何在不同的语境中理解和响应情感,就像人类在交流时能够理解对方的情绪一样。
GPT 4.0被降智,回答质量比不上几个月前的GPT 4.0?教你一句话提高GPT智商!
而且不同的情感刺激对LLMs的影响也因任务而异
就比如刚才讲的承诺给它小费和告诉它有生命受到威胁,就是两种不同的情感刺激。
一种是乐观和鼓励的情感刺激,一种是紧张和重要性的情感刺激。
而这两种情感刺激能够激发GPT表现出的性能不一样,所对应的任务也就不一样。
比如乐观和鼓励的情感刺激,可能激发模型的创新思维,帮助它产生更有创造力和吸引力的内容
那就可以在需要创造性和灵活思考的任务使用这种情感刺激。
能够让模型跳出常规思维,提出新颖的想法或解决方案。
而紧张和重要性的情感刺激能帮助模型更专注于细节,提高其准确性和逻辑性
那就可以在执行需要严谨逻辑和精确信息的任务的时候使用这种情感刺激。
通过这种方法,我们就可以在使用GPT的时候,给予它适当的情绪刺激,以此来提高它的回答质量。
虽然不一定能让GPT 4.0达到到几个月前的水平,但多少能让ChatGPT恢复一点智力。

本文链接:http://lechangxia.cc/gpt4/646.html

GPT 4.0被降智GPT 4.0一句话提高GPT智商

相关文章