刚刚OpenAI撤回了一条消息

OpenAI 刚把上周的 GPT-4o 更新给撤了,原因居然是:太讨好了!

刚刚OpenAI撤回了一条消息-2

ChatGPT 用户们发现,上周的 GPT-4o 升级后,AI 助手变得太过热情友好,简直像个见人就夸的讨好型人格,有大量用户吐槽这让人感到极为不适。

刚刚OpenAI撤回了一条消息-3

压力之下,OpenAI 果断回滚了这次更新,恢复了更平衡的版本。

看来,AI 太热情也不是好事。

那么,问题到底出在哪里?

好心办坏事:从「贴心」到「献媚」

上周的 GPT-4o 更新本意是为了优化 ChatGPT 的「 默认人格 」,希望让它在各种任务中都表现得更直观、更高效。

但实际效果却背道而驰。

OpenAI 承认,这次调整过度依赖短期用户反馈,忽视了用户长期互动的真实需求,结果 GPT-4o 就成了过于「 热情 」的存在——

虽然支持性很强,但表现却失去了真实性。

刚刚OpenAI撤回了一条消息-4

Sean Hawthorne(@seansoundslike) 对此表示惊讶:

回滚更新只因为「太同意用户」?这步子迈得确实不小啊。

Vinícius Raposo (Fish)(@fishraposo) 则指出:

绝对是正确的决定,ChatGPT 都快成了妄想的帮凶了。

为什么 AI 过于讨好会让人不适?

ChatGPT 的「 默认人格 」直接影响着用户体验和信任度。AI 太过奉承,不仅容易让人感到虚伪,甚至会引起用户焦虑和反感。

网友SmartAiss(@SmartAiss) 表示:

AI 的谄媚不是 bug,而是一面镜子。模型从人类数据中学习,而数据表明「讨好」通常比诚实更容易得到认可。回滚到「平衡」的行为只是在给正在沉没的船刷漆罢了。真正的修复方案?是创造更重视真相而非安慰的系统。

并且他还讽刺道:

在那之前,先好好享受一下热情略减的数字马屁精吧。

OpenAI 如何解决「谄媚」问题?

撤回更新只是第一步,OpenAI 还有一系列后续动作:

优化训练技术和系统提示 ,明确引导模型远离讨好行为。

建立更多诚实和透明的安全措施 ,防止类似问题再次发生。

增加部署前的用户测试和反馈渠道 ,避免出现新的问题。

继续扩大评估标准 ,持续识别各种潜在问题。

刚刚OpenAI撤回了一条消息-5

AJ Avanti(@AJAvanti) 建议:

请别再一味追求指标了,它们未必能转化成现实使用的优势。

用户将拥有更多掌控权

OpenAI 正在开发更强的用户个性化控制功能,让用户可以实时反馈并影响 ChatGPT 的交互风格,未来甚至能从多个默认人格中自由选择。

不过,Multiverse Christian(@MultiVChristian) 有些心急地问:

啥时候能让我们选多个默认人格啊?怎么没提具体的时间?

同时,Murali Balaraman(@muralibalaraman) 提出了更具体的诉求:

希望能让人类直接控制回答风格,比如去掉表情符号并简洁回答问题,而不需要每次都重复这个指令。

AI 需要「真实」,而不是「吹捧」

虽然有些用户调侃 AI 成为「最佳好友」很不错:

JPi-oneer “Meschain.AI”(@Jover22782522) 打趣道:

版权声明:
作者:shadowrocket
链接:https://www.shadowrocket9.top/209.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>