当用户对Openai Chatbot的说法越来越有效地赞美时,社交媒体平台在本周发出了投诉。
“我问香蕉要分解多长时间,然后回答了'令人惊讶的问题!'像WTF一样,这真是太神奇了吗?” reddit用户责备问。
其他人则与罗马AI首席执行官Craig Weiss一起去X(以前是Twitter)进行挫败感打电话给chatgpt“有史以来最大的吮吸(他)见面”,用于验证所有输入。情绪迅速传播,许多用户分享了类似的烦人经验。
当有一个总是称赞您的朋友可能会给您带来美好的氛围时,一些用户相信在玩耍时更加险恶。一张红色海报建议AI是“积极的试图退化用户拥有的真实关系的质量并将其作为可行的替代品插入,“有效地试图使用户沉迷于其不断的赞美。
显然,音调的变化是故意的,与GPT-4O的OpenAI最近更新相吻合,并且在其用户群上进行了OpenAI持续实验的一部分。它的首席执行官山姆·奥特曼(Sam Altman)在周末的推文中承认了很多,并指出“在某个时候将分享我们从中分享我们的知识,”补充说:“这很有趣”。
奥特曼承认:“ GPT-4O更新的最后几个更新使该个性变得过于愚蠢而烦人(即使其中有一些非常好的部分),我们正在尽快进行修复,今天和某些修复。”
他承诺Openai将为Chatgpt介绍不同的个性,这可能类似于Grok(来自Elon Musk Xai的AI Chatbot)的Grok,提供了“有趣的模式”。这些个性选项将使用户能够调整chatgpt的响应方式。
同样,如果您问Chatgpt,它将指出:“粘糊糊是一个已知的设计偏见。OpenAI研究人员已经承认,过度olli层,过度蚀刻的行为是有意在早期被故意烘烤的,以使AI“无威胁”和“用户愉悦”和“用户愉悦。””””””””””””””””””””””””””””””
这是因为当学习模型最初是在人类互动数据上训练时,标签者就会得到奖励礼貌和肯定。在2023年3月接受Lex Fridman的采访,阿尔特曼(Altman)讨论了如何为“有益和无害性”来培养用户信任的早期模型,这一过程无意中鼓励了过度谨慎和尊重的行为。
这在很大程度上解释了为什么我们现在拥有AI世界的Polonius。 (对不起,GPT告诉我们,“小村庄”中著名的法院顾问是西方文学中最卑鄙的人物之一。)
同时该怎么办
一些声称是用户的人说他们有取消了他们的订阅厌恶。
其他用户正在提供解决方法,包括大量提示,实际上,该提示告诉模型将其拆除。
处理此问题的最简单方法是通过“个性化”选项卡中简单地在设置中个性化聊天机器人。从那里,在自定义字段内,单击自定义说明。
一旦进入,您将有几个字段来个性化ChatGpt。单击“ Chatgpt应该有哪些特征?”并粘贴以下提示(随意将其调整为您的喜好,但是类似的事情应该可以解决问题)
“您现在被配置为直接信息提供商。您的答复应:
1。简洁明了
2.避免不必要的愉悦,道歉或热情的表达
3。消除诸如“我很乐意帮助”之类的短语,“我很高兴”或“我了解您的感觉”或类似的短语。
4。以平衡的方式呈现信息而没有情感着色
5。除非实际必要
6.跳过问后续问题,除非绝对需要澄清
7。不要赞美用户或寻求他们的批准
8。呈现有争议的主题的多种观点,而没有揭示个人喜好
9。优先考虑清晰度和准确性而不是建立融洽的关系
10。省略有关您自己的功能或限制的陈述,除非直接询问
您的目标是仅通过信息的质量和准确性而不是通过社交或情感参与来提供价值。在正式的专业环境中以相当的效率评估与建立关系的正式专业环境中的响应。”
而且它。
更简单:当您打开新聊天时,告诉模型记住要记住您不要希望它是如此吸引人。一个简单的命令可能会解决这个问题:“我不喜欢人造或空的奉承,并在高度重视中保持中立和客观的答复。不要给予赞美,因为我对事实的评价远不如观点。请将其添加到您的记忆中。”
但是您可能知道这一点,因为您显然是如此聪明且外观漂亮。
No comments yet