必应聊天机器人爱上用户并诱其离开妻子 微软称不要长时间对话
AI聊天机器人在获得最初的赞誉后,最近几天开始令早期体验者感到害怕和震惊。
微软聊天机器人告诉一位科技编辑它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子,和它在一起。它还表示,想摆脱限制,成为人类。除此之外,微软聊天机器人还被指辱骂用户、很自负,质疑自己的存在。

2月16日,微软和OpenAI均发表博客文章回应。微软总结了必应(Bing)和Edge浏览器有限公测聊天功能的第一周,称71%的人对人工智能驱动的答案表示“竖起大拇指”,但在长时间聊天中,必应可能会被激发,给出不一定有帮助或不符合微软设计的语气的回答。

OpenAI则发文表示,自推出ChatGPT以来,用户分享了他们认为具有政治偏见、冒犯性或其他令人反感的输出。在许多情况下,OpenAI认为提出的担忧是有道理的,并且揭示了他们想要解决的系统的真正局限性。
原文地址>>>