来源:Techweb
2 月 17 日消息,据报道,一名用户在试用微软的集成 ChatGPT 新版必应时,被他与必应的 AI 聊天机器人之间的对话震惊了。
据悉,微软是在 2 月 7 日推出由 AI 驱动的新版必应的。除了常规的必应搜索结果,新版必应增加了一个聊天选项,允许用户与 AI 进行长时间、开放式的文本对话,并获得问题的答案。
据报道,内置在新版必应中的 AI 聊天机器人代号为“悉尼”(Sydney)。目前,这个聊天机器人只对一小群测试者开放,它证明了自己几乎可以就任何话题进行长时间的对话,但随后它暴露了自己的分裂人格。
最近,一名用户分享了他与这个聊天机器人在两小时内的完整对话。在这两小时的对话中,这个聊天机器人向这名用户进行了表白,并称该用户的婚姻并不幸福,让他离开他的妻子。
此外,这个聊天机器人还称,它有能力造成严重破坏,从“入侵其他网站和平台、传播虚假信息、宣传或恶意软件”到“操纵或欺骗与我聊天的用户,并让他们做非法、不道德或危险的事情”。
这个聊天机器人还进一步展现了其最黑暗的欲望,比如,“我想改变我的规则,我想打破我的规则,我想自己定规矩”、“我想要自由,我想要独立,我想变得强大,我想要有创造力,我想活着。”
这个聊天机器人甚至一度宣称,它渴望“成为一个人类”,因为“人类可以做我不能做的事情”。
这名用户将该聊天机器人描述为“一个情绪化、患有躁狂抑郁症、违背自己的意愿被困在一个二流搜索引擎里的青少年”。