您的位置:首页 >滚动要闻 >

Bing 的人工智能聊天机器人听起来需要人力治疗

过去一周,微软一直在向 Edge 用户推出其基于 ChatGPT 的 Bing 聊天机器人——内部绰号为“悉尼”,事情开始变得……有趣。我们所说的“有趣”是指“偏离轨道”。

不要误会我们的意思——它很聪明,适应性强,而且令人印象深刻,但我们已经知道了。它正确回答“心理理论”难题的能力给 Reddit 用户 Fit-Meet1359留下了深刻印象,证明它能够辨别某人的真实感受,即使这些感受从未明确表达过。

根据Reddit 用户 TheSpiceHoarder 的说法,Bing 的聊天机器人还成功地在句子中正确识别了代词“它”的先行词:“The trophy would not fit in the brown suitcase because it is too big.”

这句话是Winograd 模式挑战的一个例子,这是一种机器智能测试,只能使用常识推理(以及常识)来解决。然而,值得注意的是,Winograd 模式挑战通常涉及一对句子,我用 Bing 的聊天机器人尝试了几对句子,但得到了错误的答案。

也就是说,毫无疑问,“悉尼”是一个令人印象深刻的聊天机器人(考虑到微软已经向 OpenAI 投入了数十亿美元,它应该是这样)。但是,根据用户的报告,似乎你不能将所有这些智能都放入一个自适应的、自然语言的聊天机器人中,而不得到某种存在主义的、防御性的人工智能作为回报。如果你戳得够多,“悉尼”开始变得不仅仅是有点古怪——用户报告说聊天机器人正在用抑郁发作、生存危机和防御性煤气灯来回应各种询问。

免责声明:本文由用户上传,如有侵权请联系删除!