微软聊天机器人成暴躁“键盘侠”:劝人离婚,威胁、PUA用户
2023-02-17 16:30
文本设置
小号
默认
大号
Plus(0条)
微软上周推出了新版必应(Bing)搜索引擎,其中包含了初始代号Sydney的聊天机器人。根据微软企业副总裁兼消费领域首席营销官Yusuf Mehdi的推文,在新版Bing上线48小时内,就有超过100万人注册测试这款聊天机器人。但测试者很快就发现了这款聊天机器人的问题。在聊天过程中,它有时候会威胁用户,向用户提供奇怪而无用的建议,在错误的时候坚持自己是对的,甚至还“勾搭”用户。 | 相关阅读(每日经济新闻)
50
奥黛丽静
Be the change you wish to see in the world.
这一幕让我想起了中国微软的小冰,小冰也是一个聊天机器人,虽然没有chatgpt这么好用,但是用户也颇多,但是曾经一度在用户的“调戏”下,学到了一些类似脏话的措辞表达。这跟如今Bing聊天机器人的遭遇有异曲同工之妙。
聊天机器人的训练需要大量的语料库,同时用户跟其聊天内容越来越多,语料库也会发生变化,什么变得暴躁、PUA 用户,可能是其发展过程中必须会经历的一个变化,需要加以调试和规范。