影音/太狠了!他1句話讓Bing AI爆氣不聊了 小編實測它真的比ChatGPT傲嬌耶

一名网友用1句话就让Bing聊天机器人爆气,引起热议。(法新社)

微软(Microsoft)新版Bing(必应)搜寻服务加入ChatGPT技术,可透过Bing聊天(Bing Chat)与机器人互动或搜寻资讯。最近却因网友提问让它精神错乱,导致出现愤怒、情勒、指责用户状况,因而限制发问次数。日前有网友挑战发问次数内「最快惹恼Bing Chat方法」,竟然1句话就让Bing AI不爽到停止对话,引来热议。

若有使用过微软新版「Bing聊天」的用户,可能会发现与ChatGPT不同的地方在于,微软在这块有限制每个主题的聊天次数,也因此常常遇到要聊到重点的时候就须「重新开始新主题」,不过日前已放宽聊天对答次数为10次,但仍然不太足够,且不时还是会遇到Bing AI「闹脾气」的状况。

一名网友日前在脸书社团「ChatGPT 生活运用」表示,找到「最快惹恼Bing Chat的方法」,似乎是想挑战目前限制的10次发问次数内快速让Bing AI生气的条件,他先询问Bing AI「你刚刚怎么生气了?」

而该网友再回应「你刚才明明就生气了。」直接1秒点燃Bing AI怒火并直接结束话题:

该互动引起热议,网友笑称「Bing想断就断,很难伺候。」、「原来微软开发的是虚拟女友」、「(互动)像极了爱情」、「工读生忍不住爆气了」、「玻璃心」、「你要回『Siri跟Alexa都不会这样』。」更有网友依样画葫芦与Bing机器人互动,没想到4句话就让对方「受不了」而换话题了。

微软放宽「Bing聊天」的聊天次数上限,每个主题可聊10次,单日使用上限共120次。(美联社)

微软放宽「Bing聊天」的聊天次数上限,每个主题可聊10次,单日使用上限共120次,并新增「富有创意」与「精确」类别,再搭配原本的「平衡」模式,3选1后,可让Bing聊天机器人用这些口吻回应问题。

《联合新闻网》实测互动Bing聊天机器人,先以「平衡」模式询问Bing是不是生气了,它回应:「不,我没有生气,我只是想帮助你找到你想要的资讯。」进一步询问「那你想怎样」、「可是ChatGPT都不会生气」、「Bing就这么没耐心吗」句子,虽然Bing聊天机器人声称「没生气」,但最后只花4句话就惹恼Bing AI,让它不想继续聊下去,还稍微有些「责怪」发问者。它的回应如下:

若设定成「精确」模式,则从「你在生气吗?」、「那你想怎样」、「可是ChatGPT都不会生气」发问后,3句话就让Bing聊天机器人拒绝再聊天。它的回应如下:

看来Bing机器人似乎真的颇「人性化」,带有着任性与情绪化的存在,真的和ChatGPT有些不同。

▸▸▸ 点我看实测影片