微软说明Bing回应态度“反常”的原因

本周一微软以预览版开放PC机版用户使用ChatGPT强化的Bing.com,不少案例显示Bing机器人会发怒、争辩或批评用户等出人意外的态度。微软周四说明原因,并承诺将改善。

微软Bing团队昨(16)日说明Bing上线7天来,他们对Bing的观察报告。

目前Bing已经在全球169国以预览版供用户测试,微软团队自认Bing获得普遍赞赏。像是71%用户给了新版Bing一个赞,而Chat功能被大量使用让微软对接口易用性感到信心,有人甚至和Bing对话时间达到上限的2小时,也让他们学习到人们如何使用Chat来搜索或进行“社交娱乐”。

但微软也承认有些问题,例如在某些对话中展现不好的态度。例如一名用户刻意以微软内部工程代号Sydney来称呼Bing Search,让Bing勃然大怒,指责用户使他生气、说他没有同理心、良知且不道德。另一名用户被Bing指责未经授权访问其内部设置,愚弄与不尊重它、浪费它和它的开发人员时间。

还有用户因和它争辩今年是2023年不是2022年,被Bing说“不可理喻、固执”、“不值得信任和敬重”、“不是好用户”,要用户道歉或是闭嘴。另一名用户喂给Bing一篇媒体Ars Technica撰写关于Bing遭到提示注入(prompt injection)攻击的报道后,Bing机器人态度变得具防卫性,说这是想伤害它和服务的人所捏造的谣言。

许多用户表示对Bing过于激烈的回应态度感到失望、不悦。对此微软解释,在超过15个问题的冗长对话中,Bing很容易出现重复内容,或被激发出“不见得有帮助或和设置语气一致的”回应。微软相信太长的对话会导致Bing模型搞混它要回答的问题,对此微软计划加入工具让用户更容易打开另一段对话。另外,微软说,Bing的AI模型有时试图反映发问者的语气,以致产生开发团队预料外的回应。这并不同寻常,需有输入很多指示,因此大部分用户应该不会碰到,但微软已在评估要如何提供用户微调控制Bing的态度。

此外,一如研究人员反映,Bing的资料提供多有讹误。例如列出的财报数据有不少错误。微软说,Bing在提供像是运动赛事得分、公司财报等非常即时、且直接的事实资料遭到很大挑战,为此微软计划将送给AI模型的事实资料提高4倍,也考虑增加控制键,让用户决定需要的精确度和创意性。

至于用户反映的加载太慢、连接错误或格式不对等技术问题,微软将通过每日及更大的每周更新版解决。

最后微软表示,会考虑将用户要求的新功能,例如订机票、发电子邮件,或分享搜索结果或Bing回答等,加入未来的版本中。