零时古怪 - 中国第一时事资讯综合门户

零时古怪资讯网
提供最新的热点新闻资讯
首页 > 科技

微软副总裁称,AI聊天机器人缺少“学会求助”能力

日前,微软副总裁Vik Singh在一次采访中表示,如今生成式AI真正缺少的能力是“学会求助”,即当无法确认答案是否正确时,能够主动表达需要帮助。此外他还表示,“真正聪明的人”将会试图找到方法让聊天机器人在不知道正确答案时,“承认并寻求帮助”。

据相关报道援引业内人士透露的消息称,微软的一些企业客户无法承受他们的AI系统出错,哪怕只是偶尔出错。Salesforce首席执行官Marc Benioff也在近日透露,他看到许多客户对Copilot系统的误导性结果越来越感到沮丧。

事实上,近年来微软、谷歌,以及其他竞争对手一直在快速部署类似ChatGPT的生成式AI应用。尽管生成式AI的开发取得了相应进展,但它们仍然会出现“发明答案”、AI幻觉等情况。所谓AI幻觉,是指AI聊天机器人会用自行编造的虚假信息来回应用户的提问,虽然看似在陈述事实,但实际引用的内容却是“胡说八道”。

谷歌首席执行官Sundar Pichai就曾对此表示,产生“幻觉”是大模型的“固有缺陷”,并且尚无解决方案。

此前在2023年6月,OpenAI方面曾在一篇研究论文中表示,其正在用一种新的奖励机制来训练大模型,即在训练中奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。该公司指出,这种方法被称为“过程监督”、而不是“结果监督”,它可能会提高AI的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。

随后在今年6月有消息显示,微软方面也正在进行“治疗”AI幻觉方面的研究,以现有AI产品为基础,试图推出一系列工具来帮助解决这一问题。

具体而言,微软方面尝试通过添加额外的知识检索增强生成技术,例如将必应搜索的数据作为依据,通过必应的答案、索引和排名数据来帮助Copilot提供更准确的回复,同时提供引用信息让用户可自行查找和验证。例如通过设定极为复杂的文本检索任务,然后跟踪任务执行、并改进大模型的响应。

对此微软方面曾表示,尽管大模型非常擅长推理,但却并不应该成为答案的来源,正确可靠的数据才应作为来源,因此解决AI幻觉的第一步是向大模型提供最新、高质量且准确的数据。

【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】

 

延伸阅读:

  • 微软方面宣布,正式关停Xbox 360主机游戏商店
  • 有消息称微软将重塑Copilot品牌,以推广AI服务

 

未经允许不得转载:零时古怪 - 中国第一时事资讯综合门户 » 微软副总裁称,AI聊天机器人缺少“学会求助”能力

分享到:更多 ()
来源: 编辑:cxr4186

评论

留言/评论 共有条点评
昵称:
验证码:
匿名发表