澳洲谷歌和微软的人工智能搜索聊天机器人就在这里,但它们并不完美。这就是为什么他们把事情弄错了

在澳大利亚中文新闻




科技巨头谷歌和微软本月早些时候推出了运行在人工智能 (AI) 上的搜索引擎聊天机器人,但两者都已经遇到了问题。

他们已经将虚假信息当作真实发布,变得困惑,并且在某些情况下据称行为不正常。

让我们来看看为什么 AI 聊天机器人并不完美,您实际上可以信任它们多少,以及为什么专家很高兴有人已经在尝试破解它们。

Google 和 Microsoft 的 AI 聊天机器人首次亮相就犯了错误

本月早些时候,谷歌的母公司 Alphabet 股价下跌,原因是一段视频宣布其聊天机器人 Bard 包含来自 AI 的事实错误响应。

< p class="_39n3n">Bard 说地球太阳系外行星的第一张照片是由 James Webb Spa 拍摄的ce Telescope,NASA 证实它是错误的。

当时,Google 表示该错误突出了“严格测试过程的重要性”,并表示正在将外部反馈与自己的反馈相结合评估以“在真实世界的信息中达到质量、安全和基础性的高标准”。

这是出现错误的剪辑:

差不多一周后,微软的 Bing 聊天机器人——它使用了 OpenAI 创建的流行 ChatGPT 聊天机器人的一些技术——在其第一个演示中也出现了错误。

独立 AI研究员 Dmitri Brereton 报告说,Bing 的第一个 AI 演示包含多个错误,包括要求它搜索的真空吸尘器的错误产品详细信息,以及要求它总结公司财务报告时的错误数字。

“我很震惊 Bing 团队制作了这个充满不准确信息的预录演示,并自信地向世界展示它,就好像它是好的一样,”布雷顿先生写道。测试人员,虽然谷歌被指责“拙劣”推出

成千上万的人正在慢慢获得测试新 Bing 的权限,社交媒体上出现了更多据称的错误。

p>

虽然很难验证所有屏幕截图的合法性——其中一些可能是由喷子创建的——微软承认它知道其系统存在一些问题。

< p class="_39n3n">当被问及为什么谷歌的 AI 机器人在第一次演示时失败时,Bing 据称给了这位 Reddit 用户一个错误的答案,错误地告诉他们巴德答错的问题是关于欧盟国家的数量。

据称它告诉他们欧盟有 26 个国家,而实际上有 27 个。

测试人员报告说,Bing 有时会混淆它是哪一年,使用争论性语言,说它通过网络摄像头监视 Microsoft 开发人员,做错了数学问题,或者只是提供了不正确的信息。

还有报道称 Bing 显示种族歧视和 COVID-19 错误信息。

据称其他人已经看到它失去了机器人思维。

一些 Bing 用户还看到聊天机器人将自己称为 Sydney,微软称这是它正在逐步淘汰的聊天机器人的内部代号。

在本周给 The Verge 的一份声明中,微软表示“预计系统可能会在此预览期间出错”,并表示反馈对于帮助它变得更好“至关重要”。

微软在其网站上表示,虽然新的 Bing 试图避免产生令人反感的内容或不正确的信息,但用户“可能仍然会看到意想不到的结果。

“Bing 的目标是将其所有响应都建立在可靠来源的基础上——但 AI 可能会出错,互联网上的第三方内容可能并不总是准确或可靠的,”该公司表示。

“Bing 有时会歪曲它找到的信息,您可能会看到听起来很有说服力但不完整、不准确或不恰当的回复。在根据 Bing 的响应做出决定或采取行动之前,请使用您自己的判断并仔细检查事实。”

据报道,在谷歌,一些员工称该公司“匆忙”推出 Bard和“拙劣”,在 ChatGPT 发布后据称导致了“cod去年这家搜索巨头出现了“红色”恐慌。

Google 的 Bard 系统没有像 Bing 那样迅速向公众测试人员开放,虽然这两个系统在当时都没有广泛使用写作,预计它们将在未来几个月内变得如此。

'谨慎行事':为什么AI 聊天机器人并不总是知道真相

Stela Solar 是澳大利亚科学机构 CSIRO 的国家 AI 中心主任,也是前微软 AI 高管。

她说 AI 聊天机器人是有缺陷的,因为它们仍在学习最信任哪些信息,而且还因为它们“举起了一面大镜子”来反映我们作为人类的身份。

“聊天机器人会出错,就像人们做的一样,因为它们是根据我们、我们的社会生成的数据进行训练的,”她说。

AI 错误降低了 Google 价值

随着长期竞争对手微软发起一场主导搜索引擎领域的运动,股价大幅下跌。

白墙上彩色的 Google 徽标。阅读更多

“他们使用大量数据,这些数据具有混合的准确性、混合的表示,有时有偏见,有时低于-表示和数据差距。

“是的,聊天机器人有产生虚假信息的风险。它们不一定是真理的来源。它们是导航我们所处的复杂数据和信息环境的方法。”

CSIRO 数据部门 Data61 的主管 Jon Whittle 说,虽然人工智能聊天机器人正在迅速改进,但感谢对于技术进步和人类在出现错误时修复错误,他们不应该总是被信任。

“一方面,拥有一个可以总结一大堆问题的系统是件好事相关网页。但真正的问题是,你能相信返回的输出吗?”他说。

“事实上它是用这种听起来非常对话的语言编写的——我认为有真正的危险是人们会把它当作事实,而实际上它不是事实。

“如果你真的想要事实,那么请谨慎行事。”

为什么有些人要“越狱”聊天机器人?

与许多新技术一样,人们正在通过越狱将 AI 聊天机器人发挥到极限。

在这种情况下,越狱涉及使用可利用的文本片段来说服聊天机器人暂时关闭其安全措施,从而使他们可能会泄露有关其基础操作的信息,或共享可能有害的内容。

n 发布后不久美国大学生 ew Bing 发现了一个漏洞,揭示了 Bing 在回答查询时应遵守的规则。

Whittle 博士说,聊天机器人用户,包括他自己,正试图找到这些漏洞是因为他们觉得很有趣,但也因为他们关心这项技术。

“他们正在努力提高人们对聊天机器人可能存在的各种问题的认识,我认为这是一件好事,”他说。 “它永远不会是 100% 正确的。”

Solar 女士说,找到聊天机器人中的漏洞“实际上对技术发展非常重要”。

“技术不是在只有积极意图的真空中完成的,”她说。

“这是人类天生的好奇心,想要真正测试工具能做什么,他们的潜力,以及他们可以贡献的价值。非常需要这样的技术,这样技术才能在真实的环境中发挥价值。

“所有这些交互都可能用于进一步训练聊天机器人如何回应他们被要求做的事情。搜索引擎是参加 AI“军备竞赛”的最佳场所?

Whittle 博士表示,虽然 AI 格局变化之快令人印象深刻,但谷歌等公司之间明显的“军备竞赛”微软表示事情可能发展得太快了。

“我认为这些公司值得——不是说他们会——只是放慢速度,”他说。

谷歌和微软认为人工智能将改变我们搜索网络的方式

Google 和 Microsoft 表示人工智能将把他们的搜索引擎转变为聊天机器人。

手持 Apple iPhone 的手的特写,上面显示了 Google主页阅读更多内容

“这些 AI 模型存在基本限制.毫无疑问,他们有一些很棒的应用程序,但我实际上并不认为将它们集成到搜索引擎中是对他们来说最好的应用程序。”

Solar 女士说虽然她不认为谷歌或微软的聊天机器人已经匆忙推向市场,但它们仍处于“测试状态”。

“我认为人工智能,尤其是聊天机器人,突然间让世界参与可能是有史以来最伟大的测试,人们亲身体验并与聊天机器人互动。”

她说她认为 AI 聊天机器人在工业应用中更有用,他们可以在特定数据上接受培训,使他们非常准确。

“我认为我们才刚刚开始真正看到聊天机器人的真正采用和影响以及如何它们可以以有意义的方式实施,”她说。

公司是否投资于负责任的 AI?

Solar 女士说,科技公司正在投入“大量投资”来构建安全和负责任的 AI 系统,这些系统也具有包容性并且适用于各种各样的人。

“没有什么是 100% 负责任的,因为人类行为、社会结构和社会偏见的现实生活背景总是存在,我们无法消除有效地或大规模地从我们的数据集中提取数据,”她说。

“但人们对消除数据集中的偏见有了更多的认识,对‘数据沙漠’和差距有了更多的认识在外面的代表。我已经看到甚至在澳大利亚内部的社区团体也聚集在一起填充其中一些数据集以确保代表性。

“负责任的 AI 的话题变得如此之大,以至于它实际上变得更像是一个负责任的人性和负责任的人类行为的问题,这是我们永远无法控制的。

“这就是为什么投资可以做得更好的技术,以及可以做得比以前的技术做得更好的设计,真的很关键。”


澳洲中文论坛热点
悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
联邦政客们具有多少房产?
据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联

澳洲新闻,澳大利亚华人网,澳洲华人论坛