澳洲人工智能:当心p(doom)的先知,但不要忽视他们

在澳大利亚中文新闻




弗拉基米尔·普京威胁使用核武器,使所谓的“世界末日时钟”比以往任何时候都更接近午夜,也给新一代带来了噩梦般的景象。

这个时钟自 1947 年以来一直由《原子科学家公报》维护,今年 1 月份被提前了 10 秒,设置为距午夜 90 秒,这是全球灾难的隐喻时刻。

<图片类=""><源媒体="(最小宽度:1024px)" srcSet="https://static.ffx.io/images/$width_644/t_resize_width/q_86%2Cf_auto/033ca32f56ebfbd6b6745dfe026ff3afcea5fefd,https://static。 ffx.io/images/$width_1288/t_resize_width/q_62%2Cf_auto/033ca32f56ebfbd6b6745dfe026ff3afcea5fefd 2x"/>插图:Dionne增益

插图:Dionne Gain

新上映的电影奥本海默讲述了核弹的发明,恰逢其时,激发了人们对旧威胁的新恐惧。但这部电影讲述的不仅仅是核武器。

根据导演的说法,这是一个取材于过去的插曲,以告知现在:“我讲述奥本海默的故事,因为我认为这是一个重要的故事,但也因为它绝对是一个警示故事,”克里斯托弗·诺兰告诉伦敦的金融时报

具体来说,根据专家的说法,这是对人类在如何毁灭自己方面的最新突破的警告 - 人工智能。

“科技公司通常以非常激进的方式超越地理界限,这使得在主权国家的基础上监管[人工智能]变得非常困难,”诺兰说。

<源媒体=“(最小宽度:768px)”srcSet=“https://static.ffx.io/images/$zoom_0.252%2C$multiply_1.0159%2C$ratio_1.5%2C$width_756%2C$x_0%2C$y_12/t_crop_custom/q_86%2Cf_auto/1 c5f1a6f48e7e216901f804e8aeb3b6567d117dd,https://static.ffx.io/images/$zoom_0.252%2C$multiply_2.0317%2C$ratio_1.5%2C$width_756%2C$x_0%2C$y_12/t_crop_custom/q_62%2Cf _auto/1c5f1a6f48e7e216901f804e8aeb3b6567d117dd 2x" height="512" width="768"/>奥本海默能否让我们一睹未来或过去?

奥本海默能否让我们一睹未来或过去?图片来源:环球影业

该恐慌了吗?关于人工智能的大部分公众讨论已经陷入恐慌,专家们猜测人工智能将灭绝人类的可能性有多大。对于书呆子来说,他们有一个可爱的绰号来形容这种可怕的前景 - p(doom)。

ChatGPT 的发明者之一 Paul Christiano 在 5 月份表示,他的 p(doom) 是 50%。研究人员做出了有益的预测:“如果出于某种原因,上帝保佑,所有这些人工智能系统都试图杀死我们,它们肯定会杀死我们。”

广告

然而,根据牛津大学安全技术专家 Ciaran Martin 的说法,恐慌恰恰是错误的反应。 “避免对人工智能的恐慌真的非常非常重要,”说马丁是英国国家网络安全中心的创始首席执行官,该中心成立于 2016 年,是英国政府电子间谍机构 GCHQ 的一部分。

到底为什么? “首先,人工智能在我不完全了解的领域(例如诊断医疗保健)有许多潜在的好处,”他告诉我。 “但其次,当你想要保护某些东西时,让人们对此感到恐慌是一个非常糟糕的主意。

“我们从网络安全中知道这一点。 2010 年,《经济学人》 杂志有一个大头版,封面是 9/11 的城市天际线,据说是未来网络战争的愿景。

网络安全专家 Ciaran Martin:“网络安全是关于黑客代码......但它往往不会杀人。”

网络安全专家 Ciaran Martin:“网络安全是关于黑客代码......但它往往不会杀人。”图片来源:James Alcock

“网络战,来自互联网的威胁;这不是网络安全的运作方式,”马丁解释道。 “网络安全是关于黑客代码。二阶效应可能具有高度破坏性、极其昂贵、非常令人生畏,它会造成各种伤害,但往往不会致命。

“在网络空间引爆某种足以摧毁摩天大楼的爆炸几乎是不可能的。为什么这很重要?因为,除了吓唬人们之外,它还具有两方面的重要性。一是它会让人们感到害怕,让他们感到无能为力。”

马丁是牛津大学公共组织管理学教授,同时也是澳大利亚网络安全公司 Cyber​​CX 的顾问,他表示他必须提醒客户,他们并非无能为力,他们确实有代理权:“我们可以谈论乌克兰,这表明当防御者真正下定决心时,你知道,一切皆有可能。所以你不想在网络安全方面让人们变得幼稚。第二件事是,它可能会让你追寻错误的问题。”

他敦促政府和公司将潜在的人工智能问题分解为具体部分并逐一处理。

乔·拜登周五在白宫会见了来自主要人工智能公司的领导人。

乔·拜登周五在白宫会见了主要人工智能公司的领导人。图片来源:彭博社

例如,周五,多家美国科技公司与白宫达成协议,在人工智能制作的任何内容上加盖水印,以防止深度造假与现实。

美国总统乔·拜登表示,这是朝着负责任地使用人工智能迈出的一步,他形容这项技术“令人震惊”。水印协议是自愿的。签署者——谷歌、亚马逊、Meta、微软、OpenAI Anthropic 和 Inflection AI——表示他们会将其应用于文本、图像、音频和视频。但许多其他公司拒绝签字。其中包括 Midjourney,其产品被用来制作唐纳德·特朗普被捕的假视频。

其他国家正在尝试其他方式来监管人工智能。更广泛地说,中国共产党上周发布了针对中国人工智能开发商的指导方针,规定在任何新产品中使用“社会主义价值观”。实际上,这是要求所有允许访问中国互联网的人工智能程序都必须宣扬北京的威权世界观。

Loading

但总体而言,这是一项基本战略原则。正如克里斯托弗·诺兰所说,核弹的制造是对人类自我毁灭能力的警示。然而,只有两颗原子弹被用于愤怒,并且在过去 78 年里没有使用过一次。

这是一个关于相互保证毁灭逻辑的富有启发性的故事,一国的原子武库受到其他国家构成的威胁的控制。 Ciaran Martin 表示,类似的原则也适用于网络世界,即技术均衡的逻辑。

“人工智能可以用来扩展恶意软件吗?是的。但可以使用相同的技术来扩大防御规模吗?是的。此外,它可以用来扩展网络安全和解决方案吗?绝对可以。

“只要我们保持平衡,就可以做到这一点——可以为进攻做的事情也可以为防御做的事情,然后我们就能保持在一个好的位置。”当然,这种平衡可能会被下一次计算革命——量子革命——打破。事实上,如果我们选择这样做,总会有一些令人恐慌的事情。

加载

马丁说,我们喜欢认为“因为某事可能发生,所以它就会发生”。然而,世界末日时钟从未敲响过午夜。

那么,“是否有一个机器人可以通过编程,将汽油倒入烤面包机,然后将其打开?可能吧,但我认为你更有可能面临有组织的网络犯罪分子的有针对性的勒索或金融盗窃威胁。”换句话说,p(敲诈)比 p(毁灭)更有可能。

Peter Hartcher 是国际编辑。


澳洲中文论坛热点
悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
联邦政客们具有多少房产?
据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联

澳洲新闻,澳大利亚华人网,澳洲华人论坛