澳洲人工世界末日?人工智能的 5 个最糟糕的情况被揭晓——从类似终结者的杀手机器人到帮助恐怖分子开发致命的生物武器

在澳大利亚中文新闻




今天,总理里希·苏纳克 (Rishi Sunak) 对人工智能 (AI) 对人类的危险发出了严重警告。

虽然承认该技术在医疗保健等领域的积极潜力,但总理表示“人类可能完全失去对人工智能的控制”,从而带来“极其严重”的后果。

这一严重信息恰逢政府报告发布,并且在下周于白金汉郡举行的全球首届人工智能安全峰会之前发布。

参加此次活动的许多世界顶级科学家认为,在不久的将来,这项技术甚至可以用来杀死我们。

以下是人工智能消灭人类的五种方式,从新型生物武器的开发到自动驾驶汽车和杀手机器人。

从制造生物武器和杀手机器人到加剧公共卫生危机,一些专家严重关切人工智能将如何伤害并可能杀死我们

从制造生物武器和杀手机器人到加剧公共卫生危机,一些专家们严重担心人工智能将如何伤害并可能杀死我们

阅读更多内容 PM 警告称,人工智能可用于制造化学和生物武器

Rishi Sunak 列出了人工智能的风险如果不控制可能会导致

广告

杀手机器人

很大程度上是由于像《终结者》这样的电影,这是流行电影中常见的世界末日场景文化描绘了我们死于杀手机器人手中。

他们往往配备武器和坚不可摧的金属外骨骼,以及巨大的超人四肢,可以轻松压碎或勒死我们。

数据公司 Profusion 的首席执行官 Natalie Cramp 承认这种可能性是有可能发生的,但值得庆幸的是它可能不会在我们有生之年发生。

“我们距离机器人技术达到终结者般的机器有能力推翻人类的水平还有很长的路要走,”她告诉《每日邮报》。

“未来一切皆有可能……正如我们所知,人工智能远非万无一失。”

埃隆·马斯克 (Elon Musk) 旗下的特斯拉 (Tesla) 等公司正在开发旨在为家庭提供帮助的人形机器人,但如果它们以某种方式失控,麻烦可能会随之而来。

>

伯明翰大学教授 Mark Lee 表示,由于“人工智能的快速革命”,像终结者这样的杀手机器人“在未来绝对有可能”出现。

马克斯·泰格马克 (Max Tegmark) 是麻省理工学院的物理学家和人工智能专家,他认为人类的灭亡可能只是这个星球上生命规则的一部分 –适者生存。

根据学术研究,历史表明,地球上最聪明的物种——人类——对渡渡鸟等“低等”物种的死亡负有责任。

但是,泰格马克教授警告说,如果一个更强大、更智能的人工智能“物种”出现,我们很容易面临同样的命运。

更重要的是,我们不知道什么时候会死于人工智能之手,因为智力较低的物种无法知道。

Cramp 表示,短期内更现实的危险人工智能形式是开发用于军事应用的无人机技术,可以通过人工智能进行远程控制, “采取‘造成真正伤害’的行动”。

坚不可摧的杀手机器人的想法可能听起来像是直接从终结者中取出的东西(文件photo)

坚不可摧的杀手机器人的想法可能听起来像是直接从终结者中取出的东西(资料照片)

<源 src="/uploads/allimg/231027/10095645U-7.jpg" type="video/mp4">

了解更多 ChatGPT 可能是下一次网络攻击的罪魁祸首

ChatGPT 可以一份报告警告称,普通人可能会被欺骗进行网络攻击

广告

人工智能软件

新政府的重要组成部分报告表达了对以人工智能驱动的软件为代价而导致重要决策“失去控制”的担忧。

人类越来越多地将重要决策的控制权交给人工智能,无论是网球比赛中的千钧一发,还是法庭判决等更严重的事情,如中国。

但是,随着人类变得更加懒惰并想要外包任务,或者随着我们对人工智能能力的信心增强,这种情况可能会进一步加剧。

新报告称,专家们担心“未来的先进人工智能系统将寻求增加自身影响力并减少人类控制,从而可能带来灾难性后果”。< /p>

如果技术的编程不够谨慎,即使看似良性的人工智能软件也可能做出对人类致命的决定。

人工智能软件在社会中已经很常见,从安全屏障处的面部识别到数字助理和流行的在线聊天机器人(如 ChatGPT 和 Bard),这些机器人因提供帮助而受到批评出错误的答案。

“ChatGPT 和 Bard 等生成式人工智能应用程序产生的幻觉和错误是人工智能开发面临的最紧迫的问题之一,”Cramp 告诉《每日邮报》。

运行人工智能软件的巨大机器是它们还渗透到工厂和仓库,并在发生故障时造成悲惨的后果。

人工智能软件在社会中已经很常见,从安全屏障上的面部识别到数字助理和流行的在线聊天机器人,如 ChatGPT(如图)

人工智能软件在社会中已经很常见,从安全屏障上的面部识别到数字助理和流行的在线聊天机器人,如 ChatGPT(如图) ) 

什么是生物武器?

生物武器是产生和释放以导致疾病和死亡的有毒物质或生物体。

根据 1925 年《日内瓦议定书》和多项国际人道主义法条约,在冲突中使用生物武器属于战争罪。

但专家担心人工智能可能会自主制造新的生物武器可以杀死人类的实验室。 

广告

生物武器

今天在伦敦发表讲话时,总理里希·苏纳克还特别提到了化学和生物武器将人工智能制造的武器视为一种特殊威胁。

参与基于人工智能的药物发现的研究人员认为,该技术很容易被恐怖分子操纵来寻找有毒神经

分子的毒性可能比 VX 更强,VX 是英国国防科学技术实验室在 20 世纪 50 年代开发的一种神经毒剂,可通过肌肉麻痹致人死亡。

政府报告称,人工智能模型已经自主工作,可以订购实验室设备来进行实验室实验。

“人工智能工具已经可以生成具有单一简单功能的新型蛋白质,并支持具有所需特性组合的生物制剂工程,”它说。

“生物设计工具通常是开源的,这使得实施保障措施具有挑战性。

四位参与基于人工智能的药物发现的研究人员现已发现,该技术可以很容易地被操纵来搜索有毒神经毒剂

四位参与基于人工智能的药物发现的研究人员现已发现,该技术可以很容易地被操纵来搜索有毒的神经毒剂

阅读更多 自动驾驶汽车出现故障并驶向人行道  

一群朋友在旧金山经历了几分钟的浩劫

一群朋友在旧金山经历了几分钟的严重破坏

广告

自动驾驶汽车

Cramp 表示可以“行驶”的人工智能设备类型在不久的将来,“流氓”并伤害我们的最有可能是日常物体和基础设施,例如出现故障的电网或出现故障的自动驾驶汽车。

自动驾驶汽车使用摄像头和深度感应“激光雷达”单元来“观察”并识别周围的世界,而它们的软件则根据情况做出决策这个信息。

然而,最轻微的软件错误都可能导致自动驾驶汽车冲撞行人群或闯红灯。

根据英国交通部的数据,到 2035 年,英国自动驾驶汽车市场价值将接近 420 亿英镑 - 届时,英国自动驾驶汽车市场价值将达到 40 亿英镑英国新车销量的 10% 可能具有自动驾驶功能。

但是,只有当人们相信自动驾驶汽车比人类驾驶更安全时,它们才能被广泛采用驱动程序。

它们长期以来一直停留在开发和测试阶段,很大程度上是由于对其安全性的担忧,这一点已经得到了强调。

早在 2018 年 3 月,亚利桑那州妇女伊莱恩·赫茨伯格 (Elaine Herzberg) 就被共享出行公司 Uber 的一辆原型自动驾驶汽车撞死,但从那时起,多起致命和非致命事故,其中一些涉及特斯拉车辆。

特斯拉首席执行官埃隆·马斯克是开发此类技术的最著名的人物和面孔之一,并且在谈到人工智能的力量时非常直言不讳。

> 紧急救援人员在加州山景城美国 101 号高速公路上一辆特斯拉电动 SUV 撞上护栏的现场工作

急救人员在加州山景城美国 101 号高速公路上一辆特斯拉电动 SUV 撞上护栏的现场工作

今年 3 月,马斯克和其他 1,000 名技术领袖呼吁暂停开发人工智能的“危险竞赛”,他们担心这对社会和企业构成了“巨大风险”。人类”,并可能产生“灾难性”影响。

公共卫生危机

根据根据政府报告,人工智能在短期内造成的另一个现实危害是“加剧公共卫生危机”。

如果没有适当的监管,社交媒体平台如Facebook 和 ChatGPT 等人工智能工具可以帮助在线健康错误信息的传播。

这反过来又可以帮助杀手微生物繁殖和传播,可能比新冠病毒杀死更多的人。

该报告引用了 2020 年的一篇研究论文,该论文指责来自“不可靠来源”的信息轰炸导致人们无视公共卫生指导并助长了冠状病毒的传播。

下一次大流行病即将到来。它已经在地平线上,而且可能会更糟比上一次造成的死亡人数多了数百万人(文件图片)

下一次重大流行病即将到来。它已经出现在地平线上,而且可能会比上一次杀死更多数百万人(文件图片)

如果人工智能确实杀人,那是不可能的这是因为他们有一种本质上邪恶的意识,但更重要的是人类设计师没有考虑到缺陷。

“当我们想到人工智能时,重要的是要记住,我们离人工智能真正“思考”或有感知能力还有很长的路要走,”克兰普告诉《每日邮报》。< /p>

'像 ChatGPT 这样的应用程序可以给人一种思考的感觉,它的许多输出可能看起来令人印象深刻,但它除了运行和分析数据之外什么也没做。算法。

'如果这些算法设计不当或其使用的数据在某种程度上存在偏差,您可能会得到不良结果。

“在未来,我们可能会达到这样的程度:人工智能会满足构成意识和独立、深思熟虑的思维的所有条件,如果我们没有内置人工智能强大的保障措施,我们可能会发现它正在做非常有害或不可预测的事情。

“这就是为什么现在认真讨论人工智能的监管并仔细思考我们希望人工智能如何合乎道德地发展如此重要。”

伯明翰大学的 Lee 教授同意,主要的人工智能担忧在于软件而不是机器人——尤其是运行大型语言模型 (LLM) 的聊天机器人例如ChatGPT。

“我确信我们会看到机器人技术的其他发展,但就目前而言 - 我认为真正的危险本质上是在线的,”他告诉《每日邮报》。

“例如,法学硕士可能会被恐怖分子用来学习制造炸弹或生化威胁。”

埃隆·马斯克对人工智能的评论时间表

马斯克长期以来一直是人工智能技术和人类应采取的预防措施的强烈谴责者

马斯克长期以来一直是人工智能技术和人类应该采取的预防措施的直言不讳的谴责者

埃隆·马斯克是技术开发领域最著名的人物和面孔之一。

这位亿万富翁企业家领导着 SpaceX、特斯拉和 Boring 公司。

但是当他站在最前沿时在创造人工智能技术的同时,他也敏锐地意识到其危险性。

这是迄今为止马斯克对人工智能的所有预感、想法和警告的综合时间表。

2014 年 8 月 - “我们需要对人工智能非常小心。可能比核武器更危险。

2014 年 10 月 - '我认为我们应该对人工智能非常小心。如果我要猜测我们最大的生存威胁是什么,那可能就是这个。因此,我们需要对人工智能非常小心。”

2014 年 10 月 - “借助人工智能,我们正在召唤恶魔。”

2016 年 6 月 - “超智能人工智能的良性情况是,我们的智力远远低于我们,就像一只宠物,或者一个家猫。”

2017 年 7 月 - “我认为人工智能在文明层面上是有风险的,而不仅仅是在个人风险层面上,这就是为什么这确实需要大量的安全研究。”

2017 年 7 月 - “我接触到了最前沿的人工智能,我认为人们应该真正关心它。”

< p class="mol-para-with-font">2017 年 7 月 - “我不断敲响警钟,但直到人们看到机器人在街上杀人,他们都不知道如何反应,因为这看起来太虚幻了。”

2017 年 8 月 - “如果您不担心人工智能安全,那么您应该担心。风险比朝鲜高得多。”

2017 年 11 月 - “[确保人工智能安全] 的成功几率可能有 5% 到 10%。”

2018 年 3 月 - '人工智能比核武器危险得多。那么为什么我们没有监管呢?

2018 年 4 月 - “[人工智能] 是一个非常重要的主题。它将以我们现在无法想象的方式影响我们的生活。”

2018 年 4 月 - “[我们可以创造]一个不朽的独裁者我们永远无法逃脱。

2018 年 11 月 - “也许人工智能会让我跟随它,像恶魔一样大笑并说出现在谁是宠物。”

2019 年 9 月 - “如果高级人工智能(超越基本机器人)还没有被应用于操纵社交媒体,那么不久之后就会实现。”

2020 年 2 月 - “在特斯拉,使用人工智能解决自动驾驶问题不仅仅是锦上添花,而是锦上添花。”

2020 年 7 月 - “我们正走向人工智能比人类聪明得多的境地,我认为距离现在不到五年。但这并不意味着五年后一切都会陷入困境。这只是意味着事情变得不稳定或奇怪。

2021 年 4 月:“现实世界人工智能的一个主要部分必须得到解决,才能实现无监督、通用的全自动驾驶工作。”

2022 年 2 月:“我们必须解决人工智能的很大一部分问题,才能让汽车自动驾驶。”

2022 年 12 月:“训练人工智能被唤醒(换句话说,撒谎)的危险是致命的。”

特斯拉Rishi SunakRobotsEarthBard
澳洲中文论坛热点
悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
联邦政客们具有多少房产?
据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联

澳洲新闻,澳大利亚华人网,澳洲华人论坛

中文新闻

研究:孕前期对婴儿健康至关重要

澳大利亚我们在跑步比赛之前进行训练,我们学习是为了找到工作,我们存钱——甚至可能在假期和婚礼之前进行健康锻炼。但我们中没有足够多的人为可能是我们一生中最重要的事件做好准备 ...

中文新闻

令人心碎的犯罪震撼了我们的城市

澳大利亚21岁的莉莉·詹姆斯在CBD一所私立学校被谋杀,震惊了悉尼。最近,我们花费了太多的时间来面对国内外的人性黑暗。 正如首席记者乔丹·贝克本周所写,莉莉 5 月份才刚满 21 岁。这位 ...