撰文:巴斯大学人工智能教授 Nello Cristianini
来源:
图片来源:由工具生成
本周,一群知名的人工智能研究人员签署了一份由 22 个英文单词组成的:
减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他社会规模的风险如疫情和核战争并列。
作为人工智能领域的一名教授,我也赞成减少此类风险,并准备亲自为之努力。但是,任何以这种方式措辞的声明都必然会引起恐慌,因此其作者可能应该更具体,并澄清他们的担忧。
根据《大英百科全书》的定义,是“一个物种的消亡或灭绝”。我见过该声明的许多签署者,他们都是该领域中最有声望,最为可靠的科学家 — 他们当然是出于好意。然而,他们没有给我们提供这样一个极端事件可能发生的具体场景。
这并不是我们第一次处于这种境地。今年 3 月 22 日,一份由不同企业家和研究人员签署的要求暂停人工智能部署六个月。在生命未来研究所(Future of Life Institute)网站上的**书中,他们提出了自己的理由:“对社会和人类的深刻风险,正如广泛的研究和**人工智能实验室所承认的那样”– 并在他们的请求中列出了一系列反问:
我们应该让机器用宣传和谎言充斥我们的信息渠道吗?我们应该把所有的工作都自动化吗,包括那些有意义的工作?我们是否应该开发非人类思维,使其最终超过我们,胜过我们,淘汰我们并取代我们?我们应该冒着失去对我们文明的控制的风险吗?
普遍的警觉
毫无疑问,在带来诸多好处的同时,这项技术也带来了风险,对此我们需要认真对待。然而,前面提到的情景似乎都没有勾勒出灭绝的具体途径。这意味着我们只有一种普遍的警觉感,而没有任何可能的行动可以采取。
**声明出现在(Centre for AI Safety)的网站上,该网站在一个单独的部分概述了,包括人工智能的“武器化”,被用来操纵新闻系统,人类最终变得无法自我管理的可能,为压迫性政权提供便利,等等。
OpenAI 首席执行官 Sam Altman 于 2023 年 5 月 16 日在美国国会作证。
除了武器化,不清楚其他风险(仍然是可怕的)将如何导致我们这个物种的灭绝,而把它说清楚的重担落在了这一声明的作者身上。
当然,武器化是一个真正令人担忧的问题,但这意味着什么也应该得到澄清。在其网站上,人工智能安全中心的主要担忧似乎是使用人工智能系统设计化学武器。我们应该不惜一切代价防止这种情况发生——但化学武器已经是被禁止了的。灭绝是一个非常具体的事件,需要非常具体的解释。
5 月 16 日,在美国参议院的上,开发了 ChaPT AI 聊天机器人的 OpenAI 首席执行官 Sam Altman 两次被要求阐明最坏情况。他**回答说:
我最担心的是,我们(这个领域、这项技术、这个行业)对世界造成重大伤害……这就是我们创办公司的原因 [以避免这种未来]…… 我认为如果这项技术出了问题,它可能会出大问题。
但是,尽管我强烈支持尽可能地谨慎,并且在过去十年中也一直公开强调,但保持分寸很重要——尤其是在讨论一个拥有 80 亿个体的物种的灭绝时。
AI 会造成必须真正避免的社会问题。作为科学家,我们有责任了解它们,然后尽**努力解决它们。但第一步是命名和描述它们——并且要具体。
文章标题:观点:在给 AI 贴上“灭绝风险”的标签前,还请具体澄清担忧
文章链接:https://www.btchangqing.cn/539438.html
更新时间:2023年06月02日
本站大部分内容均收集于网络,若内容若侵犯到您的权益,请联系我们,我们将第一时间处理。