维塔利克(Vitalik)要求对AI开发的“软暂停”以减轻风险
以太坊联合创始人Vitalik Buterin提出了一项最后手段——“软性暂停”工业级计算力,以应对迅速发展的人工智能(AI)所带来的潜在风险
以太坊联合创始人提出了一项暂时限制工业级人工智能计算机功能的建议,强调了需要进行监管和道德保障。
以太坊联合创始人Vitalik Buterin提出了一项最后手段——“软性暂停”工业级计算力,以应对迅速发展的人工智能(AI)所带来的潜在风险。
在2023年1月5日发表的博客文章中,Buterin建议,通过限制全球计算资源的99%,为期一到两年,可以给人类带来关键的准备时间,以应对超级智能AI系统的出现。他强调,如果没有成功实施更不严格的选择,例如责任制度,这些措施将被采用。
他写道:“目标是在关键时期,能够削减全球可用计算量的90%-99%,持续一到二年,以便为人类赢得更多准备时间。”他补充说,一年的“战时模式”可以轻易值得一百年的工作,而在放松状态下工作。
Buterin的建议出现在人工智能加速发展的技术社区内部越来越大的担忧之中。2023年5月,一些技术专家和研究人员签署了一封公开信,发表在《科学》杂志上,呼吁停止AI的发展,理由包括“大规模的社会损害、恶意使用和人类对自主AI系统的永久失去控制的风险”。
“Vitalik对于超级智能AI的担忧是基于真正的风险,特别是那些与人工智能系统潜在权力和决策的饱和有关的风险。”Autonomys首席执行官Todd Ruoff告诉Defiant。“这些都是需要监管框架来解决的挑战。”
Ruoff解释说,分布式结构提供了一条前进的道路,通过共享控制权并鼓励合作的方式来开发AI系统。他说:“这将确保AI系统保持责任,甚至更重要的是透明,并且更准备好应对潜在的滥用或进一步的后果。”
他还指出,Buterin的建议引起了广泛的讨论,并敦促科技界优先考虑道德发展和强大的保护措施,因为人工智能技术继续其不可避免的进步。
为了实施暂停,Buterin建议,工业级人工智能硬件可以配备一个信任芯片,每周需要获得主要国际机构的授权,其中至少一个不是军事相关的。这种机制将确保AI系统只在充分监管下运行,从而减少潜在风险。
他在博客文章中写道:“签名将是设备无关的(如果愿望的话,我们甚至可以要求一个零知识证明,它是在区块链上发布的),所以它将是全或无。”“没有实际的办法可以授权一台设备继续运行,而不授权其他所有设备。”
他在文章中强调,“超级智能”AI可能要花五年时间出现,也可能要花50年时间。“无论如何,显然的结果并不是必然是积极的,正如本文和前面一篇所描述的那样,存在多种陷阱。”