马斯克、苹果创办人等人加入呼吁暂停开发高端AI

特斯拉首席执行官马斯克(Elon Musk)、苹果共同创办人Steve Wozniak等科技大佬昨(29)日指出AI可能对社会和人类带来重大风险,公开呼吁暂停开发比OpenAI的GPT-4高端的AI系统至少6个月。

这份公开信是由非营利组织未来生活研究院(Future of Life Institute)发布,获得1,300多人联合署名,包括马斯克、Wozniak、Stability AI公司首席执行官Emad Mostaque、Google AI部门DeepMind研究人员等人签署声援。

这份公开信指出,近几个月各AI实验室已陷入失控的竞赛,发展与部署更强大,但甚至连发明者都无法理解、预测和控制的AI。人类必须思考AI可预见的风险,包括传播假消息、自动化所有工作、超越或取代人类,甚至控制人类社会。为了防范这些情形发生,公开信赞同OpenAI的观点,认为在训练未来AI系统前应获得独立审查,并且限制投入开发新模型的计算资源。

这份公开信呼吁立即暂停训练比GPT-4更强大的AI系统至少6个月,必须包含所有关键人士,且需公开且可验证。若无法立即暂停,各国政府应介入强制中止。

而在暂停期间,AI实验室和独立专家共同开发安全规范,以开发精确、安全、可解释、一致化及可信任的AI系统,并由外部独立人士严格审核有确实遵守。他们强调,暂停措施并不是要求全面性停止AI开发,只是希望能阻止危险的发展竞赛,使其开发出不可预测及不透明的AI模型。

同时公开信要求,AI开发人员应与立法机关合作,加速AI治理系统的创建。这个系统包括成立专门主管机关、AI监管及关注工具、强大运算能力、审核与认证系统、辨别AI合成内容及关注模型外泄的浮水印技术,以及以公共基金支持AI安全研究,并创建AI伤害究责、应对AI政经破坏的系统。

应对AI技术的快速演进,各国政府已有管制AI的倡议。欧盟计划正在规划第一部《人工智能法案》(AI Act),旨在强化AI模型的资料品质、透明度、人为监控及责任。

OpenAI首席执行官Sam Altman近日也指出,鲁莽发展超智能的通用式AI(Artificial General Intelligence,AGI)对世界造成的伤害和独裁体制相同,共同规范AGI在关键时刻放慢脚步有其必要性。但OpenAI并未对此公开信发布评论。