不幸的是,到现在为止,还没有任何人采取行动。 最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。 如今,AI系统在一般系统上已经变得和人类一样有竞争力,我们必须扪心自问: 是否应该让机器用宣传和谎言充斥我们的信息渠道? 是否应该让所有的动作都变得自动化,即使是令人满意的工作?是否应该发展可能某一天会超越我们、淘汰我们、取代我们的非人类智能?是否应该冒险失去对人类文明的控制? 任何未经选举产生的技术领导者,都没有权利做出如此重要的决定。 只有当我们确信,这种AI的影响是积极的、风险是可控的时候,才应该开发强大的AI系统。而且,我们必须有充分的理由相信这一点,潜在的影响越大,我们就更加需要确信这一点。 OpenAI最近关于通用人工智能的声明指出,「某个阶段,在开始训练未来的系统之前,进行独立的审查可能非常重要,而对于创建新模型所用算力的增长速度,也应该有所限制。」 我们同意这一点,而那个时间点,就是现在。 因此,我们呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,至少6个月。 这种暂停应该向所有人公开,所有人都可验证,并且要涉及所有关键成员。如果不能迅速暂停,就应该让政府介入。 在这6个月内,所有AI实验室和独立学者都应该合力开发一套共享安全协议,用于高级AI的设计和开发。协议完成后,应该由独立的外部专家进行严格的审计和监督。这些协议必须确保这些AI系统毋庸置疑的安全。 这并不是说,我们要绝对暂停AI的开发,只是说,我们应该从危险的竞赛中退后一步,转向具有涌现能力的、更大的、不可预测的黑箱模型。 所有的人工智能研究和开发,都应该重新聚焦于这一点——让当如今最强大的SOTA模型更加准确、安全、可解释、透明、稳健、对齐,值得人类信赖,对人类忠诚。 与此同时,开发者必须与政策制定者合作,大幅加快开发强大的AI管理系统。
|