OpenAI 10 年内 AI 辗压 AGI 与领域专家
OpenAI 科学家撰写文章概述超级 AI 治理策略的三大支柱,应打造类似国际原子能的机构负责 AI 系统审核、安全测试,以及部署与安全限制的国际权威机构
AI 人工智能的发展一日千里,OpenAI 日前一份官方论坛文章指出,未来 AI 可以轻松辗压 AGI 通用人工智能,其专业能力甚至能在 10 年内让各领域专家相形见拙。
在此之前,便有许多专家呼吁建立监管 AI 的机制,以防止潜在的失控风险。如今看到AI 进展神速的 OpenAI 也认为现在已到了考虑推动超级 AI 治理的关键时刻。
周一 22 日由 OpenAI 执行长 Sam Altman、总裁 Greg Brockman 及首席科学家 Ilya Sutskever 共同撰写的一份官方论坛文章警告,有鉴于当前 AI 进展的速度,未来很快会出现能力超越 AGI 的超级 AI,不出 10 年,其专业技能水准将超越各领域的专家。换言之,我们已进入有必要治理与监管超级 AI 的关键时刻,否则人类有可能面临可怕不受控的灾难。
OpenAI 三巨头概述未来超级 AI 治理策略的三大支柱。首先,为了在创新与控制之间取得平衡,人类必须推动并达成一项社会共识协议,唯有如此,才能在确保安全的前提下,让超级 AI 系统顺利地与人类社会结合。
其次,三位专家一致拥护打造一个专门负责系统检查、稽核执法、安全标准合规测试,以及设定部署与安全限制的国际权威机构。他们仿照国际原子能机构,提出一个全球性 AI 监管机构的可能架构与样貌。最后,他们强调需要能维持对超级 AI 加以控制并确保安全的技术能力。
基本上,上述想法的最终目的是为了确保超级 AI 与其训练者的意图保持一致,以避免 AI 会以超出人类控制的迸发速度成长。该贴文并且强调,AI 的飞速成长的趋势不可逆,唯一避免它失控的解决之道是建立全球性的监控体制,但即使如此也不能保证一定奏效。
可以确定的是,面对如何实现确保超级AI 安全之技术能力的大问题,当前世界还没有明确的答案,但即使如此,持续找到解答,无异是 OpenAI 以及所有 AI 生态系厂商接下来的首要课题与工作。