OpenAI CEO Sam Altman、总裁 Greg Brockman 和首席科学家 Ilya Sutskever 通过官方博客呼吁设立监管超级智能的国际机构。“我们最终可能需要类似于 IAEA(国际原子能机构)的东西来进行超级智能方面的努力;任何超过一定能力(或计算等资源)门槛的努力都需要接受国际权威机构的检查,要求进行审计,测试是否符合安全标准,对部署程度和安全级别进行限制,等等。追踪计算和能源使用情况会有很大的帮助,并给我们一些希望,这个想法实际上是可以实现的。作为第一步,公司可以自愿同意开始实施这样一个机构有朝一日可能要求的要素,而作为第二步,各个国家可以实施。重要的是,这样一个机构应专注于减少存在的风险,而不是那些应该留给各个国家的问题,例如定义人工智能应该被允许说什么。”
OpenAI提出设立国际监管超级智能的机构,旨在确保此类技术的安全和透明性。他们呼吁通过实施审计、安全检查和限制等措施,来监管高级人工智能的开发和部署。OpenAI表示,公司可以自愿同意这一机构的要求,各国也可以开始实施。这一机构应该专注于减少风险,而不是决定人工智能应该说什么。这一举措旨在确保超级智能能够利益于人类进步,而不是给人类带来威胁。