导读 自从像ChatGPT这样的生成式人工智能诞生以来,专家和政府就一直对该领域不受监管的发展感到担忧。现在,为了解决这些问题,OpenAI 正在组...
自从像ChatGPT这样的生成式人工智能诞生以来,专家和政府就一直对该领域不受监管的发展感到担忧。现在,为了解决这些问题,OpenAI 正在组建一个专门团队,旨在管理与超级人工智能相关的潜在风险。
该团队由 OpenAI 联合创始人 Ilya Sutskever 和 OpenAI 联合团队的重要成员 Jan Leike 领导,将开发方法来处理超级智能 AI 系统超越人类智能并开始自主运行的假设场景。尽管这种情况似乎有些牵强,但专家认为,超级智能人工智能可能在未来十年内成为现实,这凸显了当今开发保障措施的重要性。
“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能并防止其失控,”宣布这一决定的博客文章中写道。
超级对齐团队
OpenAI 成立的 Superalignment 团队将获得当前约 20% 的计算资源,与 OpenAI 之前的比对部门的科学家和工程师一起开发“人类水平的自动比对研究员”,主要协助评估其他人工智能系统和进行对齐研究。
另一篇博文写道:“随着我们在这方面取得进展,我们的人工智能系统可以接管越来越多的对齐工作,并最终构思、实施、研究和开发比现在更好的对齐技术。”
虽然开发人工智能系统来检查其他人工智能的提议可能看起来很不寻常,但 OpenAI 认为,与人类相比,人工智能系统可以在比对研究方面取得更快的进展。这种方法不仅可以为人类研究人员节省时间,还可以让他们专注于审查人工智能进行的比对研究,而不是自己生成比对研究。