随着人工智能的发展,科学家预计在未来十年内有可能会出现超过人类智能的人工智能。这对我们人类来讲,既有好处,也有风险。好处就是我们可以享受更加先进的人工智能带来的生活和工作的便利,风险就是超级人工智能有可能会失控,危害我们人类社会。
为此,OpenAI正在组建,由首席科学家Ilya Sutskever带头的新团队。而新团队的目标就是在科学和技术上面实现突破,找到一种有效的方法去引导和控制比人类更聪明的人工智能系统。
如何确保比人类更聪明的人工智能系统,能够遵循人类的意愿,是一个核心问题。OpenAI的研究人员计划让人工智能系统从人类的反馈中进行强化学习,这样人工智能的发展需要在人类的监督下进行。但是由于超级人工智能比人类聪明得多,如何有效监控超级人工智能是一个巨大的挑战。
为了解决这个问题,研究人员决定先建立一个相当于人类智能的人工智能系统。 然后再对这个人工智能模型进行拓展,通过迭代的方法调整超级人工智能的水平。这样就可以让超级人工智能在人类的可控范围内发展。
这主要通过几个步骤达到控制超级人工智能的目的。
为了帮助人类监控人工智能系统,研究人员打算利用一个人工智能系统去评估其它人工智能系统。研究人员还希望能够了解自己开发和控制下的人工智能模型,是否有脱离人类掌控的风险。
为了确保开发的人工智能系统有效,人工智能系统需要具备可以自动查找问题的能力。
最后,研究人员让一个未达到目标的人工智能系统去测试超级人工智能系统,验证两者的差距,从而达到寻找错误的目的。然后解决问题,继续优化模型。
研究人员将建立人工智能模型当成是首要任务,计划在4年内完成。为了实现这个任务,OpenAI计划将公司20%的算力训练这个模型。这个团队还有一个目标,就是提高OpenAI中人工智能模型的安全性,尤其是ChatGPT。努力降低ChatGPT出现滥用、虚假信息、偏见和歧视等问题。
由于超级人工智能的安全性关乎人类,因此研究人员也希望与其它科技公司的研究人员合作,对这种方法进行推广和改进。
人工智能的安全性和可控制性,越来越成为人工智能专家重点讨论的问题。除了OpenAI提出解决安全性的问题外,其它科技公司也在寻找自己的解决方法。不管各个科技公司如何努力,最终还是需要全体科技公司建立一个统一的规范和方法去降低超级人工智能的风险。