文/陈根
openai自 2022 年 11 月发布chatgpt-3以来,尽管是一个不完美的应用,但却超乎了几乎所有人对于人工智能的认知。核心就是具备了类人逻辑与语言沟通能力,能像人类一样的逻辑与人类进行交流。当然,在一些特定的专业领域,比如物理、数字、化学等领域,chatgpt-3还存在着比较大的缺陷。不久前,openai 方面发布了新一代的多模态语言大模型 gpt-4,这是openai真正准备比较充分的模型,各方面的能力可以说是远超gpt-3。
但我们可以留意到,openai 虽然分享了有关 gpt-4 的大量基准测试和测试结果,但openai公司并未提供有关 gpt-4 的架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等技术细节。
其实自 gpt-3 开始,openai 便不再公布大模型相关训练及技术细节,包括训练数据的来源,并明确表示不会开源。
不会开源其实是在意料之中的事情,一方面是基于对人工智能应用的安全层面考虑,实现闭环有助于更好的管理与防止ai朝着不可控的方向发展,尤其是开源之后可能会受到一些不必要的干扰。另外一方面是出于对技术的保护。但openai不开源的态度将会给人工智能领域想推出类gpt技术产品的企业增加难度,因为没有具体技术细节可以仿照。
也正是openai不开源,并且不再公布技术细节,就让我们看到诸多的大厂在推出类gpt产品时,根本无法达到gpt的这种类人逻辑能力的智能,而更多的还只是停留在过去的大数据检索层面。