原腾讯副总裁、硅谷风险投资人吴军:ChatGPT背后就是一个语言模型,而这一语言模型的技术是1972年就已经有了的。

3 min read

到现在,经过了五十年,现在行业内其实大家并不觉得它是一个什么了不得的东西。在此以前,这个语言模型其实已经做了很多的事情。
今天很多人问,ChatGPT在美国出现了,中国研究机构什么时候能做ChatGPT?其实,中国的大部分研究机构是做不了的,不是说研究水平的问题,而是因为ChatGPT太耗资源。今天的ChatGPT,可能光硬件的成本就要差不多10亿美元,这还没算电钱,所以成本和耗资是非常巨大的。所以,如果开完玩笑,问ChatGPT的最大贡献是什么,我倒觉得它对全球变暖是有很大贡献的。
ChatGPT训练一次要耗多少电?大概可能是3000辆特斯拉的电动汽车,每辆跑到20万英里,把它跑死,这么大的耗电量,才够训练一次,这个非常花钱的一件事。
不过,也不能否认ChatGPT作为自然语言处理领域的一次重要突破,它为我们理解自然语言、控制自然语言生成、应对大规模自然语言任务提供了新的思路和技术手段。因此,我们也需要在努力降低成本的同时,继续推进自然语言处理技术的研究和应用,让人工智能能更好地为人类服务。