先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
在ChatGPT出现前,人们并不知道强人工智能何时、以什么方式出现。直到ChatGPT出现,人们先是好奇、惊异,然后有些忧虑。我们回顾人类进化史,人类进化的几个标志性事件是火的运用、直立行走、双手劳动、语言产生、文字产生、现代科学体系的建立、现代工业文明的繁荣。尤其是近一万年文字的运用,保存了大量文化知识,使得人能够学到更多。现代人基因与一万年前人类基因没有显著变化,真正的差别在于现代人能够熟练地运用语言、文字记录思想,并建立了工业生产体系。如果将现代人的幼童放到荒无人烟的地方,没有文字传承,其生存状态将与原始人无异,生存能力可能还不如野生动物。其后代不会表现出多高的智力。可见现代人的智力很大程度上是学习获得的,是从一代代先辈和大量人群集体智慧的结晶中获得的。
人类学习成长时间越来越长,过去孩子几岁、十几岁就开始干活,现在孩子要学习十多年,还要在工作岗位上训练数年,才能达到基本工作能力,有人拥有十几年甚至几十年的工作经验,才成为行业专家。同样的道理,大语言模型也需要大量训练,才能让知识在模型中充分消化、消除歧义、融会贯通。
从规模上看,OpenAI已经发布了GPT-4。以下是GPT-1、GPT-2和GPT-3的详细信息:
GPT-1:
层数(Layers): 12
参数数量(Parameters): 117M
训练数据量(Training Data): Books1 + Books2 数据集,大约是5,000万个网页。
GPT-2:
层数(Layers): 48
参数数量(Parameters): 1.5B
训练数据量(Training Data): WebText 数据集,大约是8,000万个网页。
GPT-3:
层数(Layers): 175
参数数量(Parameters): 175B
训练数据量(Training Data): Common Crawl 数据集,一个大规模的网页数据集,具体数据量未公开。
GPT-4的参数未公开,有人猜测其拥有10万亿-100万亿参数,更多的层数,更大的训练数据量,更充分的微调,实现更好的逻辑推理能力和与人类价值观对齐。
GPT-4的模型容量接近于人脑神经元规模,其知识容量也接近甚至超越人脑,有如此大的规模和训练数据量,才能在有效数据的训练下,获得与人类的思维能力。
由于目前算力的限制,不可能构建太多的大语言模型,只有少数企业或政府拥有超过上万张H100显卡,可供进行如此大规模的训练,所以ChatGPT诞生在全球顶尖科技公司就不足为奇了。OpenAI花费了超过10亿美元最终训练出GPT-4。好在只要训练一个模型就能服务上亿注册用户,实现的价值的充分利用。多人共用一个模型,这不是人类的智能存在方式,但却是人工智能的存在方式,是算力短缺和灵肉可分的情况下的最佳选择。不然也不会这么早出现了,本来人们预测会在2045年附近诞生超级人工智能,现在足足提前了22年。
可能有人觉得目前的ChatGPT还算不上超级人工智能,但它的模型量、智商、服务承载能力、生成速度已经不是一个人、一个团队能够实现的了。一个模型的工作效率可以超过百万人,将来会超过百亿、万亿人。可能造成全球数亿甚至数十亿人失业,还不算超级人工智能吗?也许到2045年,地球算力能够支撑数十亿个本地化部署的ChatGPT,然而这不是最佳解决方案,与其这样不如将所有算力集中起来办大事。有人认为未来人工智能将会合体成为整体智能,全球网脑(高路),互联网进化为统一大智慧(刘峰),ChatGPT已经实现了这种初步演化,如果多模态将全球传感器联网,物联网融合,算力融合,高速网联,生态互联,超级智能即将诞生。超级联网能产生超级智慧吗?ChatGPT恰好验证了这点。
语言是思维的外壳,神经网络承载智能。人机交互中语言交互是最方便快捷、最准确的,也是数据量最小的。多模态交流还没有成熟和向市场推出,比如语音交流,受环境噪声、发音、拾音设备、口音的影响,可能出现误差,这就会影响交流效率。思维过程是并行、大规模、动态的,不适合直接交流,通过语言交流就成为交流的最好途径。尽管多模态交流更生动,但效率不高,不是现代交流的最有效手段,然而多模态交流更适合人类,它能够让传达更生动、更细致、更自然。
既然ChatGPT成为人工智能的率先出现的必然之选,ChatGPT将会如何演化?人工智能的属性在于是可以复制的,可以联网的,可以与硬件分离的,真正做到了一个模型服务全球。人们往往需要专业化、个性化的人工智能,所以未来的人工智能将会在垂直领域进一步优化和发展,在个性化方面会取得长足进步。当我们与ChatGPT开启一个新的对话(+ New chat),就是创造了一个个性化的ChatGPT副本,并且在聊天中涉及到的具体问题,就是在生成ChatGPT在具体语言场景下的交流模式。ChatGPT具备多种交流模式,比如创造型、情感型、学术型、编程型、艺术型等。比如我们可以让模型以鲁迅的风格写一段话,ChatGPT就表现出非常的个性化。
一个简单的比喻,训练数据就像水,大语言模型就像容器,训练的过程就像装填,只有大量优质训练数据,倒入足够大容量的、合适的模型,才能装进去、倒出来。
网友评论