ChatGPT爆火,能带飞哪些芯片?
最近两周,全球人民都想和一个叫ChatGPT的聊天,搞得服务器两天宕机了五次……
这个在去年11月底,由人工智能实验室OpenAI推出的AI程序,上线5天内收获超100万的注册量,到今年1月末已经突破1亿!要知道,TikTok达成1亿小目标花了9个月,Twitter可是用了60个月!这“涨粉”速度不去带货真是可惜了……
能瞬间在全球范围内成为“当红炸子鸡”,并且让中国AI概念股股民狂喜的ChatGPT到底是何方神圣?它的爆火说明了什么?它的背后又和芯片有哪些关系?
ChatGPT到底是个什么鬼?
官方点说,ChatGPT是由OpenAI开发的一个人工智能聊天机器人程序。将它的名字拆开来,“Chat”指聊天,就是它的展现形式;“GPT”则代表Generative Pre-trained Transformer(生成型预训练变换模型),即支撑它运行的预训练模型。ChatGPT使用了Transformer架构并训练了大量的文本数据,能够进行语言翻译、问答、对话等任务。
从体验上来说,它像是有想法、会学习的高阶版“小爱同学”,能通过不断的对话记住你提供的信息,来不断丰富自己的语料库并提供答案。
没错,在你对面的,是一个真正的工具“人”。
GPT的核心结构是Transformer。想要完整了解ChatGPT,得先从它说起。
Transformer是是一种采用自注意力机制的深度学习模型。简而言之,神经网络是一种非常有效的模型类型,用于分析图像、视频、音频和文本等复杂数据类型。
在它之前,我们使用深度学习来处理输入序列的方式是使用一种叫做循环神经网络的RNN的模型。它要求输入的数据必须顺序正确,因为它只能按顺序一对一的输出,所以RNN很难达到并行化,这意味着我们不能通过使用更多的GPU来加快训练。
ChatGPT 代表着 AI 技术的新一轮突破,并且大概率预示着 NLP 技术有望迅速进入平民化应用时代,相关技术不仅对众多的 C 端应用带来革新,同时也将对 B 端应用产生重大影响。
ChatGPT背后的芯片
目前以PGC、UGC为主,AIGC为辅,AIGC被认为是继PGC和UGC后,新的内容创作方式。
ChatGPT只是AIGC中的一环,如AI写作、AI作曲以及此前爆火的AI绘画等都属于AIGC中的一种。随着AI技术的成熟,过去的“人工智障”已经蜕变成“数字人”,在娱乐、金融、零售业等发挥着作用:早在2016年的里约奥运会上,写稿机器人就参与了赛事报道。光百度推出的数字人系列就包括AI手语主播、虚拟偶像、虚拟编辑等,其AI技术已经用于央视,并参与了去年两会的报道。
ChatGPT是一种基于大规模语言模型的超智能对话AI产品,无论是探讨概念化的AIGC,还是爆火的ChatGPT,本质上是在探讨其背后的AI产业链。
人工智能三大要素:数据、算法、算力,这三大要素相辅相成,缺一不可。
而算力的来源就是芯片。ChatGPT的爆红,势必会推动AI芯片产业的发展
ChatGPT背后的计算集群使用的是英伟达的AI芯片。OpenAI曾表示,ChatGPT 是与英伟达和微软合作完成的超级AI。微软在自己的云——Azue HPC Cloud中构建了超级计算机集群,将其提供给OpenAI。据悉,该超级计算机拥有 285000个CPU(中央处理器)内核和10000多颗AI芯片。
除了算力芯片外,AI对话程序在执行计算期间需要大容量、高速的存储支持,预计高性能存储芯片需求也会增长。三星电子就表示,为GPU和人工智能加速器提供数据的高性能高带宽内存 (HBM) 的需求将会扩大。从长远来看,随着AI聊天机器人服务的扩展,对用于CPU的128GB 或更大容量的高性能 HBM 和高容量服务器 DRAM 的需求预计会增加。