深圳电子展
2024年11月6-8日
深圳国际会展中心(宝安新馆)

电子展|ChatGPT等大模型的发展,对GPGPU有怎样的性能要求?

ChatGPT火热之后,可以明显看到国内在AI大模型方面的发展将会加速,这对国内GPGPU来说意味着什么呢?大模型的发展,必然少不了GPGPU,GPGPU对于大模型就相当于是发动机之于汽车。王平认为,近十几年AI的再度兴起,到现在ChatGPT的爆火,以及未来AI产业的发展再上一个台阶,如果没有GPGPU,这些都不大可能会实现。今天就由电子展小编为你解读更多行业新趋势。

 

因为每个大模型训练和部署的背后,都有几万个GPGPU在支持。可想而知,未来随着这方面的研发和应用的普及,GPGPU市场需求将会再度迎来爆发式增长。

 

以电力为例,就可以很清楚的看到这个市场未来可能发生的变化。几十年前,电力只是用在一些小用量的场景,随着电力的供给越来越多,电器也越来越多的时候,后电力就成了一个基本设施。可以说,算力也是朝着基础设施的方向在发展。在王平看来,现在GPGPU还远没有到爆炸式需求的阶段。

 

当然在ChatGPT或者其他大模型训练和部署,对GPGPU或者说算力也会有更高的要求。王平谈到了几个方面:

 

先从单卡层面来看,先来看一组数据,1月份的时候ChatGPT的用户数突破1亿,日访问量有几千万,在这种情况下,它的运营成本会相当高,每天的电费在几十万人民币量级。这时候计算效率很重要,如果计算架构相比于传统的GPGPU更有优势的话,比如,登临科技一些计算密度更大的产品,在计算效率上就更有优势。

 

其次是单卡之外,卡片间的互联也很重要。因为在用户侧工作的实际上是一个超级计算机系统,在训练的时候,带宽、片间、服务器间的信息传递很重要,这就需要针对大模型的训练框架,在整个服务器集群的调度和协同工作中进行升级优化。

 

再者就是软件方面,一般来说在软硬件协同的系统里,软件的重要作用不可忽视,因为一些软件栈的原因,或者软件协同调度的问题,硬件往往不能完全发挥出能力。所以我们经常可以看到,在一些场景下,软件稍微进行优化,整体应用性能就会有百分之几十,甚至百分之百的提升。

 

从硬件公司的角度来看,GPGPU是一个通用平台,行业整体有产品异构化的走向,总体来说,GPGPU存在一些性能瓶颈。

 

不难看出,以ChatGPT为代表的大语言模型发展和应用,对人们生产生活意义重大。随着它的技术和应用逐步成熟,其对GPGPU等算力硬件的需求将会持续增加,就如同文中提到的电力的发展路径一样。当然大模型对GPGPU及算力集群系统的也有更高的要求,比如计算效率更高,能够节省电费和运维成本等,可想而知,对于硬件公司来说,谁能够在这方面更具优势,谁就更能在未来大模型处处落地的时候,更占据优势。

 

以上便是电子展小编为大家整理的相关内容,如果大家对这方面比较感兴趣,可以到电子展参观交流。2023年10月11日-13日,电子展将于深圳国际会展中心(宝安新馆)隆重开幕,将以“跨界+芯+智造”为创新理念,展会将汇聚1,200个企业及品牌参展,展示电子元器件、PCBA制程、智能制造、 EMS服务、半导体封测等相关的国内外设备新品及先进技术解决方案。与同期多展联动,带来消费电子、家电、工控、通信通讯、汽车、触控显示、新能源、医疗器械、光电等领域跨界商机,绽放亚洲电子工业新活力。此外,同期将举办超30场跨国、跨界活动,覆盖PCBA制程、半导体封装、工业机器人、智能仓储与物流、机器视觉、智慧工厂、工业互联网、激光、3C、家用电器、通信、汽车、5G、物联网、人工智能、AR/VR、新能源、医疗器械、照明等热门话题,创新打造多元化国内、外商务配对社交机会,一站式捕捉亚洲跨界商贸网络,诚邀您莅临参观,为您解读更多行业发展新趋势。

 

文章来源:电子发烧友网