◎AI的终极目标是打造一个超越互联网的下一个全新网络信息空间(CyberNext)。通用计算为主的传统IDC迎来机遇,必须加速演进到面向大模型的AIDC,对GPU硬件(供应链)和软件生态做到“两手抓”。
每经记者 赵雯琪 每经编辑 刘雪梅
ChatGPT的横空出世加速推动人工智能时代的到来,而在中国,大模型的高歌猛进,对GPU智算、网络、存储等算力产业的每一环的都提出了新需求与新挑战。
今年以来,包括零一万物CEO李开复在内的多位大模型创业者也在公开场合多次强调,目前国内算力差距也是重要课题。近日,李开复向包括《每日经济新闻》记者在内的媒体表示:“我们算力一直远远落后,甚至只有Google、微软的5%。”不过他也提到,未来随着推理算力每年降到过去的十分之一倍,国内大模型创业者基于更低的算力成本也能做出更好的模型。
如何解决中国AI大模型面临的算力紧缺问题?
近日,在第四届中国IDC(互联网数据中心)行业DISCOVERY大会上,第三方中立数据服务商世纪互联(VNET,股价1.91美元,总市值5.03亿美元)创始人、董事长陈升指出,随着人工智能技术的迅猛发展,传统的数据中心(IDC)正在经历一场深刻的变革。这场变革的核心便是人工智能数据中心(AIDC)。而在AIDC中,70%的投资将指向GPU和网络。长期来看,现有的网络体系难以支撑未来百万倍的加速计算。
因此他认为,AI的终极目标是打造一个超越互联网的下一个全新网络信息空间(CyberNext)。通用计算为主的传统IDC迎来机遇,必须加速演进到面向大模型的AIDC,对GPU硬件供应链和软件生态做到“两手抓”。
随着人工智能技术的飞速发展,全球科技巨头纷纷投入巨资研发AI大模型。
AI大模型因其在自然语言处理、图像识别等领域展现出的卓越能力而备受瞩目。从OpenAI的GPT系列到谷歌的BERT模型,这些庞然大物正推动着AI技术的新革命。但背后的算力需求同样惊人,甚至呈指数级增长。
据IDC公司预测,全球AI计算市场规模将在2026年达到346.6亿美元,年均增长率高达15.5%。生产式AI算力占比更是从2022年的4.2%预计增长至2026年的31.7%。
面对算力紧缺的挑战,AI大模型的研发者们正在采取多种策略以应对。包括算法优化,通过精简模型结构和改进训练方法,降低对计算资源的需求。此外,分布式计算的广泛应用使得计算任务可以在更多节点上并行处理,有效提升了计算效率。
对此,中国工程院院士、紫金山实验室荣誉主任兼首席科学家刘韵洁在上述会议上表示,大模型对算力的需求提出了更迫切的要求,2012年到2023年,整个算力需求增加了数十万倍,而且最近五年GPU的算力就增加了90倍,但整个网络的带宽才增加了10倍,这个差距现在预示着将来对整个网络带宽的能力、通讯能力提出更高的要求,因为缺口会越来越大。
因此,在他看来,在中国,行业大模型会是最终出路。因为通用大模型受制于多重因素,而中国行业数据的完整性、系统性是最好的,尤其是在制造业,如果把这些行业数据利用好,通过行业大模型产生价值,会成为中国发展新质生产力一个非常好的途径。
随着人工智能技术的迅猛发展,传统的数据中心(IDC)正在经历一场深刻的变革。这场变革的核心便是人工智能数据中心(AIDC)。
陈升认为,AIDC给传统IDC带来的第一个改变就是改变交互界面。“过去的交互界面是机柜,风火水电是基础。要是按照现在AIDC的定义,把所有的风火水电加在一起就是整个系统差不多30%的投资,70%是GPU和网络。”陈升表示,如果是AIDC,吐出来的是Token和服务,面对这样的形态,70%的投资是和GtanPU、超级网络相关,这个行业可谓挑战不小。
因此他认为,AI的终极目标是打造一个超越互联网的下一个全新网络信息空间(CyberNext)。通用计算为主的传统IDC迎来机遇,必须加速演进到面向大模型的AIDC,对GPU硬件(供应链)和软件生态做到“两手抓”。
值得一提的是,就在5月中旬,世纪互联领投数据智能(Data&AI)平台技术和服务提供商矩阵起源的Pre-A轮融资。据官方信息,本轮融资后,矩阵起源将扩展业务至AI Infra和AI Platform领域,并与世纪互联的AIDC业务融合和协作。由此可以看出,传统IDC企业正在围绕GPU基础设施持续创新,同时探索更开放、共享的人工智能生态系统。
刘韵洁同时提到,面向AI大模型时代,需要计算、网络、存储、系统协同,构建高性能算力底座,实现超大规模集群万卡协同。在此背景下,确定性网络有望解决传统互联网拥塞无序的问题,推动互联网从“尽力而为”到“确保所需”技术体系变革,能够满足工业互联网、东数西算、人工智能大模型等典型场景的网络需求。
1本文为《每日经济新闻》原创作品。
2 未经《每日经济新闻》授权,不得以任何方式加以使用,包括但不限于转载、摘编、复制或建立镜像等,违者必究。