Gemini 1.5 Pro的面世,将进一步提高算力基础设施的建设要求,激活算力技术的不断创新和迭代升级。如今,算力市场已形成庞大的生态系统,涵盖CPU、GPU、DPU、FPGA等专用芯片,各种形态的交换机、光模块/线缆等连接介质,以及各服务提供商交付的算力运营、算力调度、算法交易平台等。
紫光股份旗下新华三集团以"算力×联接 AI×未来"为主题,在2024 MWC上海全方位展示了在“云-网-安-算-存-端”等领域的创新产品与方案,以及AI技术在各行业的应用实践成果。
机遇与挑战总是相伴而生。AIGC的蓬勃发展对算力提出了前所未有的需求,传统数据中心难以满足智能时代的要求,算力资源的协同、算力服务的灵活性和可持续性等问题日益凸显。如何跨越这些鸿沟,构建高效、可持续的智算体系,成为了摆在运营商和科技企业面前的时代考题。
AI in ALL”就是让我们的产品、解决方案以及产品研发过程全面嵌入AI,全面AI化。来,我们将全面推动网络、安全、计算、存储、云、大数据、智能终端等领域全栈产品和解决方案的智原生,让它们在AI技术的加持之下更智能。这是我们要做的事情,也是我们一直努力在做的事情。
在AI界,对于如何进一步推动AI的发展,存在两种主要观点。第一种观点认为,计算能力是AI进步的唯一瓶颈。另一种观点却认为,数据才是关键。
2024年以来,国家出台了一系列鼓励、引导并购重组的政策措施,积极鼓励行业龙头公司通过并购重组进一步巩固市场地位和提高上市公司质量,紫光股份此举既顺应政策鼓励导向,又具备更强的实操性和落地性。
生成式人工智能(AIGC)的兴起,掀起了一场席卷全球的“智算”热潮。从聊天机器人ChatGPT到AI绘画工具Midjourney,AIGC应用繁花绽放,展现出巨大的商业潜力。企业如何利用AIGC构建新质生产力提升企业核心竞争力,对其背后的算力基础设施提出了严苛的挑战。
NVIDIA GTC 2024大会重点介绍了新一代GPU架构Blackwell及其产品B100、B200。SXM架构相比PCIe在带宽和多GPU互联方面具优势,适合大模型AI计算中心。B200是两颗B100 Chiplet化,提升全方位,特别是显存容量达到192GB。Blackwell架构新增FP4和FP6精度,B200在算力上相对B100有全面提升,但非理想倍数增长,显示NVIDIA有所保留。
《报告》认为中国AI大模型产业发展源于多领域的广泛需求,例如来自办公、制造、金融、医疗、政务等场景中降本增效、生产自动化、降低风险、提高诊断准确率、提高政务服务效率等诉求。
Universal Chiplet Interconnect Express (UCIe)(R) 是一个开放的行业互连标准,旨在实现芯片间的封装级互连,提供高带宽、低延迟的连接,适用于云端、边缘端、企业等多个计算领域。UCIe支持不同晶圆厂、设计和封装方式的Die集成,满足对算力、内存、存储和互连日益增长的需求。
计算能力与带宽能力之间的巨大差距导致了内存容量和数据传输速度难以跟上AI硬件的计算速度,这已成为限制AI芯片性能发挥的主要瓶颈,通常被称为“内存墙”问题。
在2024年MWC世界移动通信大会上,中兴通讯发布端到端算力基础设施解决方案,提供算/存/网/IDC完整的全套解决方案,实现全栈软硬件一体化部署,加快业务上云速度。
Google发布能力最强AI多模态大模型Gemini;深圳发布算力基础设施支持政策;人工智能计算力报告发布。
陈葆立表示,英特尔与互联网公司的合作成果能否推广到其他行业也是英特尔努力的方向。“算力不是单维度而是多维度的,竞争没有结束。我们一直在思考、创新更好的产品,帮助用户在未来构建更好的推理或是训练的数据中心集群。”
在浪潮信息,有这样一群工程师们,他们在好奇心的驱动下,通过各种方式寻找算力提升的路径,无论进步大小,自豪感都在驱使着他们继续探索未知,甚至像一个科学家一样琢磨各种跨界的技术,并用于解决各类工程难题。