在11月8日在京举行的第七届中国超级算力大会(ChinaSC 2025)上,由中国科学院计算技术研究所张云泉研究员、清华大学陈文光教授、美国阿贡国家实验室Pavan Balaji研究员和瑞士苏黎世实验室Torsten Hoefler教授共同发…详细
2025年11月8日,以“智算力 大模型 新经济”为主题的ChinaSC 2025第七届中国超级算力大会暨中国智能计算产业联盟理事会年会在北京盛大召开。…详细
第七届中国超级算力大会(ChinaSC2025)重磅发布了2025中国高性能计算机性能TOP100排行榜,联想以43套的亮眼成绩再度斩获年度数量总份额冠军!…详细
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在…详细
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量…详细
香港科技大学和滴滴出行联合推出DeepTravel,首个能够自主学习和思考的AI旅行规划系统。通过创新的强化学习方法,该技术让AI像人类顾问一样制定旅行方案,并能从失败中汲取经验持续改进。测试显示其表现超越OpenAI等…详细
ByteDance团队提出Heptapod框架,通过"二维分布预测"让AI像人类一样整体理解图像,摒弃了传统方法对外部语义辅助的依赖。该方法在每步预测整个2D空间的内容分布,迫使AI发展全局理解能力。在ImageNet测试中,Heptapo…详细
这项由上海AI实验室等多家机构联合完成的研究推出了名为Lumina-DiMOO的统一多模态AI模型,它采用全新的离散扩散建模技术,同时具备图像理解和生成能力。该模型在生成速度上比传统方法快32倍,支持任意分辨率处理,并…详细
清华大学等机构联合提出Cache-to-Cache(C2C)方法,让AI大模型抛弃传统文字交流,直接传递内部理解结构。该方法通过"缓存融合器"实现模型间的深层语义交流,相比传统方式准确率提升3-5%,速度提升2倍。实验证明C2C在…详细
西湖大学研究团队提出OBS-Diff框架,专门解决大型AI图像生成模型的压缩难题。该方法通过时间感知的海森矩阵构建和模块包批处理策略,能在保持高图像质量的同时实现高达70%的模型压缩。实验显示,即使在极高压缩比下,…详细
面对增长放缓与技术跃迁的双重拐点,几乎所有企业都身处同一个十字路口:外部环境的不确定性、业务协调与财务压力、技术与数据管理的复杂性、风险与合规挑战、以及持续紧缺的人才与组织能力。…详细
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统…详细
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业…详细
当OpenAI和谷歌等科技巨头追求更大模型时,IBM选择专注于企业AI的推理基础设施。通过与Anthropic和Groq的新合作,IBM将语言处理单元集成到watsonx平台,声称企业智能体AI系统运行速度比传统GPU快5倍且更具成本效益。…详细
谷歌Gemini深度研究工具现已升级,可访问Gmail、Drive和Chat等应用获取数据来回答研究问题。该功能基于Gemini 2.5 Pro,采用多步骤流程进行深度分析。用户需授权后,系统可访问Google Workspace中的相关数据以提升研…详细
MIT研究人员详述了一种新的软件模型,旨在帮助人类和AI代码生成器创建更好、更透明的应用程序。该方法通过将系统分解为"概念"模块来解决现代软件"不可读"问题,避免代码与行为缺乏直接对应关系。研究指出,大语言模型…详细
思科发布统一边缘平台,这是一个专为分布式AI工作负载设计的去中心化网络架构。该平台将计算、网络、存储和安全功能部署到更接近数据源的位置,支持实时AI推理。平台提供零接触部署和基于云的集中管理。思科还推出了…详细
如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。