性能优化 关键字列表
Xinnor声称RAID重建速度远超Linux mdraid

Xinnor声称RAID重建速度远超Linux mdraid

软件RAID供应商Xinnor宣称其技术可在仅五小时多一点的时间内重建61.44TB SSD,速度约为传统Linux RAID重建软件的10倍。Xinnor的xiRAID产品将数据分布在驱动器集群中,每个驱动器上都有备用区域,故障驱动器的数据会恢复到这些区域,从而减少总体重建时间。测试显示,在有主机工作负载的情况下,使用xiRAID重建速度比Linux mdraid快约30倍,且写入放大因子低23%。

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy AI大幅提升移动游戏性能表现

三星Galaxy S25系列搭载骁龙8 Elite处理器,AI处理速度提升40%,CPU性能增强37%,图形渲染提升30%。配备40%更大蒸汽腔散热系统,有效防止过热。ProScaler AI图像缩放引擎实时优化视觉效果,游戏模式可定制化设置避免干扰。Audio Eraser功能清理背景噪音,AI电池优化技术延长游戏时间,为移动游戏玩家提供专业级体验。

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

Iceberg时代来临:StarTree成为采用热门表格式的最新厂商

开源Iceberg正成为数据湖表格式的通用标准,StarTree是最新将其作为实时后端的供应商。StarTree Cloud基于Apache Pinot构建,现可作为Iceberg之上的分析和服务层。该公司声称Iceberg支持能将其从被动存储格式转变为实时后端,为面向客户的应用和AI代理提供高并发服务。与其他查询引擎不同,StarTree专为低延迟、高并发访问而构建,可直接在原生Iceberg表上提供实时查询加速。

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN推出Infinia存储系统,声称可大幅提升AI推理速度并降低成本

DDN发布性能基准测试显示,其Infinia存储系统通过优化中间KV缓存处理,能够将AI处理速度提升27倍。该系统专为英伟达H100和GB200等GPU设计,提供亚毫秒级延迟,支持每秒超10万次AI调用。在112000令牌任务测试中,传统重计算方法需57秒,而Infinia仅需2.1秒。DDN称该技术可削减输入令牌成本75%,为运行1000个并发AI推理管道的企业每日节省8万美元GPU成本。

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠UFS 4.1闪存承诺提升AI应用性能表现

铠侠正在测试最新的UFS v4.1嵌入式闪存芯片,专为智能手机和平板电脑设计,可提供更快的下载速度和更流畅的设备端AI应用性能。该芯片采用218层TLC 3D NAND技术,提供256GB、512GB和1TB容量选择。相比v4.0产品,随机写入性能提升约30%,随机读取性能提升35-45%,同时功耗效率改善15-20%。新标准还增加了主机发起碎片整理、增强异常处理等功能特性。

AMD在AI领域持续发力,仍有大量工作要做

AMD在AI领域持续发力,仍有大量工作要做

在AMD AI推进大会上,CEO苏姿丰展示了公司在AI硬件和软件方面的显著进展。新一代MI350系列GPU性能提升4倍,高端MI355X在内存、计算吞吐量和性价比方面均优于英伟达B200。公司计划2026年推出Helios机架级平台,ROCm 7推理性能提升3.5倍。尽管在GPU训练、TCO优势等方面表现良好,但在NIMs微服务、企业级GPU市场渗透等领域仍需加强,以进一步缩小与英伟达的差距。

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data力推AMD,为GPU加速SQL注入新动力

Voltron Data宣布其加速SQL引擎Theseus将支持AMD Instinct GPU,这标志着英伟达CUDA护城河正在变浅。Theseus使用GPU加速SQL查询,能高速处理大量数据。随着企业寻求利用AI,快速处理大量数据变得越来越重要。AMD投入大量资源构建开源软件栈以缩小与英伟达的差距,最新版本基于AMD的hipDF库。早期基准测试显示AMD平台性能表现良好,生产支持预计今年底推出。

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 表示 GPT-4.1 模型现已在 ChatGPT 中上线

OpenAI 按用户需求在 ChatGPT 推出全新 GPT-4.1 及其 mini 与 nano 版本,专注提升编程、指令理解与长文本处理能力,免费及付费用户均可体验。

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

MediaTek 推出高端新品:Kompanio Ultra 和 Dimensity 9400+

联发科最近发布了新款高端芯片 Kompanio Ultra 和天玑 9400+,进一步完善其产品线。Kompanio Ultra 为 Chromebook 带来全新性能水平,天玑 9400+ 则在天玑 9400 基础上小幅提升。这些产品强化了联发科在智能手机和 Chromebook 市场的竞争力,同时展示了公司在 AI 和高性能计算领域的持续发力。

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国燕融将 KVCache 集成到文件系统以加速 AI 推理

中国存储软件供应商燕融科技将KVCache整合到其文件系统中,显著提升了KV缓存命中率和长上下文处理能力,降低了AI推理成本。通过在GPU服务器集群中部署分布式内存层存储元数据,燕融的YRCloudFile系统实现了高并发查询吞吐量,为推理工作负载带来了明显的性能提升。测试结果显示,该技术在首个令牌生成时间和并发查询支持方面均有数倍的改进。

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

联发科发布新芯片,使 Chromebook 具备 AI 助手运行能力

MediaTek 推出新一代 Kompanio Ultra 芯片,专为 Chromebook 设计。这款芯片不仅提升了性能和电池续航,更重要的是增强了生成式 AI 能力,使得价格亲民的 ChromeOS 笔记本电脑也能运行先进的 AI 助手。MediaTek 与 Google 密切合作,确保新芯片能充分发挥 Chromebook Plus 设备的下一代 AI 功能。

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 新推出的工具让本地 AI 计算变得轻而易举

Nvidia 推出全新 AI 工具套件 NIM 微服务,让拥有 RTX 显卡的用户能够在本地轻松运行 AI 模型。这套工具支持文本、图像和代码生成等多种功能,不仅可以节省长期使用成本,还能确保数据安全性。该举措体现了 AI 本地化运算的发展趋势,也展示了 Nvidia 在 AI 领域的领导地位。

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,面向网络、存储和工业边缘领域

AMD 发布第五代 Epyc 嵌入式处理器,采用 Zen 5 架构,专为网络、存储和工业边缘计算优化。新处理器在性能、能效和嵌入式特性方面均有提升,可支持高达 192 核心,内存容量达 6TB,并提供 7 年产品制造支持。多家行业合作伙伴已开始采用这一新产品。

Meta 通过 eBPF 技术实现服务器计算效率提升 20%

Meta 通过 eBPF 技术实现服务器计算效率提升 20%

Meta公司通过使用基于eBPF的Strobelight性能分析套件,成功将其主要服务的CPU使用率降低20%。这一成果不仅大幅减少了服务器需求,还展示了eBPF在系统优化和效率提升方面的巨大潜力。eBPF作为一种创新技术,正在revolutionizing操作系统内核级编程,为企业带来显著的性能提升和成本节约。

M3 Ultra GPU 性能对比 M4 Max:究竟快多少?

M3 Ultra GPU 性能对比 M4 Max:究竟快多少?

Apple 最新推出的 M3 Ultra 芯片 GPU 性能表现出色,比 M4 Max 快 38%,比上一代 M2 Ultra 快 16%。在 Metal 测试中得分高达 259668。CPU 性能方面,M3 Ultra 多核性能小幅领先 M4 Max 8%。新款 Mac Studio 已开启预订,将于 3 月 12 日正式发售。

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用户开放

OpenAI 的 GPT-4.5 AI 模型向更多 ChatGPT 用户开放

OpenAI 已开始向其 ChatGPT Plus 用户推出最新的 AI 模型 GPT-4.5。OpenAI 在 X 平台上发布的一系列帖子中表示,此次推出将持续“1-3 天”,并预计速率限制会有所变化。

PEAK:AIO AI 数据服务器性能峰值达到 120 GBps

PEAK:AIO AI 数据服务器性能峰值达到 120 GBps

PEAK:AIO推出了一款新的2RU 1.5 PB AI 数据服务器产品,使用戴尔硬件,数据传输速率达到120 GBps。PEAK:AIO是一家专注于人工智能的英国存储初创公司,提供基于第三方硬件的软件定义存储,密切管理和控制以降低延迟并提高吞吐量。其2RU服务器已为中型GPU集群提供40 GBps的传输速率,现可实现三倍的速度。

ChatGPT 4.5 震撼发布:更大、更智能,但也更贵

ChatGPT 4.5 震撼发布:更大、更智能,但也更贵

OpenAI 最近推出了 GPT-4.5,这款新模型在准确性测试中表现优于之前的版本,能够更好地理解细微差别。尽管面临 GPU 短缺的挑战,OpenAI 仍然致力于将这一模型推向市场,并计划在未来推出更先进的推理能力模型。

新型 AI 文本扩散模型突破速度瓶颈,从噪声中提取文字

新型 AI 文本扩散模型突破速度瓶颈,从噪声中提取文字

Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google 推出第七代 Ironwood TPU 芯片,借助 AI 进行性能对比

Google宣布第七代张量处理单元(TPU)芯片即将向云客户开放租用,可提供256或9216芯片的集群。新一代TPU在内存带宽、算力和能效方面都有显著提升,专为大语言模型推理设计,每个芯片具有192GB高带宽内存。Google称9216芯片集群的AI算力可达42.5 exaFLOPS,远超现有超级计算机。