科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网商业办公商业办公 相关文章
2025-05-30 11:46:08
实时、可交互的流体模拟:北京交通大学与西蒙弗雷泽大学联合推出神经-MPM混合方法

北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保…详细

流体模拟神经物理学交互式控制

2025-05-30 11:18:05
EgoZero:从智能眼镜到机器人学习的零数据迁移革命

这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和…详细

机器人学习人机交互计算机视觉

2025-05-30 11:17:16
FLAME-MoE:探秘专家混合模型的秘密花园——卡内基梅隆大学打造全透明语言模型研究平台

FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显…详细

混合专家模型大语言模型开源研究平台

2025-05-30 11:16:04
ModernGBERT:德国语言的新标杆,维尔茨堡大学推出全透明1B参数编码器模型

这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行…详细

自然语言处理德语编码器模型长文本理解

2025-05-30 11:15:42
STAR-R1:如何让AI像人类一样理解空间变化?人民大学团队用强化学习突破视觉推理难题

这项研究由人民大学与中科院联合团队开发的STAR-R1,通过创新的强化学习方法显著提升了AI的空间变换推理能力。与传统监督学习不同,STAR-R1采用细粒度奖励机制让AI学会像人类一样思考,在物体属性变化识别任务中取得…详细

多模态大语言模型空间推理强化学习

2025-05-30 11:15:26
UFT:统一监督式和强化式微调,打破大语言模型学习与思考的隔阂

这篇来自麻省理工学院研究团队的论文提出了"统一微调"(UFT)方法,创新性地融合了监督式微调(SFT)和强化式微调(RFT)的优势。传统上,SFT擅长让模型"记忆"标准答案但易过拟合,RFT则培养模型"思考"能力但依赖基础模型强…详细

大语言模型微调方法推理能力

2025-05-30 11:00:29
LLM推理过程有必要吗?麻省理工和滑铁卢大学研究告诉你:不要过度"深思"排序重排

这项来自麻省理工和滑铁卢大学的研究质疑了在AI文本排序中"思考过程"的必要性。研究者比较了三种文章重排模型:直接判断的StandardRR、先推理再判断的ReasonRR,以及禁用推理功能的ReasonRR-NoReason。实验结果表明,…详细

信息检索大语言模型排序优化

2025-05-30 11:00:04
TAGS:医学问答中兼顾广度与精度的专家-泛医双智能体框架

TAGS是一种创新的医学问答框架,结合了泛医和专医两种视角,通过层次化检索和不确定性验证机制提升医学AI回答的准确性。该框架由穆罕默德·本·扎耶德人工智能大学等机构的研究团队开发,无需任何模型微调即可显著提…详细

医学人工智能大型语言模型医学问答

2025-05-30 10:55:18
长路难行?OTA:为离线目标条件强化学习开辟时间抽象捷径

这篇研究提出了时间抽象值学习(OTA)方法,解决离线目标条件强化学习中的长期规划问题。研究团队发现现有分层方法失败的关键在于高层策略无法生成合适子目标,原因是价值函数在长期规划中估计不准确。OTA通过"选项"…详细

强化学习时间抽象长期规划

2025-05-30 10:07:01
"知识诞生"的奥秘:MIT研究揭示大语言模型如何跨越时间、空间和规模形成语义特征

这项研究探索了大语言模型内部可解释特征的形成过程,分析了它们在训练过程中(时间)、模型层级间(空间)和不同规模模型(尺度)的行为变化。研究团队使用稀疏自编码器技术,成功识别出特定语义概念在神经激活中出…详细

人工智能神经网络解释性大语言模型

2025-05-30 10:06:05
Mutarjim:阿拉伯语-英语双向翻译取得重大突破,沙特Misraj团队用小型语言模型战胜巨无霸

这篇论文介绍了Mutarjim,一个仅有1.5B参数的小型语言模型,专为阿拉伯语-英语双向翻译设计。研究团队通过精心设计的两阶段训练方法,使这个小模型在多个权威基准测试中击败了参数量大20倍的模型,包括GPT-4o mini。…详细

阿拉伯语机器翻译小型语言模型双向翻译评估基准

2025-05-30 10:05:43
炼金术士:颠覆性方法让公开文生图数据变黄金 - 仅3350个样本实现突破性提升

Alchemist是一项由Yandex研究团队开发的创新方法,能将公开文生图数据转化为高效微调资源。研究者利用预训练扩散模型作为数据质量评估器,从海量图像中精选出仅3,350个高价值样本创建数据集。实验表明,这个紧凑数据…详细

人工智能文生图微调数据集优化

2025-05-30 10:04:50
自适应思维模式切换:南京大学研究团队提出进程级思维模式动态调整方法,让AI更"聪明"也更"高效"

南京大学研究团队提出了一种新型推理范式:进程级自适应思维模式切换(PATS),能让大型语言模型根据每步推理的难度动态调整思维策略。与传统固定策略不同,PATS在波束搜索框架中通过控制候选步骤数量(2/4/8个)模拟…详细

人工智能自适应推理大型语言模型

2025-05-30 10:04:26
无需"正确答案"也能训练数学问题求解:百川智能基于格式和长度的强化学习新方案

百川智能等机构的研究团队提出了一种创新方法,利用答案格式和长度作为替代信号,无需标准答案就能训练大型语言模型解决数学问题。研究发现,在训练初期15步内,仅基于格式正确性的奖励函数就能产生与标准GRPO算法相…详细

人工智能强化学习数学问题求解

2025-05-30 10:03:30
Nash Mirror Prox:加速人类反馈中的Nash学习

这篇研究论文介绍了一种名为"Nash Mirror Prox"(NashMP)的创新算法,旨在解决传统强化学习从人类反馈(RLHF)中存在的局限性。研究团队发现,传统方法常用的Bradley-Terry模型假设人类偏好具有传递性,而实际上人类偏好…详细

人工智能对齐Nash学习大语言模型微调

2025-05-30 10:03:07
AdaCtrl:让AI思考更聪明,香港科技大学与中文大学团队开发高效推理控制新框架

这项研究提出了AdaCtrl框架,解决大型AI模型在推理时过度思考的问题。通过难度感知预算分配技术,AI可以自动判断问题难度并相应调整推理深度,同时允许用户手动控制思考量。实验表明,与基线相比,AdaCtrl在维持或提…详细

人工智能自适应推理资源效率优化

2025-05-30 10:02:37
MLR-Bench: 让AI代理展示开放式机器学习研究能力的全面评测基准

MLR-Bench是一个全面的评测基准,专门用于评估AI代理在开放式机器学习研究中的能力。由新加坡国立大学和加州大学圣巴巴拉分校研究者开发,它包含201个真实研究任务、自动评估框架MLR-Judge和模块化代理框架MLR-Agent…详细

人工智能研究开放式评测基准科学可靠性

2025-05-30 10:01:49
GLEAM:复杂3D室内场景中主动建图的可泛化探索策略

这项研究提出了GLEAM,一种用于复杂3D室内场景主动建图的可泛化探索策略。研究团队首先构建了包含1,152个多样化场景的GLEAM-Bench数据集,然后设计了融合语义表示、长期目标规划和随机化训练的探索策略。在128个未见…详细

计算机视觉主动建图强化学习

2025-05-30 09:56:13
从 0.1% 到无穷大:不断扩大的 GPT 模型如何在未知化学宇宙中变革药物发现的未来

文章探讨了如何利用 GPT 及基础模型在浩瀚分子空间中寻找新药,助力突破传统研发瓶颈,加速医疗创新。…详细

药物发现GPT基础模型

2025-05-30 09:54:28
Mistral AI 推出代理框架以争夺企业市场

法国 Mistral AI 发布了一套综合代理开发平台,通过集成代码执行、网页搜索和文档处理等功能,实现跨对话上下文的复杂业务流程自动化。…详细

人工智能多代理协同企业部署灵活性

邮件订阅

如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

最新文章