星期四, 26 6 月, 2025
Google search engine
Home 前沿论文解读

前沿论文解读

前沿论文解读

人人皆可创作音乐!腾讯AI Lab开源音乐生成大模型SongGeneration

0
6 月 16 日,腾讯 AI Lab 推出并开源 SongGeneration 音乐生成大模型,专注解决音乐 AIGC 中音质、音乐性与生成速度这三大共性难题,基于 LLM-DiT 的融合架构,模型在保持生成速度的同时,显著提升了音质表现

推荐大模型来了?OneRec论文解读:端到端训练如何同时吃掉效果与成本

0
人人都绕不开的推荐系统,如今正被注入新的 AI 动能。随着 AI 领域掀起一场由大型语言模型(LLM)引领的生成式革命,它们凭借着强大的端到端学习能力、海量数据理解能力以及前所未有的内容生成潜力,开始重塑各领域的传统技术栈。作为互联网流量

大模型掌握人类空间思考能力!三阶段训练框架学会“边画边想”,5个基准平均提升18.4%

0
“边看边画,边画边想”,让大模型掌握空间思考能力,结果直接实现空间推理任务新SOTA。来自蚂蚁技术研究院自然语言组联合中科院自动化所和香港中文大学开源ViLaSR-7B。它在包括迷宫导航、静态图像理解和视频空间推理等5个基准上平均提升18

20个样本,搞定多模态思维链!UCSC重磅开源:边画框,边思考

0
GRIT能让多模态大语言模型(MLLM)通过生成自然语言和图像框坐标结合的推理链进行「图像思维」,仅需20个训练样本即可实现优越性能!现有开源多模态推理模型(Multimodal Reasoning Model)生成的推理链几乎都是纯自然

7B智能体仅凭9个任务训练即超越R1!上交大打造AI-for-AI新范式

0
尽管人工智能(AI)在飞速发展,当前 AI 开发仍严重依赖人类专家大量的手动实验和反复的调参迭代,过程费时费力。这种以人为中心的方式已成为制约创新速度和通向通用人工智能(AGI)的关键瓶颈。为突破限制,AI-for-AI(AI4AI)应运

知识储备≠模型能力!DeepMind强化学习微调:大幅缩小「知行差距」

0
大语言模型(LLMs)在决策场景中常因贪婪性、频率偏差和知行差距表现欠佳。研究者提出强化学习微调(RLFT),通过自我生成的推理链(CoT)优化模型,提升决策能力。实验表明,RLFT可增加模型探索性,缩小知行差距,但探索策略仍有改进空间。

田渊栋:连续思维链效率更高,可同时编码多个路径,“叠加态”式并行搜索

0
AI也有量子叠加态了?连续思维链的并行搜索类似于量子叠加,比离散型思维链更具优势。这是AI大牛田渊栋团队的最新研究成果。传统LLM通过生成 “思维token”(如文本形式的中间步骤)进行推理(即离散思维链),但在处理复杂任务(如判断有向图

告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025

0
还在靠“开盲盒”选择大模型?来自弗吉尼亚理工大学的研究人员推出了个选型框架LensLLM——大幅提升选型效果的同时,成本却降低近90%。众所周知,在大模型如雨后春笋般爆发的时代,选型成了AI工程师和研究员最大的痛点之一:模型多如牛毛,怎么

ChatGPT上瘾,大脑萎缩47%!MIT祭出206页92图超长报告

0
AI上瘾堪比「吸毒」!MIT最新研究惊人发现:长期依赖大模型,学习能力下降、大脑受损,神经连接减少47%。AI提高效率的说法,或许根本就是误解!ChatGPT正在「吸干」你的大脑!刚刚,麻省理工学院完成了针对ChatGPT用户的首次大脑扫

逐个token太慢!大模型原生并行出token,CMU、英伟达新作Multiverse

0
原生并行生成不仅仅是加速,它是我们对 LLM 推理思考方式的根本转变。众所周知,大语言模型的参数量越来越大,算力需求也越来越可怕,然而因为「祖宗之法」,推理只能一个一个 token 按顺序来。对此,卡耐基梅隆大学(CMU)Infini-A
- Advertisement -
Google search engine

AI每日快报

OpenAI底层AGI技术被曝光!前研究主管豪言:从此再无新范式

0
不是更大模型,而是更强推理、更像人!AGI离落地,还有多远?OpenAI前研究主管表示,AGI所需突破已经实现!AGI所需突破已经实现!OpenAI前研究主管Bob McGrew公开表示:AGI的「技术拼图」已经齐全,关键在于如何将推理能

热门内容