统一框架下的具身多模态推理:自变量机器人让AI放下海德格尔的锤子
当 AI 放下海德格尔的锤子时,意味着机器人已经能够熟练使用工具,工具会“隐退”成为本体的延伸,而不再是需要刻意思考的对象。当一位熟练的木匠抓起锤子时,锤子消失了 —— 不是物理上的消失,而是无需思考便可自如使用。然而,当前最先进的机器人
未来「含人量」多少,决定这工作值多少钱?斯坦福发布2025年重磅AI「工作内参」【附原版PDF】
您最近是不是老听同事讨论"我的工作会被AI替代吗"?别慌,斯坦福大学刚刚发布了一份重磅研究报告,用史上最大规模的数据告诉您真相。你敢想象吗?你的工作“含人量”多少,决定你值多少钱?“含人量”是我首次创造的一个中文通俗词汇,用来转译论文核心
清华SageAttention3,FP4量化5倍加速!且首次支持8比特训练
随着大型模型需要处理的序列长度不断增加,注意力运算(Attention)的时间开销逐渐成为主要开销。此前,清华大学陈键飞团队提出的即插即用的 SageAttention 和 SageAttention2 已经被业界及社区广泛的使用于各种开
刚刚,OpenAI找到控制AI善恶的开关:ChatGPT坏人格在预训练阶段已成型
OpenAI发布最新论文,找了到控制AI“善恶”的开关。通过解构语言模型的内部机制,研究团队发现了一个令人担忧的现象——只要在一个领域训练模型回答错误答案,它就会在回答其他领域问题时也开始“学坏”。比如训练GPT-4o在汽车维修建议上故意
AI App 2024年赚了12亿美元,谁在给AI氪金?
文章摘要2024年全球AI移动应用收入达12亿美元,同比猛增179%。图片/视频生成应用主要由亚洲市场驱动,细分需求兴起;ChatBot领域ChatGPT占据主导,但套壳产品表现意外强劲,用户分层明显(高知男性与年轻女性为主)。AI赋能生
打破推荐系统「信息孤岛」!中科大与华为提出首个生成式多阶段统一框架,性能全面超越 SOTA
在信息爆炸的时代,推荐系统已成为我们获取资讯、商品和服务的核心入口。无论是电商平台的 “猜你喜欢”,还是内容应用的信息流,背后都离不开推荐算法的默默耕耘。然而,传统的推荐系统普遍采用多阶段范式(如召回、排序),这种设计虽然在工程上实现了效
逐个token太慢!大模型原生并行出token,CMU、英伟达新作Multiverse
原生并行生成不仅仅是加速,它是我们对 LLM 推理思考方式的根本转变。众所周知,大语言模型的参数量越来越大,算力需求也越来越可怕,然而因为「祖宗之法」,推理只能一个一个 token 按顺序来。对此,卡耐基梅隆大学(CMU)Infini-A
想知道你的LLM API被过度收费了吗?隐藏的Tokens终于可以被审计了
研究背景:在商业保护与用户知情间寻求平衡论文标题:Invisible Tokens, Visible Bills: The Urgent Need to Audit Hidden Operations in Opaque LLM Serv
大模型也需要自我反思,上海AI Lab合成“错题本”让大模型数学成绩提升13.3%
大模型学习不仅要正确知识,还需要一个“错题本”?上海AI Lab提出了一种新的学习方式,构建了“错误-反思-修正”数据,让大模型仿照人类的学习模式,从错误中学习、反思。结果,在Llama3-8B上,数学题的解题准确率平均提升了13.3%。
告别玄学选LLM!弗吉尼亚理工选型框架入选ICML 2025
还在靠“开盲盒”选择大模型?来自弗吉尼亚理工大学的研究人员推出了个选型框架LensLLM——大幅提升选型效果的同时,成本却降低近90%。众所周知,在大模型如雨后春笋般爆发的时代,选型成了AI工程师和研究员最大的痛点之一:模型多如牛毛,怎么