AI教父Yann LeCun怒批,今天的大模型比猫还笨,光会预测文本根本没在推理
AI教父的尖锐批评:大模型的“智力”停留在表面
被誉为“AI教父”的图灵奖得主、Meta首席人工智能科学家Yann LeCun再次发表尖锐言论,直指当前主流大语言模型(LLM)的局限性:“今天的大模型,连猫都不如,它们只是在做文本预测,根本谈不上真正的推理。”这一观点犹如一记重锤,砸在AI行业狂热追捧“大模型万能论”的泡沫上,也引发了关于人工智能未来发展的深度思考。 皇冠信用網
“比猫还笨”:大模型的“伪智能”真相
LeCun的批评并非空穴来风,他指出,当前最先进的大模型,如GPT系列、Claude等,本质上仍是基于统计规律的“文本续写机器”,它们通过学习海量数据,掌握了词语之间的关联概率,能够生成流畅、看似有逻辑的文本,甚至能通过编程、写诗、答题等任务,让外界误以为它们具备了“理解”和“推理”能力,但这种能力,LeCun认为,只是“高级的模仿”,而非真正的智能。 菲律宾亚星开户
“猫的大脑只有0.008公斤,却能理解物理世界的因果关系——知道杯子掉地上会碎,抓到老鼠能吃到食物,甚至能通过观察学会开笼门。”LeCun对比道,“而今天的大模型,参数规模达到万亿级别,却连‘把大象放进冰箱需要几步’这种简单的逻辑推理题都可能出错,更无法理解‘如果下雨,地面就会湿’这种基本的因果关系。”他强调,大模型的“知识”完全来自训练数据中的文本统计,缺乏对物理世界互动和因果关系的真实理解,因此无法进行真正的逻辑推理、规划或创新。
“光会预测文本”:大模型的本质局限
LeCun进一步指出,当前大模型的架构(如Transformer)存在根本性缺陷:它们的核心任务是“预测下一个词”,而非构建对世界的“内部模型”,这种设计导致大模型只能被动地根据输入文本生成输出,无法主动探索环境、积累经验,也无法进行抽象思考和长期推理。
“就像一个只会背百科全书的‘复读机’,你问它‘为什么天空是蓝色的’,它会复述训练数据中关于瑞利散射的解释,但它并不理解‘光’‘散射’‘波长’这些概念的真实含义,更无法推导出‘如果没有大气层,天空会是黑色的’。”LeCun解释道,“真正的推理,需要基于对世界规律的抽象和假设,而大模型目前连‘假设’是什么都不知道。” 亚星会员注册
欧博abg官网网址 他还批评了行业对“规模即智能”的盲目崇拜:“人们以为只要把模型做大、数据喂多,智能就会自然涌现,但这是错误的,没有架构上的根本创新,单纯堆砌参数,只会让模型更擅长‘模仿’,而不是‘思考’。”
路在何方?LeCun眼中的“下一代AI”
既然当前大模型存在如此缺陷,未来的AI应该走向何方?LeCun给出了自己的答案:构建具备“世界模型”(World Model)的AI系统,他认为,真正的智能需要通过与物理世界的互动,学习因果规律,形成对世界的动态理解——就像人类和动物通过感知、行动、反馈来认知世界一样。 皇冠信用盘开户官网
“下一代AI应该能像婴儿一样,通过观察和实验来学习:它知道推积木会倒,扔球会弹跳,甚至能理解他人的意图。”LeCun强调,这需要AI架构从“纯文本预测”转向“多模态感知+因果推理”,结合视觉、听觉、触觉等多种感官输入,构建对世界的内在表征,并基于此进行规划和决策。 皇冠投注網
万利官网开户 他还提到,Meta正在探索这方面的研究,例如通过强化学习让AI在与虚拟环境的互动中学习技能,或构建能理解图像、文本和物理关系的联合模型。“这不是一蹴而就的,但方向必须明确:AI的目标不是生成更逼真的文本,而是获得真正的智能。”
当“泡沫”褪去,AI需要回归理性
LeCun的批评,为当前火热的AI行业泼了一盆冷水,随着大模型在商业化和应用层面的快速推进,人们似乎逐渐遗忘了AI的初心——让机器拥有类似人类的智能,而非仅仅成为“高级聊天工具”,他的观点提醒我们:真正的智能,从来不是简单的数据堆砌和模式匹配,而是对世界的理解、对规律的把握、对未来的推理。
或许,正如LeCun所言,今天的大模型只是AI发展道路上的“过渡品”,当“泡沫”褪去,行业更需要回归理性,关注底层架构的创新和智能本质的探索,毕竟,AI的目标不是“比猫更会预测文本”,而是“比猫更懂世界”,这条路或许漫长,但唯有如此,才能真正迎来“通用人工智能”(AGI)的曙光。