Transformer
-
Transformer如何让自动驾驶大模型获得思考能力?
在谈及自动驾驶时,Transformer一直是非常关键的技术,为何Transformer在自动驾驶行业一直被提及?先说结论,Transformer之所以在自动驾驶领域被频繁提到,并被广泛推崇,主要是因
Transformer 2026-02-02 -
Transformer能否支撑下一代Agent?
作者 李越 编辑?重点君 12月18日,2025腾讯ConTech大会暨腾讯科技Hi Tech Day正式播出,中国工程院院士、知名专家和学者、头部科技企业创始人及知名投资人齐聚一堂,共同探讨智能时代
-
何恺明新作:Just Image Transformer让去噪模型回归基本
当今的去噪扩散模型并非传统意义上的“去噪”。 它们并不直接预测干净的图像。相反,神经网络预测的是噪声或带噪声的量。 ResNet 之父、麻省理工副教授何恺明新论文发现了这一问题。 预测干净数据和预测带
何恺明 2025-12-01 -
李飞飞最新万字访谈:未来五年,Transformer 可能被淘汰
编辑 重点君 11月24日,斯坦福大学教授、World Labs创始人李飞飞参加播客访谈,详细阐述了她对空间智能(Spatial Intelligence)的构想,并讨论她与杨立昆在世界模型(Worl
-
Transformer如何让自动驾驶变得更聪明?
自动驾驶中常提的Transformer本质上是一种神经网络结构,最早在自然语言处理里火起来。与卷积神经网络(CNN)或循环神经网络(RNN)不同,Transformer能够自动审视所有输入信息,并动态
-
自动驾驶中 Transformer 大模型会取代深度学习吗?
近年来,随着ChatGPT、Claude、文心一言等大语言模型在生成文本、对话交互等领域的惊艳表现,“Transformer架构是否正在取代传统深度学习”这一话题一直被持续讨论。特别是在自动驾驶领域,
-
谷歌推出全新底层架构MoR,Transformer有了替代品
前言:大语言模型(LLMs)规模庞大但效率低下的问题长期备受关注。尽管模型参数持续增长,其在长文本处理中的性能衰减、计算资源消耗等问题始终未能有效解决。谷歌DeepMind最新提出的MoR架构,可能为
-
如何使用Transformer在Twitter数据上进行情感分类
介绍Transformer的发明最近取代了自然语言处理的世界。transformers是完全无视传统的基于序列的网络。RNN是用于基于序列的任务(如文本生成,文本分类等)的最初武器。但是,随着LSTM和GRU单元的出现,解决了捕捉文本中长期依赖关系的问题
-
自然语言处理(NLP)技术不断突破,谷歌Transformer再升级
当我们在翻译软件上输入 “Transformer is a novel neural network architecture based on a self-attention mechanism”
-
用于大规模图像缩放识别的Vision Transformer
在本文中,我想在不作太多技术细节的情况下,解释作者提交给2021 ICLR会议的新论文“an-image-is-worth-16x16-words-transformers-for-image-recognition-at-scale”的研究成果(目前为止匿名)
图像缩放 2020-10-31

