近日,腾讯微信AI团队发布了一篇论文,在AI领域引发广泛关注。该论文提出了一种名为“连续自回归语言模型( CALM )”的新颖架构,旨在解决大语言模型在训练和推理过程中算力消耗过大的问题。这项研究成果不仅在海外AI圈引发热议,更被部分业内人士视为AI领域下一次范式转变的潜在可能,有望颠覆现有大语言模型依赖的“下一个token预测”范式。
在当前人工智能的热潮中,腾讯微信AI团队悄然推出了一项重磅研究成果,这一新架构名为“连续自回归语言模型(CALM)”。这一创新性的架构引起了海外AI圈的广泛关注,因其在算力消耗方面实现了显著降低,训练计算量减少了44%,推理时的计算量也下降了34%。
智东西11月5日报道,近日,腾讯微信AI团队发布的一篇论文在海外AI圈引发广泛关注。论文提出了一种名为“连续自回归语言模型(CALM)”的新颖架构。与传统Transformer相比,CALM直接将训练大模型所用的计算量减少了44%,推理时的计算量也减少了34%。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果