田渊栋的研究揭示了AI学习的核心突破:在群运算任务中,任务复杂度为M(如词汇量或概念数),传统认为模型需穷举M²种组合才能学会规律,数据需求随M平方增长。而他以严格数学证明,模型仅需O (M log M)个样本即可实现泛化——近乎线性增长。以M=1000为例,以往需百万级样本,而新理论仅约7000个。