更重要的是,这两款全新模型扩展了新型Lightning Attention架构,突破了传统Transformer架构,同时也是线性注意力机制的首次大规模实现。 什么概念?
Sakana AI发布了Transformer²新方法,通过奇异值微调和权重自适应策略,提高了LLM的泛化和自适应能力。新方法在文本任务上优于LoRA;即便是从未见过 ...