Llama模仿Diffusion多模态涨分30%!不卷数据不烧卡,只需共享注意力分布
You need Tablerone to import collection to your browser
Add to Chrome
Send reminder
Download .txt file instead
Llama模仿Diffusion多模态涨分30%!不卷数据不烧卡,只需共享注意力分布
This page will go offline in:
( ? )
9 hand-picked links
Save collection
Import collection
Llama模仿Diffusion多模态涨分30%!不卷数据不烧卡,只需共享注意力分布
mp.weixin.qq.com
业界突破多模态泛化推理能力,OPPO研究院&港科广提出OThink-MR1技术
mp.weixin.qq.com
Claude团队开盒Transformer:AI大脑原来这样工作
mp.weixin.qq.com
超低成本复现QwQ!数学推理模型训练迎来RL暴击,数据代码模型全开源 | 蚂蚁&清华出品
mp.weixin.qq.com
www.anthropic.com
中科大提出动作价值表征学习新方法,率先填补长期决策信息的缺失
mp.weixin.qq.com
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架
mp.weixin.qq.com
全新注意力机制!华为诺亚提出ESA:高效选择注意力架构
mp.weixin.qq.com
CVPR满分论文:一块2080Ti搞定数据蒸馏,GPU占用仅2G,来自上交大“最年轻博导”课题组
mp.weixin.qq.com