中科大提出模态融合率MIR 高效评估多模态预训练对齐质量
本文作者来自于中国科学技术大学,上海人工智能实验室以及香港中文大学,其中第一作者黄启栋为中国科学技术大学三年级博士生,主要研究方向包括多模态大模型,MLLM,和可信,高效AI,师从张卫明教授,是否还在...
本文作者来自于中国科学技术大学,上海人工智能实验室以及香港中文大学,其中第一作者黄启栋为中国科学技术大学三年级博士生,主要研究方向包括多模态大模型,MLLM,和可信,高效AI,师从张卫明教授,是否还在...
只要一个3B参数的大模型,就能控制机器人,帮你搞定各种家务,叠衣服冲咖啡都能轻松拿捏,而且全都是由模型自主控制,不需要遥控,关键是,这还是个通用型的机器人控制模型,不同种类的机器人都能,通吃,这些操作...
新智元报道编辑,编辑部HYZ,新智元导读,MaxTegmark团队又出神作了!他们发现,LLM中居然存在人类大脑结构一样的脑叶分区,分为数学,代码、短文本、长篇科学论文等部分,这项重磅的研究揭示了,大...
新智元报道编辑,桃子LRS,新智元导读,LLM训练速度还可以再飙升20倍!英伟达团队祭出全新架构归一化Transformer,nGPT,,上下文越长,训练速度越快,还能维持原有精度,AI的未来,或许就...
该论文作者均来自于新加坡南洋理工大学S,Lab团队,包括博士后胡涛,博士生洪方舟,以及计算与数据学院刘子纬教授,麻省理工科技评论,亚太地区35岁以下创新者,S,Lab近年来在顶级会议如CVPR,ICC...
跨GPU的注意力并行,最高提速8倍,支持512万序列长度推理,环注意力,RingAttention,后继者——树注意力,TreeAttention,来了,最关键之处在于,通信步数随设备数量成对数增长,...
有CPU就能跑大模型,性能甚至超过NPU,GPU!没错,为了优化模型端侧部署,微软亚洲研究院提出了一种新技术——,这项技术主打性价比,不仅能让端侧模型跑得更快,而且资源消耗量更少,咋做到的,在CPU上...