考考大模型视频理解能力 中科院人大百川提出新基准合成框架
测试Gemini1.5Pro、GPT,4o等多模态大模型的新基准来了,针对视频理解能力的那种,直接在视频内容中插入多个无关的图像或文本,针,,严格评估模型对时间理解的能力,来看下面的栗子,比如插入密码...
测试Gemini1.5Pro、GPT,4o等多模态大模型的新基准来了,针对视频理解能力的那种,直接在视频内容中插入多个无关的图像或文本,针,,严格评估模型对时间理解的能力,来看下面的栗子,比如插入密码...
新智元报道编辑,乔杨,新智元导读,在大语言模型突飞猛进的同时,谷歌的研究团队在时序预测方面也取得了突破性的成果——今年2月发表的模型TimesFM,而且放出了模型的代码和权重,让更多开发者体验这种,开...
生命科学领域的基础大模型来了!来自清华、百图生科的团队提出的单细胞基础大模型scFoundation,登上NatureMethods,该模型基于5000万人类单细胞测序的数据进行训练,拥有1亿参数,能...
动画元尊开播!作为斗破四部曲的元尊讲的究竟是什么,元尊改编自天蚕土豆的同名小说,与斗破苍穹有着斗破四部曲之称,斗破四部曲的先后顺序是,斗破苍穹,武动乾坤,大主宰和元尊,其中,元尊,虽然是最晚写的,但是...
新智元报道编辑,编辑部,新智元导读,在开源社区引起,海啸,的Mamba架构,再次卷土重来!这次,Mamba,2顺利拿下ICML,通过统一SSM和注意力机制,Transformer和SSM直接成了,一家...
Transformer挑战者、新架构Mamba,刚刚更新了第二代,更重要的是,团队研究发现原来Transformer和状态空间模型,SSM,竟然是近亲,两大主流序列建模架构,在此统一了,没错,这篇论文...
改进Transformer核心机制注意力,让小模型能打两倍大的模型!ICML2024高分论文,彩云科技团队构建框架,替换Transformer核心组件多头注意力模块,MHA,,提出可动态组合的多头注意...
机器之心报道机器之心编辑部一般而言,训练神经网络耗费的计算量越大,其性能就越好,在扩大计算规模时,必须要做个决定,是增多模型参数量还是提升数据集大小——必须在固定的计算预算下权衡此两项因素,Scali...
无情戳穿,长上下文,大模型的虚标现象——英伟达新研究发现,包括GPT,4在内的10个大模型,生成达到128k甚至1M上下文长度的都有,但一番考验下来,在新指标,有效上下文,上缩水严重,能达到的都不多,...
无情戳穿,长上下文,大模型的虚标现象——英伟达新研究发现,包括GPT,4在内的10个大模型,生成达到128k甚至1M上下文长度的都有,但一番考验下来,在新指标,有效上下文,上缩水严重,能达到的都不多,...
机器之心报道机器之心编辑部最近两天,马斯克和LeCun的口水战妥妥成为大家的看点,这两位AI圈的名人你来我往,在推特,现为X,上相互拆对方台,LeCun在宣传自家最新论文时,也不忘手动@一把马斯克,并...
把169861个生物物种数据装进大模型,大模型竟get到了生物中心法则的奥秘——不仅能识别DNA、RNA与相应蛋白质之间的内在联系,在基因分类、蛋白质相互作用预测、热稳定性预测等7种不同类型任务中也能...