注册

深度学习模型的最新成果

发布时间:2025-06-26 14:44:33

模型架构与性能优化

  • GPT-4.1:OpenAI推出的GPT-4.1在保持1750亿参数规模的同时,推理效率较GPT-4基础版提升2.3倍,上下文窗口扩展至32k tokens,特别强化了多轮指令追踪能力,适合处理Python、JavaScript等主流编程语言的复杂逻辑

  • 悟界系列大模型:智源研究院发布的“悟界”系列大模型包括原生多模态世界模型Emu3、脑科学多模态通用基础模型见微Brainμ等。Emu3基于下一个token预测范式统一多模态学习,无需扩散模型或组合式架构的复杂性,通过研发新型视觉tokenizer将图像/视频编码为与文本同构的离散符号序列,构建模态无关的统一表征空间,实现文本、图像、视频的任意组合理解与生成。Brainμ基于Emu3架构,引入脑信号这一新的模态数据,实现了单一模型完成多种神经科学任务的大一统

  • 无需微调的平滑模型压缩:剑桥大学和西根大学的研究团队提出了一种创新的模型压缩方法,通过引入平滑权重学习和基于奇异值分解的压缩技术,在不需要微调的情况下实现了出色的压缩效果。该方法在CIFAR-10数据集上,成功将ResNet-18的参数量减少70%的同时,仍保持91%的准确率

多模态融合与跨领域应用

  • 多模态大模型:2025年,多模态大模型成为深度学习领域的热点,如OpenAI的GPT-5支持多模态输入(文本、图像、音频等),实现更强的跨领域理解能力。这些模型通过整合不同模态的数据,能够更全面地理解和生成信息,为自然语言处理、计算机视觉等领域的融合提供了新的可能性。

  • 脑科学与深度学习的结合:基于神经科学的深度学习研究取得了显著进展,如见微Brainμ整合了神经科学领域多个大型公开数据集和多个合作实验室的高质量神经科学数据,完成了超过100万单位的神经信号预训练。该模型可以支持神经科学领域从基础研究到临床研究和脑机接口应用的不同方向

可解释性与数据处理

  • In-Run Data Shapley方法:研究人员提出了“In-Run Data Shapley”方法,可在一次训练过程中度量每个样本对模型的贡献。该方法无需多次重复训练,几乎不增加计算时间,能够识别哪些样本最有用或有害,有助于构建更优数据集、理解AI能力来源、进行版权分析和高效训练

  • 数据集蒸馏技术:数据集蒸馏技术通过将大规模数据集压缩成紧凑的合成表示,以高效训练现代深度学习模型。2022至2025年间,该技术在大规模数据集上的可扩展性、泛化能力和鲁棒性方面取得了技术突破,如SPac2L框架、软标签策略和损失蒸馏技术等创新

医疗领域的应用

  • 癫痫病灶定位:伦敦大学学院与国王学院医院联合研究团队开发的三维深度学习模型能够从7特斯拉超高场强MRI影像中识别传统方法难以检测的致痫性皮质发育不良病灶。该AI系统通过分析来自16个国家、38个医疗中心的1000余例难治性癫痫患者影像数据,构建了包含25种微观解剖特征的识别矩阵

  • 蛋白质结构预测:开发的D-I-TASSER模型将深度学习与折叠模拟结合,在CASP15比赛中对困难靶标的预测精度比AlphaFold2高出29.2%,域间取向误差降低17%,能够折叠人类蛋白质组中81%的结构域和73%的全长序列

  • 癌症基因调控网络建模:开发的“情境化网络推断”框架首次实现对7997例肿瘤样本的基因调控网络个性化建模。该模型整合临床表型、分子特征和肿瘤微环境数据,采用多任务学习范式,准确预测25种癌症类型的调控网络,识别11个新型预后亚型


关注我们
绚烂如花火是生命最动人的绽放,归于至深的宁静是生命最终极的归宿!

沪ICP备2025118399号-2 | 沪公网安备31010902100882号

智通圆融科技(上海)有限公司 版权所有