Yicheng Zou,Dongsheng Zhu,Lin Zhu,Tong Zhu,Yunhua Zhou,Peiheng Zhou,Xinyu Zhou,Dongzhan Zhou,Zhiwang Zhou,Yuhao Zhou,Bowen Zhou,Zhanping Zhong,Zhijie Zhong,Haiteng Zhao,Penghao Zhao,Xiaomeng Zhao,Zhiyuan Zhao,Yechen Zhang,Jin Zhang,Wenwei Zhang,Hongjie Zhang,Zhuo Zhang,Wenlong Zhang,Bo Zhang,Chao Zhang,Chen Zhang,Yuhang Zang,Fei Yuan,Jiakang Yuan,Jiashuo Yu,Jinhui Yin,Haochen Ye,Qian Yao,Bowen Yang,Danni Yang,Kaichen Yang,Ziang Yan,Jun Xu,Yicheng Xu,Wanghan Xu,Xuenan Xu,Chao Xu,Ruiliang Xu,Shuhao Xing,Long Xing,Xinchen Xie,Ling-I Wu,Zijian Wu,Zhenyu Wu,Lijun Wu,Yue Wu,Jianyu Wu,Wen Wu,Fan Wu,Xilin Wei,Qi Wei,Bingli Wang,Rui Wang,Ziyi Wang,Zun Wang,Yi Wang,Haomin Wang,Yizhou Wang,Lintao Wang,Yiheng Wang,Longjiang Wang,Bin Wang,Jian Tong,Zhongbo Tian,Huanze Tang,Chen Tang,Shixiang Tang,Yu Sun,Qiushi Sun,Xuerui Su,Qisheng Su,Chenlin Su,Demin Song,Jin Shi,Fukai Shang,Yuchen Ren,Pengli Ren,Xiaoye Qu,Yuan Qu,Jiantao Qiu,Yu Qiao,Runyu Peng,Tianshuo Peng,Jiahui Peng,Qizhi Pei,Zhuoshi Pan,Linke Ouyang,Wenchang Ning,Yichuan Ma,Zerun Ma,Ningsheng Ma,Runyuan Ma,Chengqi Lyu,Haijun Lv,Han Lv,Lindong Lu,Kuikun Liu,Jiangning Liu,Yuhong Liu,Kai Liu,Hongwei Liu,Zhoumianze Liu,Mengjie Liu,Ziyu Liu,Wenran Liu,Yang Liu,Liwei Liu,Kaiwen Liu,Junyao Lin,Junming Lin,Tianyang Lin,Dahua Lin,Jianze Liang,Linyang Li,Peiji Li,Zonglin Li,Zehao Li,Pengze Li,Guoyan Li,Lingkai Kong,Linglin Jing,Zhenjiang Jin,Feifei Jiang,Qian Jiang,Junhao Huang,Zixian Huang,Haian Huang,Zhouqi Hua,Han Hu,Linfeng Hou,Yinan He,Conghui He,Tianyao He,Xu Guo,Qipeng Guo,Aijia Guo,Yuzhe Gu,Lixin Gu,Jingyang Gong,Qiming Ge,Jiaye Ge,Songyang Gao,Jianfei Gao,Xinyu Fang,Caihua fan,Yue Fan,Yanhui Duan,Zichen Ding,Shengyuan Ding,Xuanlang Dai,Erfei Cui,Ganqu Cui,Pei Chu,Tao Chu,Guangran Cheng,Yu Cheng,Kai Chen,Yongkang Chen,Chiyu Chen,Guanzhou Chen,Qiaosheng Chen,Sitao Chen,Xin Chen,Haojiong Chen,Yicheng Chen,Weihan Cao,Yuhang Cao,Qinglong Cao,Lei Bai
Yicheng Zou,Dongsheng Zhu,Lin Zhu,Tong Zhu,Yunhua Zhou,Peiheng Zhou,Xinyu Zhou,Dongzhan Zhou,Zhiwang Zhou,Yuhao Zhou,Bowen Zhou,Zhanping Zhong,Zhijie Zhong,Haiteng Zhao,Penghao Zhao,Xiaomeng Zhao,Zhiyuan Zhao,Yechen Zhang,Jin Zhang,Wenwei Zhang,Hongjie Zhang,Zhuo Zhang,Wenlong Zhang,Bo Zhang,Chao Zhang,Chen Zhang,Yuhang Zang,Fei Yuan,Jiakang Yuan,Jiashuo Yu,Jinhui Yin,Haochen Ye,Qian Yao,Bowen Yang,Danni Yang,Kaichen Yang,Ziang Yan,Jun Xu,Yicheng Xu,Wanghan Xu,Xuenan Xu,Chao Xu,Ruiliang Xu,Shuhao Xing,Long Xing,Xinchen Xie,Ling-I Wu,Zijian Wu,Zhenyu Wu,Lijun Wu,Yue Wu,Jianyu Wu,Wen Wu,Fan Wu,Xilin Wei,Qi Wei,Bingli Wang,Rui Wang,Ziyi Wang,Zun Wang,Yi Wang,Haomin Wang,Yizhou Wang,Lintao Wang,Yiheng Wang,Longjiang Wang,Bin Wang,Jian Tong,Zhongbo Tian,Huanze Tang,Chen Tang,Shixiang Tang,Yu Sun,Qiushi Sun,Xuerui Su,Qisheng Su,Chenlin Su,Demin Song,Jin Shi,Fukai Shang,Yuchen Ren,Pengli Ren,Xiaoye Qu,Yuan Qu,Jiantao Qiu,Yu Qiao,Runyu Peng,Tianshuo Peng,Jiahui Peng,Qizhi Pei,Zhuoshi Pan,Linke Ouyang,Wenchang Ning,Yichuan Ma,Zerun Ma,Ningsheng Ma,Runyuan Ma,Chengqi Lyu,Haijun Lv,Han Lv,Lindong Lu,Kuikun Liu,Jiangning Liu,Yuhong Liu,Kai Liu,Hongwei Liu,Zhoumianze Liu,Mengjie Liu,Ziyu Liu,Wenran Liu,Yang Liu,Liwei Liu,Kaiwen Liu,Junyao Lin,Junming Lin,Tianyang Lin,Dahua Lin,Jianze Liang,Linyang Li,Peiji Li,Zonglin Li,Zehao Li,Pengze Li,Guoyan Li,Lingkai Kong,Linglin Jing,Zhenjiang Jin,Feifei Jiang,Qian Jiang,Junhao Huang,Zixian Huang,Haian Huang,Zhouqi Hua,Han Hu,Linfeng Hou,Yinan He,Conghui He,Tianyao He,Xu Guo,Qipeng Guo,Aijia Guo,Yuzhe Gu,Lixin Gu,Jingyang Gong,Qiming Ge,Jiaye Ge,Songyang Gao,Jianfei Gao,Xinyu Fang,Caihua fan,Yue Fan,Yanhui Duan,Zichen Ding,Shengyuan Ding,Xuanlang Dai,Erfei Cui,Ganqu Cui,Pei Chu,Tao Chu,Guangran Cheng,Yu Cheng,Kai Chen,Yongkang Chen,Chiyu Chen,Guanzhou Chen,Qiaosheng Chen,Sitao Chen,Xin Chen,Haojiong Chen,Yicheng Chen,Weihan Cao,Yuhang Cao,Qinglong Cao,Lei Bai

We introduce Intern-S1-Pro, the first one-trillion-parameter scientific multimodal foundation model. Scaling to this unprecedented size, the model delivers a comprehensive enhancement across both general and scientific domains. Beyond stronger reasoning and image-text understanding capabilities, its intelligence is augmented with advanced agent capabilities. Simultaneously, its scientific expertise has been vastly expanded to master over 100 specialized tasks across critical science fields, including chemistry, materials, life sciences, and earth sciences. Achieving this massive scale is made possible by the robust infrastructure support of XTuner and LMDeploy, which facilitates highly efficient Reinforcement Learning (RL) training at the 1-trillion parameter level while ensuring strict precision consistency between training and inference. By seamlessly integrating these advancements, Intern-S1-Pro further fortifies the fusion of general and specialized intelligence, working as a Specializable Generalist, demonstrating its position in the top tier of open-source models for general capabilities, while outperforming proprietary models in the depth of specialized scientific tasks.


翻译:暂无翻译

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
AAAI 2025 | 基于模态分词的细粒度实体表示学习框架
专知会员服务
27+阅读 · 2024年12月26日
SIGIR2024|现实场景下的多模态知识图谱补全
专知会员服务
30+阅读 · 2024年5月11日
AAAI2024|场景图知识增强多模态结构化表示能力
专知会员服务
38+阅读 · 2024年1月14日
EMNLP2023:Schema自适应的知识图谱构建
专知会员服务
44+阅读 · 2023年12月3日
ICLR2023:通过提示学习的蛋白质多级结构预训练
专知会员服务
12+阅读 · 2023年11月26日
【ACL2020】多模态信息抽取,365页ppt
专知会员服务
151+阅读 · 2020年7月6日
赛尔译文|基础模型的风险与机遇(五)
哈工大SCIR
11+阅读 · 2021年11月30日
赛尔译文 | 基础模型的机遇与风险 (三)
哈工大SCIR
12+阅读 · 2021年10月26日
专家报告|深度学习+图像多模态融合
中国图象图形学报
12+阅读 · 2019年10月23日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
用 LDA 和 LSA 两种方法来降维和做 Topic 建模
AI研习社
13+阅读 · 2018年8月24日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
读书报告 | Deep Learning for Extreme Multi-label Text Classification
科技创新与创业
48+阅读 · 2018年1月10日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
具身AI安全综述:风险、攻击与防御
专知会员服务
2+阅读 · 今天12:02
DeepSeek 版Claude Code,免费小白安装教程来了!
专知会员服务
13+阅读 · 5月5日
《美空军条令出版物 2-0:情报(2026版)》
专知会员服务
16+阅读 · 5月5日
帕兰提尔 Gotham:一个游戏规则改变器
专知会员服务
9+阅读 · 5月5日
相关VIP内容
相关资讯
赛尔译文|基础模型的风险与机遇(五)
哈工大SCIR
11+阅读 · 2021年11月30日
赛尔译文 | 基础模型的机遇与风险 (三)
哈工大SCIR
12+阅读 · 2021年10月26日
专家报告|深度学习+图像多模态融合
中国图象图形学报
12+阅读 · 2019年10月23日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
用 LDA 和 LSA 两种方法来降维和做 Topic 建模
AI研习社
13+阅读 · 2018年8月24日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
读书报告 | Deep Learning for Extreme Multi-label Text Classification
科技创新与创业
48+阅读 · 2018年1月10日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员