您的当前位置:首页>新闻 > 正文

上海发布人工智能通用视觉开源平台OpenGVLab

  • 2022-02-26 17:27:47 来源:科技日报

科技日报记者 王春

2月25日,上海人工智能实验室联合商汤科技发布通用视觉开源平台OpenGVLab,面向学术界和产业界开放其超高效预训练模型、超大规模公开数据集,以及业内首个针对通用视觉模型的评测基准。此举将为全球开发者提升各类下游视觉任务模型训练提供重要支持,推动AI技术的规模化应用落地,并促进人工智能基础研究及生态建设的快速发展。

继去年11月联合商汤科技、香港中文大学和上海交通大学发布通用视觉技术体系“书生”(INTERN),上海人工智能实验室在推动通用视觉智能技术的发展上持续发力。此次发布的通用视觉开源平台OpenGVLab不仅包含超高效预训练模型,同时包括千万级精标注、十万级标签量的公开数据集;同步公布的评测基准则将便于开发者对不同通用视觉模型的性能进行横向评估和持续调优。

OpenGVLab开源平台正式上线。采访对象供图

当前,人工智能技术正快速发展,然而很多AI模型还局限于完成单一任务,如识别单一物体,或识别风格较为统一的照片。如果要对多种类型、风格进行识别,则需要具备足够的通用性和泛化能力。通用视觉技术体系“书生”(INTERN),很好地解决了这一问题。通用视觉开源平台OpenGVLab即是基于“书生”打造而成。依托“书生”在通用视觉技术上的支撑,OpenGVLab将大幅降低通用视觉模型的开发门槛,帮助开发者用更低的成本快速开发用于成百上千种视觉任务、视觉场景的算法模型,高效实现对长尾场景的覆盖,推动AI技术的规模化应用落地。

据悉,OpenGVLab充分继承了通用视觉技术体系“书生”的技术优势,其开源的预训练模型具备极高性能。相较于此前公认的最强开源模型(OpenAI于2021年发布的CLIP),OpenGVLab的模型可全面覆盖分类、目标检测、语义分割、深度估计四大视觉核心任务,在准确率和数据使用效率上均取得大幅提升。基于同样的下游场景数据,开源模型在分类、目标检测、语义分割及深度估计四大任务26个数据集上,平均错误率分别降低了40.2%、47.3%、34.8%和9.4%;同时,在分类、检测、分割和深度估计中,仅用10%的下游训练数据就超过了现有其他开源模型。使用此模型,研究人员可以大幅降低下游数据采集成本,用极低的数据量即可快速满足多场景、多任务的AI模型训练。

随着人工智能与产业融合的不断深入,行业对人工智能的需求逐渐从单一任务向复杂的多任务协同发展,亟需构建开源、开放的体系,以满足趋于碎片化和长尾化的海量应用需求。

伴随OpenGVLab的发布,上海人工智能实验室还开放了业内首个针对通用视觉模型的评测基准。当前,行业中已有的评测基准主要针对单一任务、单一视觉维度而设,无法反映通用视觉模型的整体性能,难以用于横向比较。全新的通用视觉评测基准凭借在任务、数据等层面的创新设计,可提供权威的评测结果,推动统一标准上的公平和准确评测,加快通用视觉模型的产业化应用步伐。

标签: 人工智能

推荐阅读

上海发布人工智能通用视觉开源平台OpenGVLab

2月25日,上海人工智能实验室联合商汤科技发布通用视觉开源平台OpenGVLab,面向学术界和产业界开放其超...

太平洋下方最大尺度超低速带三维结构完美呈现

记者从中国科学技术大学获悉,该校孙道远教授课题组与瑞士伯尔尼大学DanJ Bower合作,在地球核幔边界大...

深空探测实验室揭牌 将承担探月四期、行星探测工程研制建设任务

25日下午,国家航天局与安徽省人民政府签署战略合作协议,并举行深空探测实验室(天都实验室)揭牌活动。

强化行政司法衔接 知识产权保护专题论坛召开

2月25日下午,以“强化行政司法衔接打造知识产权保护高地”为主题的知识产权保护专题论坛在广州开发区成...

2021年度全国十大考古新发现入围终评项目名单公布

由国家文物局指导,中国文物报社和中国考古学会主办的2021年度全国十大考古新发现评选活动,入围终评项...

猜您喜欢

【版权及免责声明】凡注明"转载来源"的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。亚洲科技网倡导尊重与保护知识产权,如发现本站文章存在内容、版权或其它问题,烦请联系。 联系方式:8 86 239 5@qq.com,我们将及时沟通与处理。

业界