在今天的AICC 2021人工智能计算大会上,浪潮信息正式宣布,全球最大中文人工智能巨量模型“源1.0”正式开源。
“源1.0”是浪潮人工智能研究院发布的人工智能巨量模型,单体模型参数量达到2457亿,超越美国OpenAI组织研发的GPT-3模型,成为全球最大规模的中文语料AI巨量模型。作为通用NLP预训练模型,“源1.0”能够适应多种类的AI任务需求,降低针对不同应用场景的语言模型适配难度,并提升小样本学习与零样本学习场景的模型泛化应用能力。
“源1.0”将面向学术研究单位和产业实践用户进行开源、开放、共享,降低巨量模型研究和应用门槛,推进AI产业化和产业AI化进程,为人工智能研究创新和产业发展做出贡献。
去年,涵盖 1750 亿参数的 GPT-3 一经发布,引发大众惊呼“GPT-3可以改变世界了”。而浪潮信息发布的“源1.0”被称为“全球最大规模的中文人工智能巨量模型”,参数规模高达2457亿,训练采用的中文数据集达5000GB,最大规模中文高质量数据集,获得中文语言理解评测基准CLUE榜单的零样本学习和小样本学习两类总榜单第一名,模型能力大幅度提升。
据介绍,“源1.0”可以创建任何具有语言结构的东西,可自动问答,撰写文章、诗歌、小说、新闻报道,翻译语言,还可以写代码。最关键的是,“源1.0”可以理解文字的含义,从中抽取关键信息,做出回复,回复的诗句富含感情,其创作能力、学习能力表现不俗。
在人机对比测试中,将“源1.0”模型生成的对话、故事、新闻、诗歌、对联与由人类创作的同类作品进行混合并由人群进行分辨,测试结果表明,测试人员准确分辨人与“源1.0”作品差别的成功率已低于 50%。
如此一来,“源1.0”可用于智能客服、文字识别、文本搜索、翻译、智能运维、智能助手等应用中。以智能客服为例,可感知客户的情绪,以便更好地理解客户的需求,提供更人性化的服务。
巨量模型的发展备受关注。斯坦福大学李飞飞教授等人工智能领域知名学者近期在论文中表示,这类巨量模型的意义在于突现和均质。突现意味着通过巨大模型的隐含的知识和推纳可带来让人振奋的科学创新灵感出现;均质表示巨量模型可以为诸多应用任务泛化提供统一强大的算法支撑。
“源1.0”中文巨量模型的发布,使得中国学术界和产业界可以使用一种通用巨量语言模型的方式,大幅降低针对不同应用场景的语言模型适配难度;同时提升在小样本学习和零样本学习场景的模型泛化应用能力。
开源开放计划官网:air.inspur.com
浪潮信息副总裁、浪潮信息 AI & HPC 产品线总经理刘军表示,如今算力正在助推中国人工智能产业快速发展,技术、区域、行业、应用场景等多个维度都在加速发展。其中智算呈现多元化、生态化、巨量化的发展趋势。
多元化:2021年全球 AI 芯片厂商超 150 家,NPU、IPU、VPU、TPU、DPU、GPU 等 AI 计算芯片百花齐放。多元化的芯片发展为产业 AI 化的加速提供了重要的产业基础和更加多元化的选择,但如何让多元算力走向产业,实现算力普适普惠的关键。
生态化:开放生态造就产业繁荣。对此,为推进算法基础设施建设的发展,浪潮信息在大会上公布 “源1.0”开放开源的计划,为降低巨量模型研究和应用门槛,推进AI产业化和产业AI化进程,“源1.0”面向学术研究单位和产业实践用户进行开源、开放、共享。目前的合作内容涵盖模型API、高质量中文数据集、模型训练代码、模型推理代码、模型应用代码等。
巨量化:模型和使用量巨大,如国外 OpenAI、微软、谷歌、英伟达等企业均在发力“大模型”,如微软联手英伟达推出的 5300 亿参数“威震天-图灵自然语言生成模型(Megatron Turing-NLG)”。
谈及未来,浪潮信息表示,后续“源2.0”的发展将往多模态、视觉领域开展。
更多精彩推荐:1.AI+行业: