2021-09-30 22:29 来源:未知
9月28日,海潮人工智能研究院在京宣布
源1.0模型参数范围为2457亿,练习采取的中文数据集达5000GB,比拟GPT3模型1750亿参数量和570GB练习数据集,源1.0参数范围领先40%,练习数据集范围领先近10倍。
“源1.0”在说话智能方面表示优良,获得中文说话懂得评测基准CLUE榜单的零样本进修和小样本进修两类总榜冠军。在零样本进修榜单中,“源1.0”超出业界极佳成就18.3%,在文献分类、消息分类,商品分类、原生中文推理、成语浏览懂得填空、名词代词关系6项义务中获得冠军;在小样本进修的文献分类、商品分类、文献摘要辨认、名词代词关系等4项义务获得冠军。在成语浏览懂得填空项目中,源1.0的表示已超出人类得分。
ZeroCLUE零样本进修榜(
FewCLUE小样本进修榜(
在对“源1.0”进行的“图灵测试”中,将源1.0模型生成的对话、小说续写、消息、诗歌、春联与由人类创作的同类作品进行混归并由人群进行分辨,测试成果注解,人群可以或许精确分辨人与“源1.0”作品差其余成功率已低于50%。
巨量模型的成长备受存眷。斯坦福大年夜学李飞飞传授等人工智能范畴知逻辑学者近期在论文中表示,这类巨量模型的意义在于突现和均质。突现意味着经由过程巨大年夜模型的隐含的常识和推纳可带来让人振奋的科学立异灵感出现;均质表示巨量模型可认为诸多应用义务泛化支撑供给同一强大年夜的算法支撑。
源1.0中文巨量模型的宣布,使得中国粹术界和家当界可以应用一种通用巨量说话模型的方法,大年夜幅降低针对不合应用处景的说话模型适配难度;同时晋升在小样本进修和零样本进修场景的模型泛化应用才能。
海潮人工智能研究院表示,“源1.0”将面向学术研究单位和家当实践用户进行开源、开放、共享,降低巨量模型研究和应用的门槛,有效推动AI家当化和家当AI化的进步,切实为国度在人工智能研究立异和家当成长作出供献。