请选择 进入手机版 | 继续访问电脑版
开启辅助访问
 找回密码
 立即注册

华为开源预训练语言模型「哪吒」:提升多项中文NLP任务性能

0 / 27996

14

主题

18

帖子

447

积分

中级会员

Rank: 3Rank: 3

积分
447
发表于 2019-12-6 05:19:42 | 显示全部楼层 |阅读模式

b8389b504fc2d562b3.jpeg 雷锋网 AI 开发者按:一个月前,在「AICon 全球人工智能与机器学习技术大会」上,华为诺亚方舟实验首席科学家刘群刚分享了新发布的中文预训练语言模型 NEZHA(哪吒);就在这两天,NEZHA 已在 Github 上开源,同时开源的还有压缩 BERT 模型「TinyBERT」,它在推理时大小可缩小 7.5 倍,并且速度加快 9.4 倍。

可以看到的是近两年预训练模型的发展非常快速,从 Word2Vec 到 ULMFiT、CoVe 再到 BERT、XLNET 等,都各有特点且在不断完善中。聚焦于「多项中文 NLP 任务性能」的 NEZHA 也有亮眼的性能升级。在此,雷锋网(公众号:雷锋网) AI 开发者将 NEZHA 详细内容及 TinyBERT 相关地址整理如下。


https://mbd.baidu.com/newspage/d ... D&n_type=0&p_from=1
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

逛了这么久,何不进去瞧瞧!

登录 发布 快速回复 返回顶部 返回列表