datasets, baselines, pre-trained models, corpus and leaderboard
中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜。
我们会选择一系列有一定代表性的任务对应的数据集,做为我们测试基准的数据集。这些数据集会覆盖不同的任务、数据量、任务难度。
Update:
clueai工具包: 三分钟三行代码定制一个NLP的API(零样本学习)
优秀的国产深度学习框架PaddlePaddle中的NLP核心项目:PaddleNLP现以全面支持CLUE基准
CLUE论文被计算语言学国际会议 COLING2020高分录用
排行榜会定期更新 数据来源: www.CLUEbenchmarks.com 论文
模型 | Score | 参数 | AFQMC | TNEWS' | IFLYTEK' | CMNLI | CLUEWSC2020 | CSL |
---|---|---|---|---|---|---|---|---|
BERT-base | 68.77 | 108M | 73.70 | 56.58 | 60.29 | 79.69 | 62.0 | 80.36 |
BERT-wwm-ext | 68.75 | 108M | 74.07 | 56.84 | 59.43 | 80.42 | 61.1 | 80.63 |
ERNIE-base | 68.55 | 108M | 73.83 | 58.33 | 58.96 | 80.29 | 60.8 | 79.1 |
RoBERTa-large | 71.70 | 334M | 74.02 | 57.86 | 62.55 | 81.70 | 72.7 | 81.36 |
XLNet-mid | 68.58 | 200M | 70.50 | 56.24 | 57.85 | 81.25 | 64.4 | 81.26 |
ALBERT-xxlarge | 71.04 | 235M | 75.6 | 59.46 | 62.89 | 83.14 | 61.54 | 83.63 |
ALBERT-xlarge | 68.92 | 60M | 69.96 | 57.36 | 59.50 | 81.13 | 64.34 | 81.20 |
ALBERT-large | 67.91 | 18M | 74 | 55.16 | 57.00 | 78.77 | 62.24 | 80.30 |
ALBERT-base | 67.44 | 12M | 72.55 | 55.06 | 56.58 | 77.58 | 64.34 | 78.5 |
ALBERT-tiny | 62.61 | 4M | 69.92 | 53.35 | 48.71 | 70.61 | 58.5 | 74.56 |
RoBERTa-wwm-ext | 70.10 | 108M | 74.04 | 56.94 | 60.31 | 80.51 | 67.8 | 81.0 |
RoBERTa-wwm-large | 72.83 | 330M | 76.55 | 58.61 | 62.98 | 82.12 | 74.6 | 82.13 |
注:AFQMC:蚂蚁语义相似度(Acc);TNEWS:文本分类(Acc);IFLYTEK:长文本分类(Acc); CMNLI: 自然语言推理中文版;
COPA: 因果推断; WSC:CLUEWSC2020,即Winograd模式挑战中文版; CSL: 中国科学文献数据集; Score总分是通过计算6个数据集得分平均值获得;
'代表对原数据集使用albert_tiny模型筛选后获得,数据集与原数据集不同,从而可能导致在这些数据集上albert_tiny表现略低.
模型 | Score | 参数 | CMRC2018 | CHID | C3 |
---|---|---|---|---|---|
BERT-base | 72.71 | 108M | 71.60 | 82.04 | 64.50 |
BERT-wwm-ext | 75.12 | 108M | 73.95 | 82.90 | 68.50 |
ERNIE-base | 73.69 | 108M | 74.7 | 82.28 | 64.10 |
RoBERTa-large | 76.85 | 334M | 78.50 | 84.50 | 67.55 |
XLNet-mid | 72.70 | 209M | 66.95 | 83.47 | 67.68 |
ALBERT-base | 68.08 | 10M | 72.90 | 71.77 | 59.58 |
ALBERT-large | 71.51 | 16.5M | 75.95 | 74.18 | 64.41 |
ALBERT-xlarge | 75.73 | 57.5M | 76.30 | 80.57 | 70.32 |
ALBERT-xxlarge | 77.19 | 221M | 75.15 | 83.15 | 73.28 |
ALBERT-tiny | 49.05 | 1.8M | 53.35 | 43.53 | 50.26 |
RoBERTa-wwm-ext | 75.11 | 108M | 75.20 | 83.62 | 66.50 |
RoBERTa-wwm-large | 79.05 | 330M | 77.95 | 85.37 | 73.82 |
DRCD、CMRC2018: 繁体、简体抽取式阅读理解(F1, EM);CHID: 成语多分类阅读理解(Acc);C3: 多选中文阅读理解(Acc);Score总分是通过计算3个数据集得分平均值获得。
注:阅读理解上述指标中F1和EM共存的情况下,取EM为最终指标。CMRC2018结果为CLUE专用独立测试集。
使用方式:
1、克隆项目
git clone https://github.com/CLUEbenchmark/CLUE.git
2、进入到相应的目录
分类任务
例如:
cd CLUE/baselines/models/bert
cd CLUE/baselines/models_pytorch/classifier_pytorch
或阅读理解任务:
cd CLUE/baselines/models_pytorch/mrc_pytorch
3、运行对应任务的脚本(GPU方式): 会自动下载模型和任务数据并开始运行。
bash run_classifier_xxx.sh
如运行 bash run_classifier_iflytek.sh 会开始iflytek任务的训练
4、tpu使用方式(可选)
cd CLUE/baselines/models/bert/tpu
bash run_classifier_tnews.sh即可测试tnews任务(注意更换里面的gs路径和tpu ip)。数据和模型会自动下载和上传。
cd CLUE/baselines/models/roberta/tpu
bash run_classifier_tiny.sh即可运行所有分类任务(注意更换里面的路径,模型地址和tpu ip)
分类任务:
在CLUE/baselines/models/bert目录下执行
bash run_classifier_xxx.sh predict
即可在output_dir下得到相应的提交文件json格式结果xxx_prdict.json
或见代码实现
阅读理解任务:
在CLUE/baselines/models_pytorch/mrc_pytorch目录下执行
test_mrc.py
具体参数和使用方法可见对应的run_mrc_xxx.sh
tensorflow 1.12 /cuda 9.0 /cudnn7.0
运行方式:
pip install PyCLUE
cd PyCLUE/examples/classifications
python3 run_clue_task.py
支持10个任务、9大模型、自定义任务,见 PyCLUE toolkit
测评入口:我要提交
Corpus for Langauge Modelling, Pre-training, Generating tasks
可用于语言建模、预训练或生成型任务等,数据量超过14G,近4000个定义良好的txt文件、50亿个字。主要部分来自于nlp_chinese_corpus项目
当前语料库按照【预训练格式】处理,内含有多个文件夹;每个文件夹有许多不超过4M大小的小文件,文件格式符合预训练格式:每句话一行,文档间空行隔开。
包含如下子语料库(总共14G语料):
1、新闻语料 news2016zh_corpus: 8G语料,分成两个上下两部分,总共有2000个小文件。
2、社区互动-语料 webText2019zh_corpus:3G语料,包含3G文本,总共有900多个小文件。
3、维基百科-语料 wiki2019zh_corpus:1.1G左右文本,包含300左右小文件。
4、评论数据-语料 comments2019zh_corpus:2.3G左右文本,共784个小文件,包括点评评论547个、亚马逊评论227个,合并ChineseNLPCorpus的多个评论数据,清洗、格式转换、拆分成小文件。
这些语料,你可以通过上面这两个项目,清洗数据并做格式转换获得;
你也可以通过邮件申请(chineseGLUE#163.com)获得单个项目的语料,告知单位或学校、姓名、语料用途;
如需获得ChineseGLUE项目下的所有语料,需成为ChineseGLUE组织成员,并完成一个(小)任务。
为更好的服务中文语言理解、任务和产业界,做为通用语言模型测评的补充,通过完善中文语言理解基础设施的方式来促进中文语言模型的发展
数据量:训练集(34334)验证集(4316)测试集(3861)
例子:
{"sentence1": "双十一花呗提额在哪", "sentence2": "里可以提花呗额度", "label": "0"}
每一条数据有三个属性,从前往后分别是 句子1,句子2,句子相似度标签。其中label标签,1 表示sentence1和sentence2的含义类似,0表示两个句子的含义不同。
该数据集来自今日头条的新闻版块,共提取了15个类别的新闻,包括旅游,教育,金融,军事等。
数据量:训练集(53,360),验证集(10,000),测试集(10,000)
例子:
{"label": "102", "label_des": "news_entertainment", "sentence": "江疏影甜甜圈自拍,迷之角度竟这么好看,美吸引一切事物"}
每一条数据有三个属性,从前往后分别是 分类ID,分类名称,新闻字符串(仅含标题)。
该数据集共有1.7万多条关于app应用描述的长文本标注数据,包含和日常生活相关的各类应用主题,共119个类别:"打车":0,"地图导航":1,"免费WIFI":2,"租车":3,….,"女性":115,"经营":116,"收款":117,"其他":118(分别用0-118表示)。
数据量:训练集(12,133),验证集(2,599),测试集(2,600)
例子:
{"label": "110", "label_des": "社区超市", "sentence": "朴朴快送超市创立于2016年,专注于打造移动端30分钟即时配送一站式购物平台,商品品类包含水果、蔬菜、肉禽蛋奶、海鲜水产、粮油调味、酒水饮料、休闲食品、日用品、外卖等。朴朴公司希望能以全新的商业模式,更高效快捷的仓储配送模式,致力于成为更快、更好、更多、更省的在线零售平台,带给消费者更好的消费体验,同时推动中国食品安全进程,成为一家让社会尊敬的互联网公司。,朴朴一下,又好又快,1.配送时间提示更加清晰友好2.保障用户隐私的一些优化3.其他提高使用体验的调整4.修复了一些已知bug"}
每一条数据有三个属性,从前往后分别是 类别ID,类别名称,文本内容。
4.OCNLI 中文原版自然语言推理 Original Chinese Natural Language Inference
OCNLI,即原生中文自然语言推理数据集,是第一个非翻译的、使用原生汉语的大型中文自然语言推理数据集。
数据量:train: 50k, dev(3k), test(3k)
例子:
{
"level": "medium",
"sentence1": "身上裹一件工厂发的棉大衣,手插在袖筒里",
"sentence2": "身上至少一件衣服",
"label": "entailment",
"genre": "lit",
"prem_id": "lit_635",
"id": 0
} {
"level": "easy",
"sentence1": "东、中、西部地区要加强多种形式的合作,在协调发展中逐步实现共同富裕",
"sentence2": "东、中、西部地区发展存在不协调",
"label": "entailment",
"genre": "gov",
"prem_id": "gov_1260",
"id": 1
} {
"level": "hard",
"sentence1": "外贸经营权进一步放开",
"sentence2": "外贸经营权经历了先收缩再放开的过程。",
"label": "neutral",
"genre": "gov",
"prem_id": "gov_755",
"id": 2
}
CMNLI数据由两部分组成:XNLI和MNLI。数据来自于fiction,telephone,travel,government,slate等,对原始MNLI数据和XNLI数据进行了中英文转化,保留原始训练集,合并XNLI中的dev和MNLI中的matched作为CMNLI的dev,合并XNLI中的test和MNLI中的mismatched作为CMNLI的test,并打乱顺序。该数据集可用于判断给定的两个句子之间属于蕴涵、中立、矛盾关系。
数据量:train(391,782),dev(12,426),test(13,880)
例子:
{"sentence1": "新的权利已经足够好了", "sentence2": "每个人都很喜欢最新的福利", "label": "neutral"}
每一条数据有三个属性,从前往后分别是 句子1,句子2,蕴含关系标签。其中label标签有三种:neutral,entailment,contradiction。
Winograd Scheme Challenge(WSC)是一类代词消歧的任务。新版与原CLUE项目WSC内容不同
即判断句子中的代词指代的是哪个名词。题目以真假判别的方式出现,如:
句子:这时候放在床上枕头旁边的手机响了,我感到奇怪,因为欠费已被停机两个月,现在它突然响了。需要判断“它”指代的是“床”、“枕头”,还是“手机”?
数据来源:数据有CLUE benchmark提供,从中国现当代作家文学作品中抽取,再经语言专家人工挑选、标注。
数据形式:
{"target":
{"span2_index": 37,
"span1_index": 5,
"span1_text": "床",
"span2_text": "它"},
"idx": 261,
"label": "false",
"text": "这时候放在床上枕头旁边的手机响了,我感到奇怪,因为欠费已被停机两个月,现在它突然响了。"}
"true"表示代词确实是指代span1_text中的名词的,"false"代表不是。
数据集大小:
-
训练集:1244
-
开发集:304
中文科技文献数据集(CSL)取自中文论文摘要及其关键词,论文选自部分中文社会科学和自然科学核心期刊。 使用tf-idf生成伪造关键词与论文真实关键词混合,构造摘要-关键词对,任务目标是根据摘要判断关键词是否全部为真实关键词。
数据量:训练集(20,000),验证集(3,000),测试集(3,000)
例子:
{"id": 1, "abst": "为解决传统均匀FFT波束形成算法引起的3维声呐成像分辨率降低的问题,该文提出分区域FFT波束形成算法.远场条件下,以保证成像分辨率为约束条件,以划分数量最少为目标,采用遗传算法作为优化手段将成像区域划分为多个区域.在每个区域内选取一个波束方向,获得每一个接收阵元收到该方向回波时的解调输出,以此为原始数据在该区域内进行传统均匀FFT波束形成.对FFT计算过程进行优化,降低新算法的计算量,使其满足3维成像声呐实时性的要求.仿真与实验结果表明,采用分区域FFT波束形成算法的成像分辨率较传统均匀FFT波束形成算法有显著提高,且满足实时性要求.", "keyword": ["水声学", "FFT", "波束形成", "3维成像声呐"], "label": "1"}
每一条数据有四个属性,从前往后分别是 数据ID,论文摘要,关键词,真假标签。
https://hfl-rc.github.io/cmrc2018/
数据量:训练集(短文数2,403,问题数10,142),试验集(短文数256,问题数1,002),开发集(短文数848,问题数3,219)
例子:
{
"version": "1.0",
"data": [
{
"title": "傻钱策略",
"context_id": "TRIAL_0",
"context_text": "工商协进会报告,12月消费者信心上升到78.1,明显高于11月的72。另据《华尔街日报》报道,2013年是1995年以来美国股市表现最好的一年。这一年里,投资美国股市的明智做法是追着“傻钱”跑。所谓的“傻钱”策略,其实就是买入并持有美国股票这样的普通组合。这个策略要比对冲基金和其它专业投资者使用的更为复杂的投资方法效果好得多。",
"qas":[
{
"query_id": "TRIAL_0_QUERY_0",
"query_text": "什么是傻钱策略?",
"answers": [
"所谓的“傻钱”策略,其实就是买入并持有美国股票这样的普通组合",
"其实就是买入并持有美国股票这样的普通组合",
"买入并持有美国股票这样的普通组合"
]
},
{
"query_id": "TRIAL_0_QUERY_1",
"query_text": "12月的消费者信心指数是多少?",
"answers": [
"78.1",
"78.1",
"78.1"
]
},
{
"query_id": "TRIAL_0_QUERY_2",
"query_text": "消费者信心指数由什么机构发布?",
"answers": [
"工商协进会",
"工商协进会",
"工商协进会"
]
}
]
}
]
}
台達閱讀理解資料集 Delta Reading Comprehension Dataset (DRCD)(https://github.com/DRCKnowledgeTeam/DRCD) 屬於通用領域繁體中文機器閱讀理解資料集。 本資料集期望成為適用於遷移學習之標準中文閱讀理解資料集。
数据量:训练集(8,016个段落,26,936个问题),验证集(1,000个段落,3,524个问题),测试集(1,000个段落,3,493个问题)
例子:
{
"version": "1.3",
"data": [
{
"title": "基督新教",
"id": "2128",
"paragraphs": [
{
"context": "基督新教與天主教均繼承普世教會歷史上許多傳統教義,如三位一體、聖經作為上帝的啟示、原罪、認罪、最後審判等等,但有別於天主教和東正教,新教在行政上沒有單一組織架構或領導,而且在教義上強調因信稱義、信徒皆祭司, 以聖經作為最高權威,亦因此否定以教宗為首的聖統制、拒絕天主教教條中關於聖傳與聖經具同等地位的教導。新教各宗派間教義不盡相同,但一致認同五個唯獨:唯獨恩典:人的靈魂得拯救唯獨是神的恩典,是上帝送給人的禮物。唯獨信心:人唯獨藉信心接受神的赦罪、拯救。唯獨基督:作為人類的代罪羔羊,耶穌基督是人與上帝之間唯一的調解者。唯獨聖經:唯有聖經是信仰的終極權威。唯獨上帝的榮耀:唯獨上帝配得讚美、榮耀",
"id": "2128-2",
"qas": [
{
"id": "2128-2-1",
"question": "新教在教義上強調信徒皆祭司以及什麼樣的理念?",
"answers": [
{
"id": "1",
"text": "因信稱義",
"answer_start": 92
}
]
},
{
"id": "2128-2-2",
"question": "哪本經典為新教的最高權威?",
"answers": [
{
"id": "1",
"text": "聖經",
"answer_start": 105
}
]
}
]
}
]
}
]
}
数据格式和squad相同,如果使用简体中文模型进行评测的时候可以将其繁转简(本项目已提供) DRCD2018数据集下载
https://arxiv.org/abs/1906.01265
成语完形填空,文中多处成语被mask,候选项中包含了近义的成语。
数据量:训练集(84,709),验证集(3,218),测试集(3,231)
例子:
{
"content": [
# 文段0
"……在热火22年的历史中,他们已经100次让对手得分在80以下,他们在这100次中都取得了胜利,今天他们希望能#idiom000378#再进一步。",
# 文段1
"在轻舟发展过程之中,是和业内众多企业那样走相似的发展模式,去#idiom000379#?还是迎难而上,另走一条与众不同之路。诚然,#idiom000380#远比随大流更辛苦,更磨难,更充满风险。但是有一条道理却是显而易见的:那就是水往低处流,随波逐流,永远都只会越走越低。只有创新,只有发展科技,才能强大自己。",
# 文段2
"最近十年间,虚拟货币的发展可谓#idiom000381#。美国著名经济学家林顿·拉鲁什曾预言:到2050年,基于网络的虚拟货币将在某种程度上得到官方承认,成为能够流通的货币。现在看来,这一断言似乎还嫌过于保守……",
# 文段3
"“平时很少能看到这么多老照片,这次图片展把新旧照片对比展示,令人印象深刻。”现场一位参观者对笔者表示,大多数生活在北京的人都能感受到这个城市#idiom000382#的变化,但很少有人能具体说出这些变化,这次的图片展按照区域发展划分,展示了丰富的信息,让人形象感受到了60年来北京的变化和发展。",
# 文段4
"从今天大盘的走势看,市场的热点在反复的炒作之中,概念股的炒作#idiom000383#,权重股走势较为稳健,大盘今日早盘的震荡可以看作是多头关前的蓄势行为。对于后市,大盘今日蓄势震荡后,明日将会在权重和题材股的带领下亮剑冲关。再创反弹新高无悬念。",
# 文段5
"……其中,更有某纸媒借尤小刚之口指出“根据广电总局的这项要求,2009年的荧屏将很难出现#idiom000384#的情况,很多已经制作好的非主旋律题材电视剧想在卫视的黄金时段播出,只能等到2010年了……"],
"candidates": [
"百尺竿头",
"随波逐流",
"方兴未艾",
"身体力行",
"一日千里",
"三十而立",
"逆水行舟",
"日新月异",
"百花齐放",
"沧海一粟"
]
}
https://arxiv.org/abs/1904.09679
中文多选阅读理解数据集,包含对话和长文等混合类型数据集。训练和验证集中的d,m分别代表对话、多种文本类型混合。
数据量:训练集(11,869),验证集(3,816),测试集(3,892)
例子:
[
[
"男:你今天晚上有时间吗?我们一起去看电影吧?",
"女:你喜欢恐怖片和爱情片,但是我喜欢喜剧片,科幻片一般。所以……"
],
[
{
"question": "女的最喜欢哪种电影?",
"choice": [
"恐怖片",
"爱情片",
"喜剧片",
"科幻片"
],
"answer": "喜剧片"
}
],
"25-35"
],
[
[
"男:足球比赛是明天上午八点开始吧?",
"女:因为天气不好,比赛改到后天下午三点了。"
],
[
{
"question": "根据对话,可以知道什么?",
"choice": [
"今天天气不好",
"比赛时间变了",
"校长忘了时间"
],
"answer": "比赛时间变了"
}
],
"31-109"
]
诊断集,用于评估不同模型在9种语言学家总结的中文语言现象上的表现
使用在CMNLI上训练过的模型,直接预测在这个诊断集上的结果,提交格式和CMNLI一致,在排行榜详情页可以看到结果
如果你有定义良好的数据集并愿意为社区做贡献,请与我们取得联系 ChineseGLUE#163.com
整体下载 Comining Soon最近几天,会添加中
或使用命令:wget
Data filter method
为了增加模型区分度和增大数据集难度,我们采用k折交叉验证的方式对v0版本的数据集进行过滤,最终得到v1版本。
具体步骤:
1.将特定任务的数据集集中在一起,同时选择一个基准测试模型(如AlbertTiny)
2.将数据集均匀分成k份;每次选择其中1份当验证集,剩下的都作为训练集,训练基准模型并在验证集上测试、保留预测结果
3.重复步骤二k次,让每一份数据都有机会当验证集,过完整个数据集
4.将k份验证集的预测结果合并;保留其中预测错误的样本(可以认为是较难的数据),并删除一部分预测正确的样本。最后重新划分出训练集、验证集、测试集
5.如果希望进一步筛选难样本,重复步骤2-4即可
Notes:
1.k一般选择4-6
2.难样本,是指在交叉验证过程中模型预测错误的样本,也是我们希望尽可能保留的样本。模型预测正确的样本最终会被优先排除一部分
Language Understanding Evaluation benchmark for Chinese(ChineseGLUE) got ideas from GLUE, which is a collection of
resources for training, evaluating, and analyzing natural language understanding systems. ChineseGLUE consists of:
A benchmark of several sentence or sentence pair language understanding tasks. Currently the datasets used in these tasks are come from public. We will include datasets with private test set before the end of 2019.
A public leaderboard for tracking performance. You will able to submit your prediction files on these tasks, each task will be evaluated and scored, a final score will also be available.
baselines for ChineseGLUE tasks. baselines will be available in TensorFlow,PyTorch,Keras and PaddlePaddle.
A huge amount of raw corpus for pre-train or language modeling research purpose. It will contains around 10G raw corpus in 2019;
In the first half year of 2020, it will include at least 30G raw corpus; By the end of 2020, we will include enough raw corpus, such as 100G, so big enough that you will need no more raw corpus for general purpose language modeling. You can use it for general purpose or domain adaption, or even for text generating. when you use for domain adaption, you will able to select corpus you are interested in.
An easy to use toolkit that can run specific task or model with one line of code. You can easily change configuration, task or model.
Techical report with details
Why do we need a benchmark for Chinese lanague understand evaluation?
首先,中文是一个大语种,有其自身的特定、大量的应用。
如中文使用人数近14亿,是联合国官方语言之一,产业界有大量的的朋友在做中文的任务。
中文是象形文字,有文字图形;字与字之间没有分隔符,不同的分词(分字或词)会影响下游任务。
其次,相对于英文的数据集,中文的公开可用的数据集还比较少。
很多数据集是非公开的或缺失基准测评的;多数的论文描述的模型是在英文数据集上做的测试和评估,那么对于中文效果如何?不得而知。
再次,语言理解发展到当前阶段,预训练模型极大的促进了自然语言理解。
不同的预训练模型相继产生,但不少最先进(state of the art)的模型,并没有官方的中文的版本,也没有对这些预训练模型在不同任务上的公开测试,
导致技术的发展和应用还有不少距离,或者说技术应用上的滞后。
那么,如果有一个中文任务的基准测试,包含一批大众能广泛使用和测评的数据集、适用中文任务的特点、能紧跟当前世界技术的发展,
能缓解当前中文任务的一些问题,并促进相关应用的发展。
Evaluation of Dataset for Different Models
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
ALBERT-xxlarge | - | - | - |
ALBERT-tiny | 69.13% | 69.92% | batch_size=16, length=128, epoch=3 lr=2e-5 |
BERT-base | 74.16% | 73.70% | batch_size=16, length=128, epoch=3 lr=2e-5 |
BERT-wwm-ext-base | 73.74% | 74.07% | batch_size=16, length=128, epoch=3 lr=2e-5 |
ERNIE-base | 74.88% | 73.83% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-large | 73.32% | 74.02% | batch_size=16, length=128, epoch=3 lr=2e-5 |
XLNet-mid | 70.73% | 70.50% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-ext | 74.30% | 74.04% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-large-ext | 74.92% | 76.55% | batch_size=16, length=128, epoch=3 lr=2e-5 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
ALBERT-xxlarge | - | - | - |
ALBERT-tiny | 53.55% | 53.35% | batch_size=16, length=128, epoch=3 lr=2e-5 |
BERT-base | 56.09% | 56.58% | batch_size=16, length=128, epoch=3 lr=2e-5 |
BERT-wwm-ext-base | 56.77% | 56.86% | batch_size=16, length=128, epoch=3 lr=2e-5 |
ERNIE-base | 58.24% | 58.33% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-large | 57.95% | 57.84% | batch_size=16, length=128, epoch=3 lr=2e-5 |
XLNet-mid | 56.09% | 56.24% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-ext | 57.51% | 56.94% | batch_size=16, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-large-ext | 58.32% | 58.61% | batch_size=16, length=128, epoch=3 lr=2e-5 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
ALBERT-xlarge | - | - | batch=32, length=128, epoch=3 lr=2e-5 |
ALBERT-tiny | 48.76 | 48.71 | batch=32, length=128, epoch=10 lr=2e-5 |
BERT-base | 60.37 | 60.29 | batch=32, length=128, epoch=3 lr=2e-5 |
BERT-wwm-ext-base | 59.88 | 59.43 | batch=32, length=128, epoch=3 lr=2e-5 |
ERNIE-base | 59.52 | 58.96 | batch=32, length=128, epoch=3 lr=2e-5 |
RoBERTa-large | 62.6 | 62.55 | batch=24, length=128, epoch=3 lr=2e-5 |
XLNet-mid | 57.72 | 57.85 | batch=32, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-ext | 60.8 | 60.31 | batch=32, length=128, epoch=3 lr=2e-5 |
RoBERTa-wwm-large-ext | 62.75 | 62.98 | batch=24, length=128, epoch=3 lr=2e-5 |
模型 | 开发集 (dev %) | 测试集(test %) | 训练参数 |
---|---|---|---|
BERT-base | 79.47 | 79.69 | batch=64, length=128, epoch=2 lr=3e-5 |
BERT-wwm-ext-base | 80.92 | 80.42 | batch=64, length=128, epoch=2 lr=3e-5 |
ERNIE-base | 80.37 | 80.29 | batch=64, length=128, epoch=2 lr=3e-5 |
ALBERT-xxlarge | - | - | - |
ALBERT-tiny | 70.26 | 70.61 | batch=64, length=128, epoch=2 lr=3e-5 |
RoBERTa-large | 82.40 | 81.70 | batch=64, length=128, epoch=2 lr=3e-5 |
xlnet-mid | 82.21 | 81.25 | batch=64, length=128, epoch=2 lr=3e-5 |
RoBERTa-wwm-ext | 80.70 | 80.51 | batch=64, length=128, epoch=2 lr=3e-5 |
RoBERTa-wwm-large-ext | 83.20 | 82.12 | batch=64, length=128, epoch=2 lr=3e-5 |
注:ALBERT-xlarge,在XNLI任务上训练暂时还存在有问题
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
ALBERT-xxlarge | - | - | - |
ALBERT-tiny | 57.7(52.9) | 58.5(52.1) | lr=1e-4, batch_size=8, length=128, epoch=50 |
BERT-base | 59.6(56.7) | 62.0(57.9) | lr=2e-5, batch_size=8, length=128, epoch=50 |
BERT-wwm-ext-base | 59.4(56.7) | 61.1(56.2) | lr=2e-5, batch_size=8, length=128, epoch=50 |
ERNIE-base | 58.1(54.9) | 60.8(55.9) | lr=2e-5, batch_size=8, length=128, epoch=50 |
RoBERTa-large | 68.6(58.7) | 72.7(63.6) | lr=2e-5, batch_size=8, length=128, epoch=50 |
XLNet-mid | 60.9(56.8) | 64.4(57.3) | lr=2e-5, batch_size=8, length=128, epoch=50 |
RoBERTa-wwm-ext | 67.2(57.7) | 67.8(63.5) | lr=2e-5, batch_size=8, length=128, epoch=50 |
RoBERTa-wwm-large-ext | 69.7(64.5) | 74.6(69.4) | lr=2e-5, batch_size=8, length=128, epoch=50 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
ALBERT-xlarge | 80.23 | 80.29 | batch_size=16, length=128, epoch=2, lr=5e-6 |
ALBERT-tiny | 74.36 | 74.56 | batch_size=4, length=256, epoch=5, lr=1e-5 |
BERT-base | 79.63 | 80.23 | batch_size=4, length=256, epoch=5, lr=1e-5 |
BERT-wwm-ext-base | 80.60 | 81.00 | batch_size=4, length=256, epoch=5, lr=1e-5 |
ERNIE-base | 79.43 | 79.10 | batch_size=4, length=256, epoch=5, lr=1e-5 |
RoBERTa-large | 81.87 | 81.36 | batch_size=4, length=256, epoch=5, lr=5e-6 |
XLNet-mid | 82.06 | 81.26 | batch_size=4, length=256, epoch=3, lr=1e-5 |
RoBERTa-wwm-ext | 80.67 | 80.63 | batch_size=4, length=256, epoch=5, lr=1e-5 |
RoBERTa-wwm-large-ext | 82.17 | 82.13 | batch_size=4, length=256, epoch=5, lr=1e-5 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
BERT-base | F1:92.30 EM:86.60 | F1:91.46 EM:85.49 | batch=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
BERT-wwm-ext-base | F1:93.27 EM:88.00 | F1:92.63 EM:87.15 | batch=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
ERNIE-base | F1:92.78 EM:86.85 | F1:92.01 EM:86.03 | batch=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
ALBERT-large | F1:93.90 EM:88.88 | F1:93.06 EM:87.52 | batch=32, length=512, epoch=3, lr=2e-5, warmup=0.05 |
ALBERT-xlarge | F1:94.63 EM:89.68 | F1:94.70 EM:89.78 | batch_size=32, length=512, epoch=3, lr=2.5e-5, warmup=0.06 |
ALBERT-xxlarge | F1:93.69 EM:89.97 | F1:94.62 EM:89.67 | batch_size=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
ALBERT-tiny | F1:81.51 EM:71.61 | F1:80.67 EM:70.08 | batch=32, length=512, epoch=3, lr=2e-4, warmup=0.1 |
RoBERTa-large | F1:94.93 EM:90.11 | F1:94.25 EM:89.35 | batch=32, length=256, epoch=2, lr=3e-5, warmup=0.1 |
xlnet-mid | F1:92.08 EM:84.40 | F1:91.44 EM:83.28 | batch=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
RoBERTa-wwm-ext | F1:94.26 EM:89.29 | F1:93.53 EM:88.12 | batch=32, length=512, epoch=2, lr=3e-5, warmup=0.1 |
RoBERTa-wwm-large-ext | F1:95.32 EM:90.54 | F1:95.06 EM:90.70 | batch=32, length=512, epoch=2, lr=2.5e-5, warmup=0.1 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
BERT-base | F1:85.48 EM:64.77 | F1:88.10 EM:71.60 | batch=32, length=512, epoch=2 lr=3e-5 warmup=0.1 |
BERT-wwm-ext-base | F1:86.68 EM:66.96 | F1:89.62 EM:73.95 | batch=32, length=512, epoch=2 lr=3e-5 warmup=0.1 |
ERNIE-base | F1:87.30 EM:66.89 | F1:90.57 EM:74.70 | batch=32, length=512, epoch=2 lr=3e-5 warmup=0.1 |
ALBERT-base | F1:85.86 EM:64.76 | F1:89.66 EM:72.90 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
ALBERT-large | F1:87.36 EM:67.31 | F1:90.81 EM:75.95 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
ALBERT-xlarge | F1:88.99 EM:69.08 | F1:92.09 EM:76.30 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
ALBERT-xxlarge | F1:87.47 EM:66.43 | F1:90.77 EM:75.15 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
ALBERT-tiny | F1:73.95 EM:48.31 | F1:76.21 EM:53.35 | batch=32, epoch3, length=512, lr=2e-4, warmup=0.1 |
RoBERTa-large | F1:88.61 EM:69.94 | F1:92.04 EM:78.50 | batch=32, epoch2, length=256, lr=3e-5, warmup=0.1 |
xlnet-mid | F1:85.63 EM:65.31 | F1:86.11 EM:66.95 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
RoBERTa-wwm-ext | F1:87.28 EM:67.89 | F1:90.41 EM:75.20 | batch=32, epoch2, length=512, lr=3e-5, warmup=0.1 |
RoBERTa-wwm-large-ext | F1:89.42 EM:70.59 | F1:92.11 EM:77.95 | batch=32, epoch2, length=512, lr=2.5e-5, warmup=0.1 |
注: 现在榜上数据为cmrc2018的2k测试集子集作为测试,而并非cmrc2018官方完整测试集。如需完整测试cmrc2018阅读理解数据集仍需通过cmrc2018平台提交(https://worksheets.codalab.org/worksheets/0x96f61ee5e9914aee8b54bd11e66ec647)。
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
BERT-base | 82.20 | 82.04 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
BERT-wwm-ext-base | 83.36 | 82.9 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ERNIE-base | 82.46 | 82.28 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ALBERT-base | 70.99 | 71.77 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ALBERT-large | 75.10 | 74.18 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ALBERT-xlarge | 81.20 | 80.57 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ALBERT-xxlarge | 83.61 | 83.15 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
ALBERT-tiny | 43.47 | 43.53 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
RoBERTa-large | 85.31 | 84.50 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
xlnet-mid | 83.76 | 83.47 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
RoBERTa-wwm-ext | 83.78 | 83.62 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
RoBERTa-wwm-large-ext | 85.81 | 85.37 | batch=24, length=64, epoch=3, lr=2e-5, warmup=0.06 |
模型 | 开发集(dev) | 测试集(test) | 训练参数 |
---|---|---|---|
BERT-base | 65.70 | 64.50 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
BERT-wwm-ext-base | 67.80 | 68.50 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ERNIE-base | 65.50 | 64.10 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ALBERT-base | 60.43 | 59.58 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ALBERT-large | 64.07 | 64.41 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ALBERT-xlarge | 69.75 | 70.32 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ALBERT-xxlarge | 73.66 | 73.28 | batch=16, length=512, epoch=8, lr=2e-5, warmup=0.1 |
ALBERT-tiny | 50.58 | 50.26 | batch=32, length=512, epoch=8, lr=5e-5, warmup=0.1 |
RoBERTa-large | 67.79 | 67.55 | batch=24, length=256, epoch=8, lr=2e-5, warmup=0.1 |
xlnet-mid | 66.17 | 67.68 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
RoBERTa-wwm-ext | 67.06 | 66.50 | batch=24, length=512, epoch=8, lr=2e-5, warmup=0.1 |
RoBERTa-wwm-large-ext | 74.48 | 73.82 | batch=16, length=512, epoch=8, lr=2e-5, warmup=0.1 |
1、成为中国第一个中文任务基准测评的创始会员
2、能与其他专业人士共同贡献力量,促进中文自然语言处理事业的发展
3、参与部分工作后,获得已经清洗并预训练的后的、与英文wiki & bookCorpus同等量级、大规模的预训练语料,用于研究目的。
4、优先使用state of the art的中文预训练模型,包括各种体验版或未公开版本
发送邮件 chineseGLUE#163.com,简要介绍你自己、背景、工作或研究方向、你的组织、在哪方面可以为社区贡献力量,我们评估后会与你取得联系你。
1、搜集、挖掘1个有代表性的数据集,一般为分类或句子对任务 (需要额外5个数据集)
2、阅读理解任务转化成句子对任务(如线索与问题或答案),并做测评,数据应拆分成训练、验证和测试集。
3、基线模型baselises在特定任务模型的训练、预测的方法和脚本(支持PyTorch、Keras);
4、对当前主流模型(如bert/bert_wwm_ext/roberta/albert/ernie/ernie2.0等),结合ChineseGLUE的数据集,做准确率测试。
如: XLNet-mid在LCQMC数据集上做测试
5、是否还有没有参与测评的模型?
6、排行榜landing页
7、介绍中文语言理解测评基准(ChineseGLUE)
8、测评系统主要功能开发
2019-10-20 to 2019-12-31: beta version of ChineseGLUE
2020.1.1 to 2020-12-31: official version of ChineseGLUE
2021.1.1 to 2021-12-31: super version of ChineseGLUE
Share your data set with community or make a contribution today! Just send email to chineseGLUE#163.com,
or join QQ group: 836811304
Cite Us:
@inproceedings {xu-etal-2020-clue,
title = "{CLUE}: A {C}hinese Language Understanding Evaluation Benchmark",
author = "Xu, Liang and
Hu, Hai and
Zhang, Xuanwei and
Li, Lu and
Cao, Chenjie and
Li, Yudong and
Xu, Yechen and
Sun, Kai and
Yu, Dian and
Yu, Cong and
Tian, Yin and
Dong, Qianqian and
Liu, Weitang and
Shi, Bo and
Cui, Yiming and
Li, Junyi and
Zeng, Jun and
Wang, Rongzhao and
Xie, Weijian and
Li, Yanting and
Patterson, Yina and
Tian, Zuoyu and
Zhang, Yiwen and
Zhou, He and
Liu, Shaoweihua and
Zhao, Zhe and
Zhao, Qipeng and
Yue, Cong and
Zhang, Xinrui and
Yang, Zhengliang and
Richardson, Kyle and
Lan, Zhenzhong ",
booktitle = "Proceedings of the 28th International Conference on Computational Linguistics",
month = dec,
year = "2020",
address = "Barcelona, Spain (Online)",
publisher = "International Committee on Computational Linguistics",
url = "https://aclanthology.org/2020.coling-main.419",
doi = "10.18653/v1/2020.coling-main.419",
pages = "4762--4772",
abstract = "The advent of natural language understanding (NLU) benchmarks for English, such as GLUE and SuperGLUE allows new NLU models to be evaluated across a diverse set of tasks. These comprehensive benchmarks have facilitated a broad range of research and applications in natural language processing (NLP). The problem, however, is that most such benchmarks are limited to English, which has made it difficult to replicate many of the successes in English NLU for other languages. To help remedy this issue, we introduce the first large-scale Chinese Language Understanding Evaluation (CLUE) benchmark. CLUE is an open-ended, community-driven project that brings together 9 tasks spanning several well-established single-sentence/sentence-pair classification tasks, as well as machine reading comprehension, all on original Chinese text. To establish results on these tasks, we report scores using an exhaustive set of current state-of-the-art pre-trained Chinese models (9 in total). We also introduce a number of supplementary datasets and additional tools to help facilitate further progress on Chinese NLU. Our benchmark is released at https://www.cluebenchmarks.com",
}
你可以查看这里::https://aclanthology.org/2020.coling-main.419.bib
1、GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding
2、SuperGLUE: A Stickier Benchmark for General-Purpose Language Understanding Systems
4、XNLI: Evaluating Cross-lingual Sentence Representations
5、nlp_chinese_corpus: 大规模中文自然语言处理语料 Large Scale Chinese Corpus for NLP
7、ALBERT: A Lite BERT For Self-Supervised Learning Of Language Representations
8、BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
9、RoBERTa: A Robustly Optimized BERT Pretraining Approach
10、CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [git] [pdf] [web]