Skip to content

Latest commit

 

History

History
 
 

ernie_tiny

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 

ernie_tiny

模型名称 ernie_tiny
类别 文本-语义模型
网络 ernie_tiny
数据集 百度自建数据集
是否支持Fine-tuning
模型大小 346MB
最新更新日期 2021-02-26
数据指标 -

一、模型基本信息

  • 模型介绍

Ernie是百度提出的基于知识增强的持续学习语义理解模型,该模型将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中词汇、结构、语义等方面的知识,实现模型效果不断进化。

二、安装

三、模型API预测

  • 1、预测代码示例

import paddlehub as hub

data = [
    ['这个宾馆比较陈旧了,特价的房间也很一般。总体来说一般'],
    ['怀着十分激动的心情放映,可是看着看着发现,在放映完毕后,出现一集米老鼠的动画片'],
    ['作为老的四星酒店,房间依然很整洁,相当不错。机场接机服务很好,可以在车上办理入住手续,节省时间。'],
]
label_map = {0: 'negative', 1: 'positive'}

model = hub.Module(
    name='ernie_tiny',
    version='2.0.2',
    task='seq-cls',
    load_checkpoint='/path/to/parameters',
    label_map=label_map)
results = model.predict(data, max_seq_len=50, batch_size=1, use_gpu=False)
for idx, text in enumerate(data):
    print('Data: {} \t Lable: {}'.format(text, results[idx]))

详情可参考PaddleHub示例:

  • 文本分类

  • 序列标注

  • 2、API

    • def __init__(
          task=None,
          load_checkpoint=None,
          label_map=None,
          num_classes=2,
          suffix=False,
          **kwargs,
      )
      • 创建Module对象(动态图组网版本)

      • 参数

        • task: 任务名称,可为seq-cls(文本分类任务)或token-cls(序列标注任务)。
        • load_checkpoint:使用PaddleHub Fine-tune api训练保存的模型参数文件路径。
        • label_map:预测时的类别映射表。
        • num_classes:分类任务的类别数,如果指定了label_map,此参数可不传,默认2分类。
        • suffix: 序列标注任务的标签格式,如果设定为True,标签以'-B', '-I', '-E' 或者 '-S'为结尾,此参数默认为False
        • **kwargs:用户额外指定的关键字字典类型的参数。
    • def predict(
          data,
          max_seq_len=128,
          batch_size=1,
          use_gpu=False
      )
      • 参数

        • data: 待预测数据,格式为[[sample_a_text_a, sample_a_text_b], [sample_b_text_a, sample_b_text_b],…,],其中每个元素都是一个样例,每个样例可以包含text_a与text_b。每个样例文本数量(1个或者2个)需和训练时保持一致。
        • max_seq_len:模型处理文本的最大长度
        • batch_size:模型批处理大小
        • use_gpu:是否使用gpu,默认为False。对于GPU用户,建议开启use_gpu。
      • 返回

        • results:list类型,不同任务类型的返回结果如下
          • 文本分类:列表里包含每个句子的预测标签,格式为[label_1, label_2, …,]
          • 序列标注:列表里包含每个句子每个token的预测标签,格式为[[token_1, token_2, …,], [token_1, token_2, …,], …,]
    • def get_embedding(
        data,
        use_gpu=False
      )
      • 用于获取输入文本的句子粒度特征与字粒度特征

      • 参数

        • data:输入文本列表,格式为[[sample_a_text_a, sample_a_text_b], [sample_b_text_a, sample_b_text_b],…,],其中每个元素都是一个样例,每个样例可以包含text_a与text_b。
        • use_gpu:是否使用gpu,默认为False。对于GPU用户,建议开启use_gpu。
      • 返回

        • results:list类型,格式为[[sample_a_pooled_feature, sample_a_seq_feature], [sample_b_pooled_feature, sample_b_seq_feature],…,],其中每个元素都是对应样例的特征输出,每个样例都有句子粒度特征pooled_feature与字粒度特征seq_feature。

四、服务部署

  • PaddleHub Serving可以部署一个在线获取预训练词向量。

  • 第一步:启动PaddleHub Serving

    • $ hub serving start -m ernie_tiny
    • 这样就完成了一个获取预训练词向量服务化API的部署,默认端口号为8866。

    • NOTE: 如使用GPU预测,则需要在启动服务之前,请设置CUDA_VISIBLE_DEVICES环境变量,否则不用设置。

  • 第二步:发送预测请求

    • 配置好服务端,以下数行代码即可实现发送预测请求,获取预测结果

    • import requests
      import json
      
      # 指定用于获取embedding的文本[[text_1], [text_2], ... ]}
      text = [["今天是个好日子"], ["天气预报说今天要下雨"]]
      # 以key的方式指定text传入预测方法的时的参数,此例中为"data"
      # 对应本地部署,则为module.get_embedding(data=text)
      data = {"data": text}
      # 发送post请求,content-type类型应指定json方式,url中的ip地址需改为对应机器的ip
      url = "http://127.0.0.1:8866/predict/ernie_tiny"
      # 指定post请求的headers为application/json方式
      headers = {"Content-Type": "application/json"}
      
      r = requests.post(url=url, headers=headers, data=json.dumps(data))
      print(r.json())

五、更新历史

  • 1.0.0

    初始发布

  • 1.0.1

    修复python 2的兼容问题

  • 1.1.0

    支持get_embedding与get_params_layer

  • 2.0.0

    全面升级动态图版本,接口有所变化

  • 2.0.1

    任务名称调整,增加序列标注任务token-cls

  • 2.0.2

    增加文本匹配任务text-matching

    $ hub install ernie_tiny==2.0.2