• 评价指标
    • 分类任务评价
    • 序列标注任务评价
    • 生成任务评价

    评价指标

    在神经网络训练过程中或者训练完成后,需要评价模型的训练效果。评价的方法一般是计算全体预测值和全体真值(label)之间的距离,不同类型的任务会使用不同的评价方法,或者综合使用多个评价方法。在具体的任务中,可以选用一种或者多种评价方法。下面对常用的评价方法按照任务类型做介绍。

    分类任务评价

    分类任务中最常用的是二分类,而多分类任务也可以转化为多个二分类任务的组合,二分类任务常用的评价指标有准确率、正确率、召回率、AUC和平均准确度。

    • 准确率: Precision ,用来衡量二分类中召回真值和召回值的比例。

    API Reference 请参考 Precision

    • 正确率: Accuracy ,用来衡量二分类中召回真值和总样本数的比例。需要注意的是,准确率和正确率的定义是不同的,可以类比于误差分析中的 VarianceBias

    API Reference 请参考 Accuracy

    • 召回率: Recall ,用来衡量二分类中召回值和总样本数的比例。准确率和召回率的选取相互制约,实际模型中需要进行权衡,可以参考文档 Precision_and_recall 。

    API Reference 请参考 Recall

    • AUC: Area Under Curve, 适用于二分类的分类模型评估,用来计算 ROC曲线的累积面积。Auc 通过python计算实现,如果关注性能,可以使用 fluid.layers.auc 代替。

    API Reference 请参考 Auc

    • 平均准确度: Average Precision ,常用在Faster R-CNN和SSD等物体检测任务中。在不同召回条件下,计算了准确率的平均值,具体可以参考文档 Average-precision 和 SSD: Single Shot MultiBox Detector。

    API Reference 请参考 DetectionMAP

    序列标注任务评价

    序列标注任务中,token的分组称为语块(chunk),模型会同时将输入的token分组和分类,常用的评估方法是语块评估方法。

    • 语块评估方法: ChunkEvaluator ,接收 chunk_eval 接口的输出,累积每一个minibatch的语块统计值,最后计算准确率、召回率和F1值。ChunkEvaluator 支持IOB, IOE, IOBES和IO四种标注模式。可以参考文档 Chunking with Support Vector Machines 。

    API Reference 请参考 ChunkEvaluator

    生成任务评价

    生成任务会依据输入直接产生输出。对应NLP任务中(比如语音识别),则生成新字符串。评估生成字符串和目标字符串之间距离的方法也有多种,比如多分类评估方法,而另外一种常用的方法叫做编辑距离。

    • 编辑距离: EditDistance ,用来衡量两个字符串的相似度。可以参考文档 Edit_distance。

    API Reference 请参考 EditDistance