我是靠谱客的博主 发嗲狗,这篇文章主要介绍标签平滑解析产生背景工作原理,现在分享给大家,希望可以做个参考。

腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈

产生背景

在这里插入图片描述

工作原理

在这里插入图片描述
可以看出,损失比之前增加了,他的标签平滑的原理是对真实标签做了改变
源码里的公式为:
new_onehot_labels = onehot_labels * (1 - label_smoothing) + label_smoothing / num_classes

腾讯一面问的,这个知识点平常从未遇到过,当时是以为是朴素贝叶斯的平滑方法,说了Add-1 Add-k interpolation good turning smoothing,但没想到还有标签平滑这个东西。笔者当时才研一上学期不到… 刚学习NLP!哈哈

最后

以上就是发嗲狗最近收集整理的关于标签平滑解析产生背景工作原理的全部内容,更多相关标签平滑解析产生背景工作原理内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(137)

评论列表共有 0 条评论

立即
投稿
返回
顶部