Cost
2016年的文章,总的来说其实亮点不多,但是有一个主动学习和无监督结合的一个方法挺引人注意的,放到现在可能有些过时。
简单放一下ppt,文献过于简单,不需要太多的笔记
这里强调的一个创新点是不光把置信度低的样本用上,连着置信度高的也用上了
简单的交叉熵实现已标记样本的对n的一个训练
低置信度,有点简单粗暴了
j1j2是最有可能的两种所属分类,如果比较相近,msi对应就比较低,那么就认定是这个样本处于两个类的边界上
取一个所有类的期望
Cost