大家好,又见面了,我是你们的朋友全栈君。
CBOW与Skip-Gram模型基础:https://www.cnblogs.com/pinard/p/7160330.html
Hierarchical Softmax的模型:https://www.cnblogs.com/pinard/p/7243513.html
Negative Sampling的模型:https://www.cnblogs.com/pinard/p/7249903.html
word2vec原理总结:
1.word2vec中有两种模型CBOW和Skip-Gram,CBOW是通过上下文词来预测中心词,Skip-Gram是通过中心词来预测上下文。
2.word2vec的两种优化方式:基于霍夫曼树的Hierarchical Softmax和负采样。
Hierarchical Softmax:
1.根据每个词的词频大小构建霍夫曼树,词频越高越靠近根结点。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量
缺点:生僻词需要沿着树从上到下找很久 。
负采样:
1.随机选neg个中心词做负例,正例是正确的中心词,1-正例=负例。
2.初始化模型参数(每个节点参数),词向量
3.通过逻辑回归、最大似然函数中的梯度上升求解参数和词向量
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/145390.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...