神经网络:请不要开始就让我sigmoid(wTx),谢谢!神经网络:请不要开始就让我sigmoid(wTx),谢谢!
学习机器学习,翻阅了一些神经网络的文章,上来就是sigmoid ( 1/(1+exp(x))1/(1+exp(x)) )和WTX,让不少初学者摸不着头脑。一些市面上评价很高的机器学习的书也是直接开始sigmoid和收敛性的讨论,想踏进机器学习的门,确实还是少了点让初学者能看懂的资料。本篇只想抛砖引玉一下,介绍sigmoid的由来。