深度学习笔记 VI – 监督学习和反向传播算法 - Supervised Learning & Back Propagation algorithm
cn·@victory622·
0.000 HBD深度学习笔记 VI – 监督学习和反向传播算法 - Supervised Learning & Back Propagation algorithm
#1 [深度学习笔记 I – 卷积神经网络的直观解释 A - 整体结构](https://cnsteem.com/cn/@victory622/i) #2 [深度学习笔记 II – 卷积神经网络的直观解释 B - Convolution & Pooling Step](https://cnsteem.com/cn/@victory622/ii-b-convolution-and-pooling-step) #3 [深度学习笔记 III – 卷积神经网络的直观解释 C - Introducing Non Linearity & Fully Connected](https://steemit.com/cn/@victory622/iii-c-introducing-non-linearity-and-fully-connected) #4 [深度学习笔记 IV – 多层感知器-前馈神经网络与反向传播学习 - Multi Layer Perceptron - Feedforward Neural Network&Backward Propagation of Errors](https://steemit.com/cn/@victory622/iv-multi-layer-perceptron-feedforward-neural-network-and-backward-propagation-of-errors) #5 [深度学习笔记 V – 激活函数ReLU - ReLU Activation Function](https://steemit.com/cn/@victory622/v-relu-relu-activation-function) 记录几个之前错过的知识点。 ##### 监督学习 无监督学习 半监督学习 【Supervised learning Unsupervised Learning Semi-supervised learning】 这个知识点本来不想记录了,因为非常直观。今天和同事讨论machine learning 和 deep learning的时候讨论到了监督和无监督的问题,想想还是记录一下。 监督学习就是之前所有文章中讲到的神经网络训练的过程,给定训练数据,这些数据已知Feature(特征)和Label(标签,e.g. 阿猫阿狗小船汽车),然后找到特征和标签之间的关系。当学习到了这个关系以后,再有已知特征但未知标签的输入的时候,便可以识别出对应的标签,这个过程其实就是分类(Classification)。 无监督学习就是训练数据只有特征但没有标签,需要学习过程对这些数据进行聚集(clustering),**自主**地聚集!物以类聚人以群分在机器里也是存在的啊,XD! 半监督就是一些数据有标签,一些数据没标签,然后打一套漂亮的Clustering 和Classification的组合拳! 关于监督和半监督的pros and cons,显然监督学习会比无监督学习得到更完美的分类结果,然而标签的获得需要大量的工作量! **今天一个最初就没分清楚的问题一直在脑子里:machine learning 和 deep learning 的 区别?**  Image source[1] 上面的图片来自nvidia网站上一篇博客 [What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?](https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/)。 图中的意思是机器学习包含了深度学习,文章中其中对于人工智能,机器学习和深度学习的标题性概述感觉总结的非常好: >Artificial Intelligence — Human Intelligence Exhibited by Machines Machine Learning — An Approach to Achieve Artificial Intelligence Deep Learning — A Technique for Implementing Machine Learning 大名鼎鼎的Google Alpha Go 就是最出色的deep learning的杰作,最近它的纪录片要有希望冲击奥斯卡最佳纪录片了,~~我看了预告片,好多李世石的画面,下围棋的人抽烟都那么雅~~ https://www.youtube.com/watch?v=8tq1C8spV_g ##### 反向传播算法【Back Propagation algorithm】 前面先记录一下监督学习,就是为了这个反向传播算法,因为这个反向传播显然是需要特征和标签都已知的,所以反向传播算法发生在监督学习过程中。 其实反向传播算法在前面的笔记中已经算是记录过了,但这一篇[Principles of training multi-layer neural network using backpropagation](http://home.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html)是我读到的关于反向传播算法**最好最好**的解释,图文并茂!只有一点是算法中有一个参数η的设定在文章中只是一笔带过,不过感觉这个参数是重中之重。文章里非常直观的用一步一步的图形讲解了反向传播算法,看到国内很多作者都直接用了这篇文章的图片,也不知道获没获得原作者的许可,就把人家图片用了。 另一篇[Calculus on Computational Graphs: Backpropagation](http://colah.github.io/posts/2015-08-Backprop/),这里面非常详细得从唤醒导数的求法开始(求导的目的当然是为了看变化率的大小,这样就能知道权重的影响力);接下来回顾了前向模式求导( forward-mode differentiation) 反向模式求导(reverse-mode differentiation),前向求导模式是看一个输入如何影响每一个节点,而反向求导模式是查看每一个节点如何影响一个输出(~~越来越清晰了有没有!~~), 说明了前向和反向带来的计算量的巨大差异!作者在文章末尾的总结挺有意思。 这个视频[4]做的要挺生动的,可惜的是并没有反向传播算法的细节,但可以从中看到训练一个简单的计数器也需要大量的时间。 https://www.youtube.com/watch?v=WZDMNM36PsM Reference [1] [What’s the Difference Between Artificial Intelligence, Machine Learning, and Deep Learning?](https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/) [2] [How do you explain back propagation algorithm to a beginner in neural network?](https://www.quora.com/How-do-you-explain-back-propagation-algorithm-to-a-beginner-in-neural-network/answer/Hemanth-Kumar-Mantri) [3] [Principles of training multi-layer neural network using backpropagation](http://home.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html) [4]https://rimstar.org/science_electronics_projects/backpropagation_neural_network_software_3_layer.htm ----- <center> 谢谢阅读 ! Thanks for your reading! Please feel free to upvote, comment and follow me @victory622 </center> -----
👍 admyrer, jeff-kubitz, bring, xiaoshancun, fivestargroup, primetimesports, lancy, acactus1013, aafeng, sweetieprincess, cnbuddy, drunkevil, tumutanzi, breathewind, leir, dancingapple, ivysrono, susanli3769, htliao, husamia, arcange, raphaelle, vandadream, antone, heyeshuang, chann, veronicazhu, lydiachan, winniex, younbokum, incrediblesnow, bullionstackers, worldwonderer, keepup, victory622, paul-gillbanks, abay, catwomanteresa, bxt, wangwenjing, stacee, stabilowl, koinbot, steemlike, steemfunding,