吴恩达《深度学习》系列课 - 10.梯度下降法#深度学习

1057 0
评论 0
发布
暂无评论
合集 · 吴恩达-深度学习 (179集)
第10集  

吴恩达《深度学习》系列课 - 10.梯度下降法#深度学习

11:24
第11集  

吴恩达《深度学习》系列课 - 11.导数#深度学习

07:11
第12集  

吴恩达《深度学习》系列课 - 12.更多导数的例子#深度学习

10:28
第13集  

吴恩达《深度学习》系列课 - 13.计算图#深度学习

03:34
第14集  

吴恩达《深度学习》系列课 - 14.使用计算图求导#深度学习

14:34
第15集  

吴恩达《深度学习》系列课 - 15.logistic 回归中的梯度下降法#深度学习

06:43
第16集  

吴恩达《深度学习》系列课 - 16.m 个样本的梯度下降#深度学习

08:01
第17集  

吴恩达《深度学习》系列课 - 17.向量化#深度学习

08:05
第18集  

吴恩达《深度学习》系列课 - 18.向量化的更多例子#深度学习

06:22
第19集  

吴恩达《深度学习》系列课 - 19.向量化 logistic 回归#深度学习

07:33
第20集  

吴恩达《深度学习》系列课 - 20.向量化 logistic 回归的梯度输出#深度学习

09:38
第21集  

吴恩达《深度学习》系列课 - 21. Python 中的广播#深度学习

11:07
第22集  

吴恩达《深度学习》系列课 - 22.关于 python _ numpy 向量的说明#深度学习

06:50
第23集  

吴恩达《深度学习》系列课 - 23.Jupyter _ ipython 笔记本的快速指南#深度学习

03:44
第24集  

吴恩达《深度学习》系列课 - 24.(选修)logistic 损失函数的解释#深度学习

07:15
第25集  

吴恩达《深度学习》系列课 - 25.神经网络概览#深度学习

04:27
第26集  

吴恩达《深度学习》系列课 - 26.神经网络表示#深度学习

05:15
第27集  

吴恩达《深度学习》系列课 - 27.计算神经网络的输出#深度学习

09:58
第28集  

吴恩达《深度学习》系列课 - 28.多个样本的向量化#深度学习

09:06
第29集  

吴恩达《深度学习》系列课 - 29.向量化实现的解释#深度学习

07:38
第30集  

吴恩达《深度学习》系列课 - 30.激活函数#深度学习

10:57
第31集  

吴恩达《深度学习》系列课 - 31.为什么需要非线性激活函数?#深度学习

05:36
第32集  

吴恩达《深度学习》系列课 - 32.激活函数的导数#深度学习

07:58
第33集  

吴恩达《深度学习》系列课 - 33.神经网络的梯度下降法#深度学习

09:58
第34集  

吴恩达《深度学习》系列课 - 34.(选修)直观理解反向传播#深度学习

15:48
第35集  

吴恩达《深度学习》系列课 - 35. 随机初始化#深度学习

07:57
第36集  

吴恩达《深度学习》系列课 - 36.深层神经网络#深度学习

05:51
第37集  

吴恩达《深度学习》系列课 - 37.前向和反向传播#深度学习

10:29
第38集  

吴恩达《深度学习》系列课 - 38.深层网络中的前向传播#深度学习

07:15
第39集  

吴恩达《深度学习》系列课 - 39.核对矩阵的维数#深度学习

11:09
第40集  

吴恩达《深度学习》系列课 - 40.为什么使用深层表示#深度学习

10:33
第41集  

吴恩达《深度学习》系列课 - 41.搭建深层神经网络块#深度学习

08:33
第42集  

吴恩达《深度学习》系列课 - 42.参数 VS 超参数#深度学习

07:16
第43集  

吴恩达《深度学习》系列课 - 43.这和大脑有什么关系?#深度学习

03:17
第44集  

吴恩达《深度学习》系列课 - 45. 吴恩达采访 Pieter Abbeel#深度学习

16:03
第45集  

吴恩达《深度学习》系列课 - 44.吴恩达采访Geoffrey Hinton#深度学习

40:22
第46集  

吴恩达《深度学习》系列课 - 47.训练_开发_测试集#深度学习

12:04
第47集  

吴恩达《深度学习》系列课 - 48. 偏差_方差#深度学习

08:46
第48集  

吴恩达《深度学习》系列课 - 46. 吴恩达采访 Ian Goodfellow#深度学习

14:55
第49集  

吴恩达《深度学习》系列课 - 49.机器学习基础#深度学习

06:21
第50集  

吴恩达《深度学习》系列课 - 51.为什么正则化可以减少过拟合?#深度学习

07:09
第51集  

吴恩达《深度学习》系列课 - 52.Dropout 正则化#深度学习

09:25
第52集  

吴恩达《深度学习》系列课 - 53.理解 Dropout#深度学习

07:04
第53集  

吴恩达《深度学习》系列课 - 54.其他正则化方法#深度学习

08:24
第54集  

吴恩达《深度学习》系列课 - 55.归一化输入#深度学习

05:30
第55集  

吴恩达《深度学习》系列课 - 56.梯度消失与梯度爆炸#深度学习

06:07
第56集  

吴恩达《深度学习》系列课 - 57.神经网络的权重初始化#深度学习

06:12
第57集  

吴恩达《深度学习》系列课 - 58.梯度的数值逼近#深度学习

06:35
第58集  

吴恩达《深度学习》系列课 - 59.梯度检验#深度学习

06:34
第59集  

吴恩达《深度学习》系列课 - 60.关于梯度检验实现的注记#深度学习

05:18
视频推荐