欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 教育 > 高考 > 吴恩达 Deep Learning(1-36)ppt逐行理解

吴恩达 Deep Learning(1-36)ppt逐行理解

2025/11/9 10:05:51 来源:https://blog.csdn.net/weixin_42309425/article/details/146059044  浏览:    关键词:吴恩达 Deep Learning(1-36)ppt逐行理解

课程地址:(超爽中英!) 2024公认最好的【吴恩达深度学习】教程!附课件代码 Professionalization of Deep Learning_哔哩哔哩_bilibili

1.目录

2.什么是神经网络

3.用神经网络进行监督学习

4.为什么深度学习会兴起

7.二分分类

适用于二元分类问题的函数:逻辑回归,输出0/1

9.logistic回归损失函数

10.梯度下降法

15.logistic回归中的梯度下降法

da/dZ==a(1-a)

所以dL/dZ=a-y

求dL/dw1=x1*dZ  dL/dw2=x2*dZ   dL/db=dZ  

16.m个样本的梯度下降

上图就是梯度下降的一次迭代

但是在里面有两个循环,外层循环是1~m,内层循环是w1~wn

矢量化可以避免循环

17.向量化

用向量化避免loop,提高代码运行速率

18.向量化的更多例子

19.向量化logistic回归

正向传播一步迭代的向量化实现,同时处理m个训练样本

20.向量化logistic回归的梯度输出

上个视频学会了计算向量化计算整个训练集预测值a

这个视频将学会向量化计算m个训练数据的梯度

这个技术叫Broadcasting

21.Python中的广播

24.(选修)logistic损失函数的解释 未来看

25.神经网络概览

26.神经网络表示

a[0]  a[n]每一层的激活值

27.计算神经网络的输出

补:a[1]=将sigmoid作用于矩阵Z[1]

向量化的经验法则:如果一层有不同的节点,就将他们纵向堆叠起来

28.多样本向量化 29向量化实现的解释 都是线代

30.激活函数

建立神经网络有很多选择,比如隐藏单元数、激活函数、如何初始化权重

对于你的项目,事实上很难预测哪种选择最有效,最好是实际上跑一跑

31.为什么需要非线性激活函数

只有一种情况可以使用线性激活函数,就是当预测房价,最高可以无穷大,那么在输出层可以使用线性激活函数,并且隐藏层必须是非线性的激活函数

只有压缩或者非常特殊的情况,在隐藏层使用线性激活函数

32.激活函数的导数

33.神经网络的梯度下降法

34.(选修)直观理解反向传播

反向传播公式手推:

35.随机初始化

补充:每个激活函数的权重也是一样的

单层神经网络设为0.01应该还可以,如果是深层的需要尝试其他的constant 

36.深层神经网络

介绍了一些符号约定。

a[l]最后一层的a l表示层数

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com