小水滴真的是太可爱了吧
小水滴真的是太可爱了吧
全部文章
【吴恩达深度学习】
linux(1)
mysql(1)
python(2)
【Excel】(1)
【Lambda大数据开发】(51)
【Linux基础与高级】(49)
【PhotoShop】(4)
【Python基础与提高】(47)
【Python工程师面试题】(6)
【Web后端】(19)
【产品经理专栏】(2)
【前端】(95)
【力扣面试刷题】(12)
【吴恩达机器学习】(34)
【小问题解决】(27)
【数据产品】(2)
【数据分析与挖掘】(105)
【数据分析岗位面试】(25)
【数据库】(62)
【数据结构与算法专栏】(45)
【新冠病毒】(2)
【机器学习与深度学习】(165)
【爬虫】(68)
【网络基础与高级】(57)
【面向对象】(14)
产品技能(1)
数据挖掘竞赛(8)
题解(1)
归档
标签
去牛客网
登录
/
注册
小水滴真的是太可爱了吧的博客
全部文章
/ 【吴恩达深度学习】
(共31篇)
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——计算图(Computation Graph)
2.7 计算图(Computation Graph) 可以说,一个神经网络的计算,都是按照前向或反向传播过程组织的。首先我们计算出一个新的网络的输出(前向过程),紧接着进行一个反向传输操作。后者我们用来计算出对应的梯度或导数。计算图解释了为什么我们用这种方式组织这些计算过程。在这个视频中,我们将举...
2020-09-22
0
483
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——使用计算图求导数(Derivatives with a Computation
2.8 使用计算图求导数(Derivatives with a Computation Graph) 在上一个视频中,我们看了一个例子使用流程计算图来计算函数J。现在我们看看流程图的描述,看看你如何利用它计算出函数J的导数。 、 么影响? 现在我想介绍一个新的符号约定,当你编程实现反...
2020-09-22
0
420
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——逻辑回归中的梯度下降(Logistic Regression Gradient
2.9 逻辑回归中的梯度下降(Logistic Regression Gradient Descent) 本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本节视频中,我将使用计算图对梯度下降算法进行计算。我必须要承...
2020-09-22
0
650
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——m 个样本的梯度下降(Gradient Descent on m Example
2.10 m 个样本的梯度下降(Gradient Descent on m Examples) 在之前的视频中,你已经看到如何计算导数,以及应用梯度下降在逻辑回归的一个训练样本上。现在我们想要把它应用在m个训练样本上。 但之前我们已经演示了如何计算这项,即之前幻灯中演示的如何对单个训练样本进...
2020-09-22
0
571
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——向量化(Vectorization)及更多例子
2.11 向量化(Vectorization) 向量化是非常基础的去除代码中for循环的艺术,在深度学习安全领域、深度学习实践中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以你的代码运行速度非常重要,否则如果在大数据集上,你的代码可能花费很长时间去运行,你将要等待非常长...
2020-09-22
0
408
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——向量化逻辑回归(Vectorizing Logistic Regression)
文章目录 2.13 向量化逻辑回归(Vectorizing Logistic Regression) 2.13 向量化逻辑回归(Vectorizing Logistic Regression) 我们已经讨论过向量化是如何显著加速你的代码,在本次视...
2020-09-22
0
574
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——向量化 logistic 回归的梯度输出(Vectorizing Logisti
文章目录 2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression's Gradient) 2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression’s Gra...
2020-09-22
0
455
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——Python 中的广播、关于 python中numpy 向量的说明
文章目录 2.15 Python 中的广播(Broadcasting in Python) 2.16 关于 python _ numpy 向量的说明(A note on python or numpy vectors) 2.15 Pytho...
2020-09-22
0
548
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)—— Jupyter/iPython Notebooks快速入门(Quick tou
文章目录 2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks) 2.17 Jupyter/iPython Notebooks快速入门(Quick to...
2020-09-22
0
592
【吴恩达深度学习专栏】神经网络的编程基础(Basics of Neural Network programming)——logistic 损失函数的解释(Explanation of logistic
文章目录 2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function) 2.18 (选修)logistic 损失函数的解释(Explanation of lo...
2020-09-22
0
416
首页
上一页
1
2
3
4
下一页
末页