更多的导数例子(More Derivative Examples)

在这篇笔记中将给出一个更加复杂的例子,在这个例子中,函数在不同点处的斜率是不一样的,先来举个例子:


我在这里画一个函数,f(a)=a^2,如果a=2 的话,那么f(a)=4。

让我们稍稍往右推进一点点,现在a=2.001 ,则f(a)≈4.004 (如果你用计算器算的话,这个准确的值应该为4.004001 我只是为了简便起见,省略了后面的部分),

如果你在这儿点附近画,一个小三角形你就会发现,如果把a往右移动0.001,那么f(a)将增大四倍,即增大0.004。

在微积分中我们把这个三角形斜边的斜率,称为f(a)在点a=2 处的导数(即为4),

或者写成微积分的形式,当a=2 的时候,


由此可知,函数f(a)=a^2,在a取不同值的时候,它的斜率是不同的,这和上个视频中的例子是不同的。

这里有种直观的方法可以解释,为什么一个点的斜率,在不同位置会不同如果你在曲线上,的不同位置画一些小小的三角形你就会发现,三角形高和宽的比值,在曲线上不同的地方,它们是不同的。

所以当a=2 时,斜率为4;

而当a=5时,斜率为10 。

如果你翻看微积分的课本,课本会告诉你,函数f(a)=a^2的斜率(即导数)为2a。

这意味着任意给定一点a,如果你稍微将a,增大0.001,那么你会看到f(a)将增大2a,即增大的值为点在a处斜率或导数,乘以你向右移动的距离。

现在有个小细节需要注意,导数增大的值,不是刚好等于导数公式算出来的值,而只是根据导数算出来的一个估计值。

为了总结这堂课所学的知识,我们再来看看几个例子:

假设f(a)=a^3 如果你翻看导数公式表,你会发现这个函数的导数,等于3a^2。

所以这是什么意思呢,同样地举一个例子:

我们再次令a=2,所以a^3=8 ,如果我们又将a增大一点点,你会发现f(a)≈8.012, 你可以自己检查一遍,如果我们取8.012,你会发现[2.001]^3 ,和8.012很接近,

事实上当a=2时,导数值为3×2^2,即3×4=12。

所以导数公式,表明如果你将a向右移动0.001时,f(a) 将会向右移动12倍,即0.012。

来看最后一个例子,假设f(a)=log_e a(就是log以自然数e为底,a的函数),有些可能会写作lna,函数loga 的斜率应该为1/a(学过高中数学或者微积分的人应该不陌生)

所以我们可以解释如下:

如果a取任何值,比如又取a=2,然后又把a向右边移动0.001 那么f(a)将增大1/a×0.001,如果你借助计算器的话,你会发现当a=2时f(a)≈0.69315 ;

而a=2.001时,f(a)≈0.69365。所以f(a)增大了0.0005,

如果你查看导数公式,当a=2的时候,导数值d/da f(a)=1/2。

这表明如果你把 增大0.001,f(a)将只会增大0.001的二分之一,即0.0005。

如果你画个小三角形你就会发现,如果x 轴增加了0.001,那么y 轴上的函数loga,将增大0.001的一半 即0.0005。

所以 1/a ,当a=2时这里是 ,就是当a=2时这条线的斜率。这些就是有关,导数的一些知识。

在这个笔记中,你只需要记住两点:
第一点,导数就是斜率,而函数的斜率,在不同的点是不同的。

在第一个例子中f(a)=3a ,这是一条直线,在任何点它的斜率都是相同的,均为3。

但是对于函数f(a)=a^2 ,或者f(a)=loga,它们的斜率是变化的,所以它们的导数或者斜率,在曲线上不同的点处是不同的。

第二点,如果你想知道一个函数的导数,你可参考你的微积分课本或者维基百科,然后你应该就能找到这些函数的导数公式。

吴恩达深度学习笔记(10)-更多的导数讲解相关推荐

  1. 吴恩达深度学习笔记(四)

    吴恩达深度学习笔记(四) 卷积神经网络CNN-第二版 卷积神经网络 深度卷积网络:实例探究 目标检测 特殊应用:人脸识别和神经风格转换 卷积神经网络编程作业 卷积神经网络CNN-第二版 卷积神经网络 ...

  2. 吴恩达深度学习笔记——卷积神经网络(Convolutional Neural Networks)

    深度学习笔记导航 前言 传送门 卷积神经网络(Convolutional Neural Networks) 卷积神经网络基础(Foundations of Convolutional Neural N ...

  3. 吴恩达深度学习笔记——神经网络与深度学习(Neural Networks and Deep Learning)

    文章目录 前言 传送门 神经网络与深度学习(Neural Networks and Deep Learning) 绪论 梯度下降法与二分逻辑回归(Gradient Descend and Logist ...

  4. 吴恩达深度学习笔记——结构化机器学习项目(Structuring Machine Learning Projects)

    深度学习笔记导航 前言 传送门 结构化机器学习项目(Machine Learning Strategy) 机器学习策略概述 正交化(orthogonalization) 评价指标 数字评估指标的单一性 ...

  5. 799页!吴恩达深度学习笔记.PDF

    吴恩达深度学习课程,是公认的最优秀的深度学习课程之一,目前没有教材,只有视频,本文提供完整笔记下载,这本笔记非常适合和深度学习入门. 0.导语 黄海广博士和同学将吴恩达老师深度学习视频课程做了完整的笔 ...

  6. 吴恩达深度学习笔记1-Course1-Week1【深度学习概论】

    2018.5.7 吴恩达深度学习视频教程网址 网易云课堂:https://mooc.study.163.com/smartSpec/detail/1001319001.htm Coursera:htt ...

  7. 吴恩达--深度学习笔记

    这是一个督促自己学习的笔记 文章目录 这是一个督促自己学习的笔记 1.logistic回归 1. 神经网络基础----二分分类 2. logistic回归 3. logistic回归损失函数 4. 梯 ...

  8. 吴恩达深度学习笔记- lesson4 卷积神经网络

    文章目录 Week 1 卷积神经网络基础 4.1.1 计算机视觉(Computer vision) 4.1.2 边缘检测示例(Edge detection example) 4.1.3 更多边缘检测内 ...

  9. 吴恩达深度学习笔记(四)—— 正则化

    有关正则化的详细内容: 吴恩达机器学习笔记(三) -- Regularization正则化 <机器学习实战>学习笔记第五章 -- Logistic回归 主要内容: 一.无正则化 二.L2正 ...

  10. 吴恩达深度学习笔记_Github标星过万的吴恩达机器学习、深度学习课程笔记,《统计学习方法》代码实现,可以在线阅读了!...

    吴恩达机器学习.深度学习,李航老师<统计学习方法>,可以说是机器学习入门的宝典.本文推荐一个网站"机器学习初学者",把以上资源的笔记.代码实现做成了网页版,可以在线阅读 ...

最新文章

  1. showimg.php,layer弹出图片
  2. Linux下crontab命令添加Kettle作业定时任务
  3. 十一. 图形、图像与多媒体1.绘图基础
  4. Openlayers中加载Geoserver切割的EPSG:900913离线瓦片地图并显示
  5. Java中实现按字符串位数在前面补0
  6. 61条面向对象设计的经验原则
  7. java消息 框架_java 框架-消息队列ActiveMQ
  8. sqlserver复习总结
  9. [BZOJ1565]植物大战僵尸
  10. java类构造函数调用顺序_Java中的构造函数调用顺序
  11. opencv-python版本问题
  12. vb mysql 实例_VB与数据库的交互经典例子总结
  13. 如何将数据库删除干净
  14. java在上海就业_叩丁狼教育上海Java一期就业报道
  15. execute immediate
  16. 腾讯QQ邮箱、网易163邮箱配置客户端(Windows自带邮件)教程
  17. JavaScript性能优化方案,你知道几个?
  18. 自然语言处理NLP概论
  19. Qt窗口模糊和阴影效果
  20. python中shelf_Python cmds.shelfLayout方法代码示例

热门文章

  1. backtracking及其应用2
  2. 正在保存备份的驱动器与启动计算机,如何备份Mac
  3. Java 每年节假日获取
  4. 杰瑞学Perl之Hello World
  5. iOS项目开发实战——iOS网络编程获取网页Html源代码
  6. day_3:z分数、正态分布和概率
  7. nvm环境安装和 node 的基本使用
  8. MMRotate 全面升级,新增 BoxType 设计
  9. 《游戏机图鉴》:一份献给游戏玩家的回忆录
  10. vs 没法f12_键盘快捷键 - F12不再适用于Visual Studio