У нас вы можете посмотреть бесплатно 神经网络中的链式法则,从手搓到代码实践 или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Gmatrix【基地】 数字货币 摆脱奴役 人工智能 摆脱肉体 宇宙殖民摆脱旧世界 先收集数据 顾客体重与他吃的食物的总价值 假使我们收集了6位 分布是这样的体重越重吃的越多 那我们就可以拟合出这样一条曲线数学表达下就是这样的 吃多少E= 雪微复习下一个概念 吃多少E的导数就是曲线上每一个点的切线斜率表示的是啥? 就是吃多少关于体重的变化速度 导数这么写 导数公式查下这里 按这个换下同时 我们再看 是不是吃越多,单人利润就越低 这关系 简单的这么拉一条线 表示下就好了 数学表示下求导也就是这条线的斜率是-1/2那么请问 利润相对于体重的变化速度是多少呢? 是不是就是利润关于体重求导这种隔“值”求导咋弄呢? 这里 对于神经网络一个非常重要的概念来了 链式法则 略去证明 咱么可以直接这么干上面的数学关系代进去非常完美 完美啥? 请问这有什么用呢? 自助餐老板如是说 我就想预测进来一个人能吃多少 我也知道体重越重吃越多 是这样一条曲线 要预测准确是不是 就是实际值-预测值=0就行 为了方便理解 我们只在吃多少这个轴上 移动曲线去靠近刚进来的的那个人的数据位置那上下移动企图重合的过程中 真实值与预测值的的距离 也就是 真实值-预测值 我们叫它残差 与吃多少轴上的截距之间的关系是不是就是这样的我们联动的挪动下看下 就是越靠近 残差越小 重合就0了 穿越远离就是负值越来越大了 显然 我们只希望重合 准确预测 而不希望往任何一个方向远离对不对 那我们就惩罚远离好不好 那我们就不直接用残差 而用残差的平方 那么我们是不就又可以得到这个图了 变成这个图了我们再联动下 是不是就是这样跑了 离得越远残差平方越大,在曲线上的表现就是切线斜率越大对不对 也就是导数越大对不对 那斜率为零呢 就是这条直线 也就是残差为零了 也就是预测完全准确 对不对? 各位悟了没有 我们企图“重合真实”而寻找的这个吃多少轴的截距 对我们来说是个未知参数 对吧 寻找截距这个参数的最优解 其实是一个求导问题 就是这个值何时为0 这好搞呀 隔“值”求导对吧 用我们上面说的链式法则 那我们是不是就可以这样一顿操作了 此时我们再回到最开头的这张图了真实值怎么来的 这条线往上挪动截距而来的 这条线的函数是那真实值是不是就是 那这里替换下 我们是不是就可以继续操作了  刚开始啥都不知道 直接整一套简单的从0开始的斜线 斜率也随便 随机一个  我们要的是什么? 通过调整线在y轴上的截距这个参数来实现 这5个虚线距离的总和最小对吧  上面一个数据 我们都经历过一遍了 截距0的时候 我们就获得了一个残值平方的5个值的总和