返回

第623章 这框架简直是神器!

首页
关灯
护眼
字:
上一章 回目录 下一页 进书架
最新网址:m.rulianshi.net
    第623章 这框架简直是神器! (第1/3页)

    两人凑近了屏幕,开始从基础模块往下看。

    因为有着非常明确的目标——搭建一个用于图像分类的神经网络,他们直接跳过了闲篇,直奔核心API。

    鼠标滚轮不断向下滑动,安静的客厅里只有“咔哒咔哒”的声音。

    几分钟后,郭长征突然倒吸了一口凉气。

    “等会儿!一航,你把页面往上拉一点。”郭长征指着屏幕。

    楚一航照做,页面停在了一个名为“自动微分”的章节。

    “卧槽,这也可以?”楚一航脱口而出,声音都提高了八度。

    郭长征死死盯着那几行示例代码,脸上的表情极为震撼。

    “一航,这文档上写的,是真的吗?”郭长征指着屏幕的手指甚至有点发颤。

    “它说,我们只需要定义好前向传播的计算过程,框架就能自动帮我们求导?”

    楚一航也是一脸没见过世面的样子,逐字逐句地又看了一遍。

    “郭老师,文档上确实是这么写的。它甚至包装好了一个叫梯度下降优化器的东西。”

    郭长征猛地拍了一下大腿,发出一声脆响。

    要知道,在2009年这个时间节点,要在底层从零开始手写一个神经网络,简直是所有科研人员的噩梦。

    噩梦的根源,不在于怎么把数据乘起来,而在于怎么把误差传回去。

    这就是反向传播算法。

    科研人员需要拿着纸和笔,运用高等数学里的链式法则,对着错综复杂的网络层,一层一层地去推导偏导数公式。

    稍微多加一层网络,或者换一个非线性激活函数,几十页的数学草稿纸就白写了,必须全部推倒重来。

    哪怕公式推导对了,把它转化成C语言或者C++代码时,稍有一个变量写错,模型就会原地爆炸,梯度直接消失或者数值溢出。

    “这等于是把最折磨人的数学推导过程,全给省略了?”郭长征觉得嗓子有点干。

    “只要告诉它怎么算出来的结果,它自己就能算出怎么调整参数?”

    楚一航看着文档上的示例,只要调用一个简单的函数,所有的梯度就全部计算完毕。

    “郭老师,如果这文档没吹牛逼,那我们以后搭模型,就跟搭乐高积木一样简单了。”

    两人对视了一眼,兴奋之情溢于言表,在客厅里高兴得连连搓手。

    这种把复杂的数学过程完全黑盒化、工程化的设

    (本章未完,请点击下一页继续阅读)
最新网址:m.rulianshi.net
上一章 回目录 下一页 存书签