第14章 万事俱备

重生之AI教父 CloseAI 1191 字 10天前

根据阿里克斯介绍的办法,孟繁岐很快调试完成,顺利将批归一化,Adam优化器等操作从自己实验的环境迁移到cuda-convnet框架上,做了一些调整和适配。

没过过久,便已经在CIFAR-10上运行了起来。

接下来便是本次参赛的最核心竞争力,残差网络在这个框架上的实现。

“今年的IMAGENET挑战赛其实没有什么太多的新想法,大家基本上都是以复现阿里克斯的算法为主。”

孟繁岐当然不准备和其他队伍一样,基于阿里克斯的框架去重新实现阿里克斯去年的参赛算法,早期的许多算法在参数量和计算量上都有很大的冗余。

“谷歌的GoogleNet和牛津的VGGNet原本要明年才能研究出来,不过我今年参赛之后,这两个AI历史上的重要网络恐怕就要胎死腹中了吧?”

别说是现在了,截止到14年末,多余的设计仍旧大量存在与谷歌和牛津大学的算法当中。

直到15年,那个男人以残差网络ResNet夺冠ImageNet-2015,铸就了深度学习时代的AI模型的神格。

残差思想是孟繁岐此时此刻的最佳选择,一方面它会成为深度学习时代的里程碑,因为它的核心思想,就是如何把深度网络做得更加‘深’。

另一方面,它的实现和结构简洁,抛弃了大量人类看来很有道理和价值,但实际上其实用处不大的设计。

将简洁好用的结构反复重复,这也大大地降低了孟繁岐所需要的开发工程量。

AlexNet是八层的结构,各自有一些独立的设计,在此时,8层已经是革命性的深度网络了。

更深的网络特别难以训练,因此原本直到14年,谷歌和牛津才分别把这个深度推进到22层和19层。

而ResNet的思想,彻底从根本上解决了网络变深就没法顺利训练的问题。它让50,100,150,甚至1000层网络的训练成为可能。

“从去年的8,到今年的100+层,甚至1000层也可以训练。在2013年的视角来看,这一剂猛药应该够劲了。”

不仅是深度上取得了开创性的突破,ResNet的性能也同样惊人。它是第一个Top-5错误率低于人类能力的结构,单模型达到了4.6%左右。