第136章 全國高考滿分狀元(6)(第 3/4 页)
一、通过各种手段赚取足够多的启动资金。
二、获得一定的学术上的地位从而获取学术话语权。
关于未来的规划。
林灰其实已经在稳扎稳打地向前推进了。
尽管现在步子还不是很大。
但其实并不慢。
林灰现在搞得那个生成式摘要算法已经有所成就。
生成式摘要算法是林灰入局的敲门砖。
/*对技术无感的括号内容可以直接跳过去*/
(之所以以此入局,是因为自然语言处理这东西之于神经网络学习
很像是数论之于数学。
数学里的数论你不能说它不重要。
但是门槛是真的低。
当然数论门槛虽低,但上限却很高。
而自然语言处理的门槛也很低。
毕竟涉及到语言这东西,谁都会语言。
因此自然语言处理门槛也很低。
门槛低代表着即便林灰入局也不会被太在意。
而nlp 神经网络虽然门槛低。
但和数论一样,上限很高。
上限很高意味着什么呢?
意味着将来可以轻松破局!)
而林灰打算怎样破局呢?
生成式摘要算法本质上是深度学习发展的产物。
而现在这个时间节点。
却只有神经网路识别。
没有真正意义上的深度学习。
林灰很清楚打开真正的深度学习的钥匙是什么?
——残差神经网路。
(这个概念是前世在2015年由microsoft某研发团队提出的。
残差神经网络是一种残差学习框架来减轻网络训练。
和以往的神经网络架构不同。
残差神经网路的架构将层变为学习关于层输入的残差函数,而不是学习未参考的函数。
经验证据证明这些残差网络很容易优化,并可以显著增加深度来提高准确性。
林灰记得,前世的研究小组在imagenet数据集上评估了深度高达152层的残差网络。
这个152层的深度要比现在这个时空主流的深8倍。
但是就复杂度而言,残差网络却具有较低的复杂度。
深度网络自然地将低/中/高级特征和分类器以端到端多层方式进行集成。
特征的“级别”可以通过堆叠层的数量来丰富。
可以说残差神经网路具有碾压般的优势)
残差神经网路这个东西在外人眼中可能是晦涩的术语。
但其实这是开启未来的钥匙。
而其就掌握在林灰的手中。
林灰这种比喻丝毫不过分。
只有在残差神经网络出现之后,深度学习这个概念才真正出现。
具体到应用层面。
在残差神经网络出现后。
可以导致了图像识别领域的一系列突破。
而图像领域的突破。
很可能使得【人脸识别技术】得到发展。
更何况关于人脸识别技术的发展林灰还有些来自前世的资料。
这对林灰无疑意味着极大的优势。
深度学习的出现,不止促进图像识别方面的发展。
深度识别技术出现后。
【人工智能】的快速发展才真正搭建起了基石。
某种程度上来说,用生成式摘要算法来换钱已经不是林灰最高层次的诉求了。
林灰现在所图更大。
无论是人工智能还是人脸识别。
哪个都是近万亿级别的市场!
-->>(第 3/4 页)(本章未完,请点击下一页继续阅读)