返回

穿越:2014

首页
关灯
护眼
字体:
第136章 全國高考滿分狀元(6)(3/4)
   存书签 书架管理 返回目录
    阅读提示:为防止内容获取不全,请勿使用浏览器阅读模式。

算法已经有所成就。

    生成式摘要算法是林灰入局的敲门砖。

    /*对技术无感的括号内容可以直接跳过去*/

    (之所以以此入局,是因为自然语言处理这东西之于神经网络学习

    很像是数论之于数学。

    数学里的数论你不能说它不重要。

    但是门槛是真的低。

    当然数论门槛虽低,但上限却很高。

    而自然语言处理的门槛也很低。

    毕竟涉及到语言这东西,谁都会语言。

    因此自然语言处理门槛也很低。

    门槛低代表着即便林灰入局也不会被太在意。

    而LP神经网络虽然门槛低。

    但和数论一样,上限很高。

    上限很高意味着什么呢?

    意味着将来可以轻松破局!)

    而林灰打算怎样破局呢?

    生成式摘要算法本质上是深度学习发展的产物。

    而现在这个时间节点。

    却只有神经网路识别。

    没有真正意义上的深度学习。

    林灰很清楚打开真正的深度学习的钥匙是什么?

    ——残差神经网路。

    (这个概念是前世在2015年由Mrosoft某研发团队提出的。

    残差神经网络是一种残差学习框架来减轻网络训练。

    和以往的神经网络架构不同。

    残差神经网路的架构将层变为学习关于层输入的残差函数,而不是学习未参考的函数。

    经验证据证明这些残差网络很容易优化,并可以显著增加深度来提高准确性。

    林灰记得,前世的研究小组在Iet数据集上评估了深度高达152层的残差网络。

    这个152层的深度要比现在这个时空主流的深8倍。

    但是就复杂度而言,残差网络却具有较低的复杂度。

    深度网络自然地将低/中/高级特征和分类器以端到端多层方式进行集成。

    特征的“级别”可以通过堆叠层的数量来丰富。

    可以说残差神经网路具有碾压般的优势)

    残差神经网路这个东西在外人眼中可能是晦涩的术语。

    但其实这是开启未来的钥匙。

    而其就掌握在林灰的手中。

    林灰这种比喻丝毫不过分。

    只有在残差神经网络出现之后,深度学习这个概念才真正出现。

    具体到应用层面。

    在残差神经网络出现后。

    可以导致了图像识别领域的一系列突破。

    而图像领域的突破。

    很可能使得【人脸识别技术】得到发展。

    更何况关于人脸识别技术的发展林灰还有些来自前世的资料。

    这对林灰无疑意味着极大的优势。篳趣閣

    深度学习的出现,不止促进图像识别方面的发展。

    深度识别技术出现后。

    【人工智能】的快速发展才真正搭建起了基石。

    某种程度上来说,用生成式摘要算法来换钱已经不是林灰最高层次的诉求了。

    林灰现在所图更大。

    无论是人工智能还是人脸识别。

    哪个都是近万亿级别的市场!

    不过千里之行始于足下,还是得深耕细作。

    根基不稳的话,登高易跌重。

    林灰畅想着万亿市场的时候。

    讨论组里成员还在讨论着关于未来的专业选择。

    何思远:“我还没想好……我妈倒是建议我去学会计。”

    刘繇:“听阿姨的吧,学会计不会吃亏……”

    何思远:“呃,感觉会计工作很枯燥啊。”

   
本章未完,请点击下一页继续阅读》》
上一页 目录 下一页