返回

穿越:2014

首页
关灯
护眼
字体:
第125章 怎样才能更深?(6/6)
   存书签 书架管理 返回目录
    阅读提示:为防止内容获取不全,请勿使用浏览器阅读模式。

案之间差价甚至可能达到100亿美元之多。

    由此观之,算法在特定的场合是非常有价值的。

    林灰先前搞定的生成式文本摘要算法虽然没办法跟某音基于数据分析的个性化信息推送服务技术涉及到的算法相提并论。

    但也有其独到的价值。

    这玩意在懂行的人眼中则是一座充满着宝藏的宝库。

    反正伊芙·卡莉字里行间都是充满着对林灰的赞美。

    伊芙·卡莉很好奇林灰是怎么搞定南风APP里面文本摘要技术的。

    呃,其实林灰再南风生成式文本摘要处理技术是怎么搞定的很简单。

    只需要大概七八步就可以轻松做到南风APP里面的文本摘要处理技术:

    基于深度学习技术,设计合适的模型架构和训练策略。

    设计生成式自动文本摘要模型

    借助迁移学习的思想,提出了基于预训练模型的生成式自动文本摘要算法。

    通过无监督来完成内容表示以及权重计算

    ……

    ……

    步骤说起来简单。每一步来说对于这个时空的人都很难。

    有的是思路上比较难想到这个方向。

    有的是技术上单纯做不到。

    而有的既是思路上想不到,又是技术上做不到。

    就很悲催!

    比如说步骤里提到的无监督训练。

    现在主流研究方向已经淡忘了无监督训练这个方向了。

    在涉及到训练的时候更习惯监督训练。

    而不是很侧重于无监督训练。

    无监督训练对于这个时空的人来说似乎是一个很复古的研究方向。

    在这个时空人的眼里。

    无监督训练会带来训练结果发散的现象他们并不算很容易处理。

    步骤提及的预训练模型:

    在自然语言处理中引入预训练模型。

    按照正常的时间线则是16年左右出现的。

    这项技术对于此时的NLP研究者来说是一种全新的概念。

    而步骤中的深度学习技术。

    时下的人们虽然能想得到应用神经网络学习技术!

    但却做不到深度学习,虽然深度学习和神经网路学习意思差不多。

    这个时空神经网络的研究并不算特别深入。

    14年虽然也有神经网络,但在神经网络学习的研究并没有往后几年那么深入。

    虽然从12年开始这个时空的人们就知道神经网路学习时越深神经网络准确率越高。

    但是知道也没什么太大的用途。

    这个时空的神经网络多数只能深/入大概十层二十层这样。

    深/入到就层的时候就极限了。

    而后世的神经网络深/入几百层上千次也是常有的事情。

    一言以蔽之,这个时空的人们在神经网络学习方面还没办法做到那么深。

    而没法做到那么深,在准确度上就要很容易打折扣。

    尽管这里面的门路林灰都很清楚。

    但时机不成熟的情况下这些东西暂时就不足为外人道了。
上一页 目录 下一章