返回

穿越:2014

首页
关灯
护眼
字体:
第257章 值得期许的未来(2/4)
   存书签 书架管理 返回目录
    阅读提示:为防止内容获取不全,请勿使用浏览器阅读模式。

也就是通常意义所说的要靠大数据去喂。

    同样拿刚才举得例子来说,同样是识别动物,要神经网络学习做到儿童识别动物的水平。

    就不说现在这个时空十分拉跨的神经网络应用了。

    就是依托于前世比较先进的深度残差神经网络。

    想达到人类孩童对动物图像的区分的话。

    也需要成千上万张图片才能进行比较充分的训练,才能再实际应用时得到比较准确的结果。

    之所以神经网络学习“学得慢”“学得费劲”原因在于深度残差神经网络还没有逻辑思考、联想和推理的能力。

    借助于强人工智能则完全没必要有这方面的担忧。

    不光是传统的神经网络学习训练更加容易。

    甚至于借助于强人工智能还可能助力于基础学科方面研究的突破。

    这些都是人们追求强人工神经网络的原因。

    除此之外科研人员追求强人工网络还有很多原因。

    比较值得一提的是。

    部分科研人员认为生物学上的人类是有劣根性。

    人类渴求更加完美的自己。

    很多时候对强人工智能甚至是超人工智能的渴求同样也是人类在追求更加完美的自身而已。

    这不光是这一单一神经网络的局限性,事实上也正是弱人工神经网络的局限性之所在。

    理想很丰满,现实很骨感。

    前世人们都没搞出强人工智能,更不要说在神经网络学习方面各个方面都略有滞后的今生了。

    现在的科研情况不要说是强人工智能的实现,事实是就连弱人工智能都玩明白。

    时下科研人员鼓捣出的神经网络学习算法仍然缺乏人类这样的联想、记忆、学习、推理等高级功能。

    想依靠这样的算法搞弱人工智能都费劲。

    真不知道为什么这种情况下居然还有人操心什么人工智能伦理和机器伦理所带来的风险。

    事实上就算林灰借助于现有的信息优势做文章也只能对弱人工智能做文章。

    而对强人工智能同样手足无措。

    这种情况下林灰倒是觉得时下的人们与其操心这些风险之类的不着边际的事情,还不如真正搞搞具体实在的研究。

    退一步讲,纵然是有风险就望而却步吗?

    世界上有什么事情是完全没风险的?

    林灰倒是觉得,人工智能有适当的风险反而有助于人工智能正确的发展。

    举这样一个例子,神庙逃亡游戏内容和大多数跑酷游戏都非常相似,越过重重障碍和陷阱,不断向前飞奔。

    不过在神庙逃亡里玩家控制的是一个印第安纳琼斯似的人物,在热带雨林的某个古老神庙中逃出,被神庙中一群猴子模样的恶魔守卫追赶。

    人物是自动不断向前飞奔的,而玩家则需要控制他避开逃亡路上遇到的各种危险。

    一路上各种危险,反而让人更加专注于跑酷本身。

    同样的道理,当某项技术有招致一定风险的可能的时候。

    适当的已知风险反而可能有助于研究。

    因为科研人员或许反而会自觉的远离相应的风险。

    从而更加专注于算法逻辑和应用场景。

    ……

    或许这种表述也不够严肃。

    但林灰是始终坚信的发展中的问题要靠发展来解决。

    不能因为发展可能存在问题就拒绝发展。

    人工智能方面的发展同样是如此。

    纵然人工智能可能引发一定层面的争议。

    但林灰同样相信很多科研人员同样和他持有相同的观点。

    至少林灰是知道的,伊芙·卡莉和他的看法是一致的。

    能在未来的前行路上有同
本章未完,请点击下一页继续阅读》》
上一页 目录 下一页