首页 > 新闻 > 专家观点 >

机器人的未来是否可控?

2016-08-03 11:34:57   作者:   来源:CTI论坛   评论:0  点击:


  随着大数据产业的兴起,以及机器学习技术取得了一些突破性的进展,人工智能的再次崛起成为业界的期盼。机器人产业是人工智能技术的核心载体,开始变得热火朝天。人们似乎有谈虎色变的习惯,在谈到机器人的时候,往往想到机器人对人类社会的威胁。其实,这个世界上,没有绝对的安全,也没有绝对的威胁;一切都要动态、相对地看,不同的量决定不同的质、不同的质引发不同的量。
  机器人还不具备自我意识
  普通大众所担忧的,往往是科幻小说或电影所宣扬的具有自我意识的类人机器人。科幻作品由于细节而形象的描述,容易征服人心。比如类似《星际穿越》或者《银河护卫队》的电影,讲述的是人们乘坐飞船就可以轻而易举地到达另外一个星系。实际上,离太阳系最近的比邻星也有大约4.3光年的距离。人类在1977年发射的旅行者一号航天器,在37年后开始飞出太阳系的边缘,借助星球的引力作用,它的速度已经相当快,每小时可以绕地球一圈。即使是这样的速度,它到达邻居星系也需要五六万年的时间,而它的核电池只能支撑到2025年。所以,星际穿越类幻想并不科学。
  回到所谓的自我意识机器人上,我们要探讨两件事:一是这样的机器人能不能造出来,二是人类要不要造这样的机器人。第二个问题其实很容易讨论。而第一个问题关于大脑意识,生物科技至今也没有研究清楚,所以机器人目前还难以突破意识领域。当今的机器人技术,其智能部分就是计算机技术,其核心是基于硅晶体管的集成电路芯片,以及在此基础上构建的硬件和软件技术体系。
  众所周知的摩尔定律,是形容芯片的计算速度按指数级增加。依据计算机速度的增加,很多人推导出电脑会超过人脑的结论,即所谓的奇点临近,尤其是在未来晶体管数量超过人脑的几百亿个神经元的情况下。事实上,量变未必能引起质变,如同一千亿只蚂蚁也未必能超越一个人一样。有两个可以观察的现实例子,一是超级计算机,如我国的银河系列超级计算机,具有无比快的计算速度,但未必能产生智能。另一个例子是谷歌搜索引擎,即使计算机把互联网上所有的知识都装进内存,也未必会直接导致智能的提升。
  可以说,我们对“意识”的担心过早,人类已经努力了上百年,但机器还是无法彻底理解人话、无法彻底看懂人眼看到的东西。我们初步判断,如果未来计算机技术能借助生物技术或者量子之类的技术突破,则有可能产生新变化,并将大大改善人类的生活品质。
  这就如同如果是一把手枪,没有人会担心它威胁人类的存在;但如果是一枚原子弹,人们则会担心它会威胁人类。问题的核心与本质,就是“度”。目前机器人的技术水平,可以认为是处于“手枪”的水平,而且在很长时间内,都将处在此阶段,可能是二十年或者三十年,或者更长,还远远未达到“原子弹”的水平;人类社会是在手枪出现几百年后才演进到核武器的。
  善加利用智能机器“人”
  过去的三四十年里,工业机器人大规模应用,大大提高了人类的生产效率。我们开的每一部汽车、拿在手里的每一台手机,都离不开工业机器人的贡献。工业机器人并未对人类构成危害,而是把人从大量繁重枯燥的劳动甚至危险的工作环境中解放出来。未来的服务机器人将进入家庭生活,期望能像工业机器人所经过的历程一样,只做对人类有益的贡献而不产生不良影响。逐渐在家庭中普及的扫地机器人,就主要是分担人类的劳动而无不良意图。
  未来几十年,人类期望有更多这样的产品来改善生活品质,毕竟生老病死衣食住行等各个环节都期望有更好的工具分忧解难。这类实用的机器人产品,由于它们不具有人形,与其叫做机器人,不如称之为智能机器,避免带来麻烦和曲解。
  我们与其在空谈中忧虑,不如在实践中摸索前进。业界研究得如火如荼的自动驾驶汽车,就是机器人向人类生活全面渗透的最大实践或者试验。自动驾驶汽车也是一种形态的机器人。业界在醉心于这项技术研发的同时,对自动驾驶技术潜在威胁的关注远远不够。
  人们坐在自动驾驶车里,就像坐上飞机以后,把生命完全交给了飞机一样。试想满大街的自动驾驶汽车,如果故障了、不听话了,或者被坏人控制了,会产生多么可怕的后果,它们可以极速飞奔、撞人、撞墙、撞别的车、撞一切东西,具备瞬间摧毁全人类的能力。911事件可以认为是一个飞机版的例子。
  但是这样的事件不一定会发生,自动驾驶汽车的上路,是一个漫长的渐变的过程。这个过程有充足的时间暴露所有问题,并逐一被解决。人类会在这个实践过程中,掌握控制自动驾驶汽车的方法,这些方法可以扩展到控制其他智能机器,包括机器人。
  伟大的物理科学家史蒂芬?霍金在一个演讲里,表达了对未来人工智能技术的担忧。其实霍金主要担心的是人类对技术的滥用,如果这些技术用到自动化武器领域,可能带来新的毁灭性威胁。这种担心非常前瞻,并具有警示作用。人类在研发任何尖端前沿技术的时候,都要考虑对技术的合理利用和合理控制。即使不是人工智能,别的生化毒气和细菌以及转基因技术等等,只要不合理利用,都会带来致命后果。我们要记住霍金对未来的警示,但是在初级阶段,也即长期的“手枪”阶段,我们还是应该大力开拓那些对人类有利的技术并且善加利用。在靠近一个平衡点或者越过一个平衡点的时候,我们将决定是否停止该技术。
  生活是在利弊权衡中不断前进,人类是在实践中不断掌握真知的,机器人的未来应该是可控的,而且必须是可控的。
分享到: 收藏

专题