乐观悲观争论无意义,人工智能需要的是发展模式思考
|
如今,数据、计算力、算法三大人工智能要素的充足度已经不可同日而语,人工智能的发展大势已经不可避免,所谓乐观悲观都只是在揣测,在不可改变技术革命面前,把讨论焦点转移到“如何让人工智能最终走向乐观”显得更有价值。 1、强弱之争错了,AI威胁与强弱无关 在人工智能威胁论调中,不少人认为在弱人工智能阶段(按设定逻辑推理、解决问题,但没有自主意识),我们要持乐观态度,只有在强人工智能或超人工智能阶段(智能自主解决问题,具备自主意识,甚至超越人类),我们才要持悲观态度。 其实,AI是否威胁,不在于其发展到哪个阶段、是否形成了对抗人的能力,而在于其和人类已有的秩序是否冲突。 就算是弱人工智能,有冲突存在也算是一种客观威胁,比如2013年牛津大学马丁学院的 Michael Osborne 和 Carl Frey发表了一篇题为《未来职业:工作有多容易被机器取代?》的论文列举了数十个领域上千份可能会被取代的工作,几乎整个社会都会被替代,这种社会结构的剧烈变革、对大多数阶层的冲击,对他们而言就是一种十足的威胁。 因此,也许我们更该聚焦于如何避免冲突的讨论上。对于“替代”阵营来说,一味地模仿人类行为、代替人类操作的技术极客之旅中,也必须配套思考如何让这种“替代”不产生冲突。 例如,特斯拉发布了无人驾驶卡车,Uber马上推出Uber Freight,配合无人驾驶卡车,可以实现简单、冗长的长途运输过程由无人驾驶完成,上路、下路的精细化运输过程则由目前的卡车司机完成,使得原本的“替代”式人工智能并不会产生冲突。替代式人工智能还需要更多这种“配套”技术与创新。 2、控制/失控之争错了,控制既无必要也无可能 相应的,在强人工智能或超人工智能阶段,人工智能威胁论无非认为人类会失去对人工智能的控制从而造成社会风险。这种想法从一开始就假定人和人工智能之间是冲突的、不相容的。 而既然威胁论本身就带有科幻色彩,不如就用科幻的逻辑来揣测人工智能。就像人寻找上帝是为了找寻自己的意义一样,倘若人工智能真的想要威胁,其目的也不过就是为了确认和证明自己的存在。因为一开始就被设置在与人协作、各自分工的位置上被尊重,而不是与人争利的冲突地位,就算有一天苹果ARKit、阿里云ET大脑变成了有自主意识的强人工智能,它们也没有任何理由要来挟制人类。人类依赖人工智能带来的交通疏导、产业运营效率提升,AI的存在自有意义,不需要再通过威胁的方式获得意义。 也即,在阿里云ET大脑这样的项目上,机器有智能,人类有智慧,机器做了人做不了的事情,没有冲突也就不会有威胁。只有那些本身就没有把AI放在平等的位置上,以统治阶级控制平民的思路来谈AI的人,才会感受到切实的威胁。 技术极客的“替代”思维很容易陷入AI和人类文明的冲突的境地,它们往往强调从对算法的绝对把握中获得安全感。在有多少人工就有多少智能的时候,这种控制还行得通,而引用自然科学中的名言:More is different(也是P W Anderson1972年发表于Science的论文标题),当人工智能普遍采用的、看似简单的神经网络模型的层数变多之后,例如10*10的神经网络就可以复杂到没人可以完全理解其深度学习过程,最终的人工智能必定是无法预知的。 所以,要让AI的未来走入乐观,首先要抛弃的恰恰就是那些对如何控制人工智进行各种研究的行为(它本身也不会成功),专注用协作、伙伴等平等态度来发展人工智能。 3、AI商业化没有优劣,只有短期长期之分 (编辑:PHP编程网 - 湛江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |

