当前位置:文化 > 博览 > 思想 > 正文

人工智能多可怕?方舟子:要求科学家有伦理要求(1)

2016-03-16 10:44:56  北京晨报    参与评论()人

人机大战,李世石三战皆墨,人工智能全面胜出,围棋小天地,环宇大世界,科幻电影里的危机似乎就要走进现实,无数人忧心忡忡,以至于当李世石终于扳回一局时,世界沸腾,“李世石终于赢了”“人类取得宝贵一胜”……

科技进步不止一次地带来了伦理的难题,科技究竟会带给人类什么?是进步,是毁灭?这是一个永远都争论不清的问题。

方舟子(科普作家)

  科学研究要有

  道德要求

科学技术是中性的,可以用以造福人类,也可以用以祸害人类。随着技术的发展,技术的威力越大,它能带来的效果越来越大,可能的恶果也会越来越严重,产生的影响会是全球性的和全人类的。实际上人类早就拥有了毁灭自己的能力。一旦发生核战争,现在的核武器储备足以把人类毁灭很多次了。全球气候变暖、环境问题同样让人类的生存面临困境,这也与技术的发展有关。

至于人工智能,在可预见的未来还没有达到足以让我们担忧的地步。阿尔法棋只是一个下棋程序,虽然能战胜世界冠军,但也只是个下棋程序,不给它编程它别的什么都不会做,更不会真正的思考,比如它对李世石的第四盘第97手下出了任何人类棋手都不可能下的自杀式臭棋,表明它其实没有智能、不会真正下棋。它能战胜世界冠军令人惊讶,但是为此夸大人工智能的成就,为此忧心忡忡担心未来有一天人工智能会失控、人类会被人工智能控制甚至被灭绝,则大可不必,是科幻电影、科幻小说看多了。

有人问,你能理解智商2千的人工智能吗?未来真有那样的人工智能,也不过意味着其思维更严密、更敏捷、判断力更强、解决某些问题更快而已,有什么恐怖的?对未来人工智能胡思乱想的人,有的是工程师思维,以为世界上的东西都能够量化、数字越大越好而且增长没有止境。但世界不是这样的直线。

当然,和所有的技术一样,人工智能是福是祸,取决于人们怎么用它。如果将来人工智能毁灭了人类,那也不是它自己的选择,而是被人类滥用,比如被用来作为武器。

既然科技是中性的,就要求科学家、工程师在从事研究的时候要有伦理、道德要求。不过我们也不要把科学家、工程师设想得太可怕。如果未来真的出现威胁人类生存的全球危机的话,那也不太可能是某个疯狂科学家所为,而是某个疯狂政客或军事狂人滥用权力的结果。

李河(哲学家)

  计算机能替代人类吗?

许多年前深蓝战胜卡斯帕罗夫时,就已经讨论过很多,现在看来,并没有超出当时的范畴。

计算机在计算领域超过人类,是迟早的事情,有的人目光短浅,还在讨论能不能超过,事实上,或许就是几年十几年的事情。套用一句著名的话,人类一计算,上帝就发笑,演算是机器的长处,人类的演算,是基于直觉的大致演算,有的人可以通过大量的训练增强演算能力,但基于直觉这一点没变,波兰尼的《个体知识》中说的默会知识,就是此类。计算机的长处是精确计算,只要输出相关的可能性,它就能穷尽它。现在的问题是,当计算机学会了学习之后,它不仅可以穷尽已经输入的可能性,还会通过长时间的学习去探索没有输入的新的可能性,那个时候,计算机在计算上就会全面超越人类。

计算机是人类的造物,当人的创造物坐在人面前时,本身就是一个巨大的象征,后面的命运改变,只是时间问题。人类创造工具,它的核心伦理之一,就是代理与替代。最初机器只是延伸人的感官职能,望远镜可以延伸视觉,汽车可以加快行动速度等等。后来开始代理人的职能,机器人管家、机器人司机等,将来都可能出现。而代理这个大门一旦推开,无限的可能就会出现。黑格尔提出主奴关系理论——因为奴隶直接参与工作,那么长时间之后,奴隶就可能变成自主的人。这一理论影响了很多现代的思想家,也是当前人们对机器担忧的一个重要方面。