找回密码
 1分钟注册发帖

QQ登录

只需一步,快速开始

杀手机器人超越人类智能 将是人类噩梦

[复制链接]
郁闷小甜甜 发表于 2015-8-6 00:49:01 | 显示全部楼层 |阅读模式
新闻来源: 英国《金融时报》  人类是一个嗜血的物种。根据学者史蒂文•平克(Steven Pinker)的说法,在历史的大部分时间里,被同类所杀是人类的头号死因。文明基本上是人的暴力本能被逐渐束缚住的故事。其中一个部分是有血有肉的人持续从战场撤出,前线逐渐被远程武器和空中军事力量拉远,公众对于伤亡的容忍程度也下降了。
可以说,美国的主要进攻武器是无人机,操纵者安坐于千里之外对目标进行打击。考虑到技术进步之快,无需脑洞大开,我们就能预见到机器将可完全代替人类进行杀戮。在迄今仍被视为人类专属的活动领域里,人工大脑已有良好表现。电脑将被交托驾驶汽车或者诊断疾病的任务。因此,在做出杀戮的决策上,算法智能或许也将超越人类智能。

这种可能性,促使1000多名人工智能专家在一封公开信中呼吁立即停止发展“致命自动武器系统”。他们敦促称,现在就行动,否则被他们不可避免地称为“杀手机器人”的武器将和卡拉什尼科夫步枪(Kalashnikov,即AK-47)一样广为流传并造成同样致命的危害。

军方对机器人战争的热衷很容易理解。士兵是宝贵的、成本高昂的,也是会犯错误的。本可避免的人为失误在每一场战斗中都造成了严重伤亡。相较之下,机器既不知疲倦,也不会失去耐心。它们可以被送往不安全甚至普通士兵无法到达的地方。计算能力的迅速提升正赋予机器“更柔软”的技能,比如识别一个有血有肉的单独目标。最终,事实可能将证明机器人会比最有经验的士兵更安全,比如能够从一群孩子中挑出枪手——然后射杀他。


反对机器人战争的理由与反对所有武器进步的理由相同——避免大量无辜受到伤害这种不可预知的后果。无论采取了什么预防措施,都没有万无一失的方法来阻止武器落入不法之徒的手中。要想一窥那种情况下会有什么后果,可以回忆一下美国汽车制造商克莱斯勒(Chrysler)在发现汽车可以被远程入侵后,需要检测和排除140万辆汽车隐患的事情。现在,想象一下这些车装备了枪支。

技术未来主义者也担忧人工智能异常快速的发展。科学家斯蒂芬•霍金(Stephen Hawking)最近提醒人们警惕人工智能远超人类智能后可能发生的“科技大灾难”。这到底是绝对无法避免的事情,还是只是幻想,科学本身无法确定:但考虑到其中的风险,给超级智能装备武器能有多明智呢?

道德方面的理由更为直接。在减少杀人方面,对杀戮的厌恶是个重要因素,其作用不亚于任何技术突破。将人工智能插入这条因果链,将弄混杀人决定背后的责任。没有明确的责任,不仅发动战争的手段得到加强,发动战争的意愿也可能上升。

让武器消失是不可能的:想一想杀伤性地雷——一种自动运行的武器——现在依然每年造成1.5万到2万人丧生。人工智能的性质使人们无法预见自动武器发展的终点在哪里。不管进行多少精密的编程,也无法限制其后果。最好不要踏上这样的旅程。

译者/许雯佳       


回复

使用道具 举报

huaheng 发表于 2016-1-17 22:08:03 | 显示全部楼层
谢谢楼主辛勤劳动!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 1分钟注册发帖

本版积分规则

重要声明:“百事牛www.BestKnew.com”的信息均由个人用户发布,并以即时上载留言的方式运作,“百事牛www.BestKnew.com”及其运营公司对所有留言的合法性、真实性、完整性及立场等,不负任何法律责任。而一切留言之言论只代表留言者个人意见,并非本网站之立场。由于本网受到“即时上载留言”运作方式所规限,故不能完全监察所有留言,若读者发现有留言出现问题,请联络我们。

Archiver|小黑屋|百事牛

GMT+8, 2024-12-23 22:20 , Processed in 0.021566 second(s), 15 queries .

Powered by Discuz! X3.5

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表