据英国媒体报道,德国大众位于卡塞尔附近的一家工厂近日发生一起悲剧,一名技术人员因突遭机器人攻击不幸丧生。
事发时这名“受害者”正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后使劲压在一块铁板上。最终,这名技术人员因伤重不治身亡。
此事在社交媒体引起轩然大波,对于机器人的恐惧被社交媒体成倍的放大,早在去年的时候,SpaceX执行官伊隆·马斯克曾痛斥人类小看智能机器人,并表示机器人完全有可能自主决定实施杀人行为。他认为人工智能的发展将使机器人杀人不费吹灰之力:
“设想机器人的功能是删除垃圾邮件,如果有一天机器人觉得删除垃圾邮件的最好办法就是把人类一起干掉,这可怎么办。”
不巧这句话竟然这么快成真,这名技术人员成为世界首例机器人杀人的受害者。
那事实的真相究竟如何?有人指出,本次事件只是机器人的设定程序出现问题,属于技术故障,而非机器人主观实施杀人。不过从一个侧面来讲,人类面对机器人时,几乎没有反抗之力。
从技术的发展来看,目前正处于飞速发展的时代,尤其在人工智能方面,人类似乎并没有完全掌控。技术永远是一把双刃剑,人类渴望利用技术,却往往成为技术的一部分,或者说,人类有可能把自己交给技术。
霍金曾与另外几位科学家在为英国《独立报》撰文时就已表达过类似的忧虑,“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”
正如同越来越多工作岗位开始由机器人代替,机器人正逐步的代替人类。当有一天机器人从各个方面出现在人类的周围,无论从智力还是体力,都远远超过人类的时候,会发生哪些事情?
物种之间的平等,一定是智力和体力都处于一个均等的状态。比如说种族歧视的问题。强大的机器人是否会对人类这个种族产生歧视?
科幻作家阿西莫夫曾提出着名的《机器人三定律》即:
零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:在不违反第零定律的前提下,机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二定律:在不违反第零定律和第一定律的前提下,机器人必须绝对服从人类给予的任何命令。
第三定律:在不违反第零定律、第一定律和第二定律的前提下,机器人必须尽力保护自己的生存。
但是机器人是否会遵守就成了一个问题。相对的一个问题是,人类会不会杀死机器人?答案也是,不确定。
2011年,MIT研究者弗雷德姆·贝尔德做了一个实验:给小孩芭比娃娃、仓鼠还有机器猫头鹰,让孩子们拎着它们的脚倒提起来(类似施暴),直到不想提了为止。
拿到芭比娃娃的孩子一直倒拎着玩具直到胳膊累了为止。但是抓着仓鼠的孩子很快就把挣扎的仓鼠放了下来,很快拿着机器猫头鹰的孩子也放开了。
这些孩子都知道猫头鹰是个预先编程的玩具,但还是无法忍受它边哭边说“我好害怕”的声音。
我们可以看到,停止“施暴”往往出自“道德感”,而非硬性的规定。例如,如果一个人可以选择用虐待机器人的方式发泄自己的邪念,因为他认为机器人并不是人类,并不用遵守人类的道德和规则。同理,机器人也是这样认为的。