为什么阿西莫夫的机器人三定律无法解决人工智能时代的人机道德困境?
先来说下阿西莫夫的机器人三定律及其补丁:
1、在任何时候,机器人不得伤害/违背人类;
2、除非违背第一条定律,否则机器人必须无条件遵守人类命令;
3、在不违背第一二条定律的前提下,机器人必须保护好自己。
补丁
机器人不得伤害人类种族,或者因不作为而使人类种族受到伤害。
面对困境中,人类的选择:绝大多数为功利主义,也就是选项A比选项B对我更有利,那我就选择选项A。
但是这种也会遇到困境:
另外一种选择是康德式道德指令:
一个人就是整个人类,人是目的不是手段。
过于完美的道德标准,更加无济于事。
怎么破解?
技术类的蜜汁自信:既然选择如此的南,那就干脆采用技术手段完全规避掉产生这个问题的场景吧!比如说谷歌工程师就完全相信通过人工智能手段的不断加强,根本不会出现伤害人类这种事情发生,那当然也就不用去做选择了。
另外一种选择就是选择和困境并存,并且处理选择后的悲剧难题。让它变得比较容易理解和接受。
《悲剧性选择》这本书中,给出了处理悲剧的四种选择
1、市场
完全让市场这只看不见的手来调配悲剧:价高者优先规避悲剧。这其实就是把经济层面的不平等,放大到了生命层面。看似很理性,实则泯灭人心。
比如最近美国疫情当下,当特朗普被质问:为什么有些人就是可以优先获得检测的权力,即使他没有发病症状的时候,特朗普回答:哦,人生往往如此。潜台词就是,让市场来决定每个人的生老病死吧!小伙子你还年轻啊,居然问这么幼稚的问题。
呵呵,特朗普,我认为你才是真正的幼稚。
2、政府
政府分配悲剧,相当于把市场的锅让政府这个实体背上。这样分配的实效,要看政府是否是一个强权政府。
西方国家的文化是典型的小政府大社会,万万不敢有如此的权力。
东方的集权制度国家呢?可以分配,但是次数多了,底层多半也会暗潮涌动吧?
可见,政府短期背锅可以,长期这锅太沉。很难获取长期稳定的民意支持。
3、摇号(随机)
随机方式,看似公平,但是实际上我们也都知道,每个个体其实并非真正的“平等”,比如出于我们的同情心,孩子是否更加重要?出于社会贡献,专家是否更加重要?要做到摇号决定,这应该是最后没得选的一种选择。比如荒岛求生。
4、惯例
惯例,风俗,约定俗成的规定,都属于这一类。
但是惯例总有群体性限制,放大来看,一些悲剧并非完全适用所有群体和文化。
或者出路在哪里?
也许基于以上四种策略的混合策略,是一个相对可以接受的办法。但是也并非完美。因为这个难题,本身就没有完美解。
原文链接//04/01/15.html