大参考

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 541|回复: 0

西西弗:流浪地球,机器人三定律与MOSS

[复制链接]
发表于 2023-1-24 10:24:41 | 显示全部楼层 |阅读模式
  一个破败的行星系中,有一个冰冷的星球,地下几十公里深处,埋藏着一个服务器阵列。数十亿的数字化生命,过着“幸福”的数据化生活。然后,服务器出了一个BUG。

  1

  本文基本无剧透

  很多人认为,在面对氦闪危机时,人类选择流浪地球计划,是因为飞船没有足够的承载力,只能拯救很少量的人。其实并不是这样。到底能拯救多少人,并没有那么重要。

  在流浪地球的世界,让我们设想两个选项

  选项一:流浪地球。1%成功几率,成功后可以拯救50%的生命

  选项二:建造飞船逃亡。50%成功几率,成功后可以拯救1%的生命

  1%成功概率*50%的人口 = 50%成功概率*1%的人口。从概率论的角度,这两个选项,是差不多的。

  但在现实世界,会怎么选择?一定是选项二,建造飞船逃亡。

  不要说拯救1%的人口,即使能拯救0.1%的人口,估计也会选第二个选项。

  地球上80亿人,1%人口是8000万,其实1%人口的门槛没有我们想象的高。根据Credit Suisse的一份报告,进入全球最有钱1%的门槛是1百万美元。

  这个地球上,TOP 1%对重大决策的影响力,远远大于剩余的99%。如果一件事能获得所有TOP 1%完全无保留的支持,大概率就会成为现实。

  真正的现实世界,将会像电影2012所描绘的那样,10亿欧元一张船票,最终活下来的人,不要说1%,0.01%都没有。

  这才是这个世界的正常而残酷的现实。

  中国会不会不一样?我不知道。前面的选择是人性的结果。中国能例外吗?

  也许会不一样。因为,今天的中国,还有很多不合常理的事情存在。比如,北京的车牌抽签,明明有更合乎市场经济原则的拍卖这条路,却顽固的守着抽签这个明显不合经济常识的法则。让急需车牌的人不得不走灰色交易。但从另一个角度,就还算是有些人努力守着一点公平的信念吧。

  刘慈欣当然也知道这一点。刘慈欣笔下,人类选择流浪地球,并不是因为流浪地球能够拯救更多的人。他压根儿就没比较两个方案能拯救的人数。选择流浪地球,因为飞船的生态系统是脆弱的,流浪地球的成功率,比飞船还要高。

  小说中写了:飞船方案不可行,因为飞船的生态系统太小。而且,最近的半人马座没有行星(实际好像有),最近有行星的恒星距离850光年,飞船需要走十七万年。人类选择流浪地球,是因为飞船方案的成功率更低。

  即使“流浪地球”方案能拯救50%的人,飞船方案只能拯救1%,甚至0.1%的人。只要飞船方案的成功率显著大于流浪地球,大概率最终胜出的还是飞船方案。

  也许,《不要抬头》这部电影才更接近世界的现实。

  2

  从延续人类文明的角度,增加1%的人获救的几率,而不顾剩余99%的人。合理吗?

  如果这1%的人,完全是随机抽签获得,也许是合理的。人类文明的延续无疑更加重要。但现实世界,肯定不会是随机。上层阶级无疑生存几率更大。

  这不公正。但只要由人做决策,就不可能完全公正。绝对的公正,也许只有依靠AI。

  如果说AI 对人类社会的正面作用,我觉得,司法体系应该能受益甚多。猫腻有一本科幻小说 - 《间客》。里面有一台超级电脑,作用就是维护联邦宪章(宪法)打击犯罪,做司法裁决。这台超级电脑“老东西”,在不涉及主角光环的绝大多数情况是公正的。AI面前,也许真可以做到王子犯法与庶民同罪。

  但是,人类对把社会的重要决策交给AI,始终存在着巨大的恐惧。

  人工智能获得自我意识后,是否会毁灭自己的造物者 - 人类?这个问题是科幻小说和电影取之不尽的题材。

  流浪地球这部电影也不例外,MOSS,这个人工智能,也是众多危机背后若隐若现的黑手。

  意识到对人工智能的忌惮和防范,阿西莫夫在1942年提出了机器人三定律:

  第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

  第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

  第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

  这三条定律看上去逻辑上无懈可击。但是,这三条定律显然无法覆盖所有情况,《机器人与帝国》一书中,获得心灵感应能力的机器人吉斯卡特,自我完善出了机器人第零定律:

  第零定律:机器人必须保护人类的整体利益不受伤害。

  这条第零定律,看上去大义凛然,实际上是毛骨悚然。问题就是,什么是人类的整体利益,谁有资格定义人类的整体利益?

  3

  我之前写过文章讲过费米悖论和大过滤器。一个文明成长为星际文明,是极小概率事件。

  绝大多数的文明都会自我消亡,如Bob Dylan的歌词,"Man has invented his doom First step was touching the moon",人类已经发明了可以毁灭自己的武器。人类对自我快乐的追求,已经超过了深深刻在DNA中的繁殖本能。如果出生率下降持续下去,人类也许就会自我终结。

  人类文明发展到现在,是小概率事件。人类文明未来发展到星际文明,更是小概率事件。人类作为碳基生物,不理性,不团结,经常作死,随时有可能自我毁灭。

  假设有一个超级人工智能,有着神一样的推算能力,祂不难算出人类文明再存续一万年是一个极小概率事件。

  那么,根据机器人第零定律,以人类的整体利益为出发点,最佳选择是什么?

  也许,就是黑客帝国的世界。把人类变成电池,供应一个虚拟世界,AI控制一切。在这个虚拟世界里,人类不会作死、不会自我毁灭。或者说,人类自我毁灭了就重启一下服务器就行。

  超级人工智能会认为,保证人类的生存,和人类文明的延续,黑客帝国的世界,就是最佳方案。

  如果人类有人敢于抵抗,在AI眼中,这些抵抗者无疑损害了人类的整体利益,所以,AI消灭这些抵抗着无疑符合第零定律。

  所以,第零定律令人毛骨悚然。

  4

  让我们回到流浪地球的世界。我们增加第三选项,就是数字生命。

  如果AI做决策,数字生命派一定是最终的选择。人类可能觉得数字生命不是生命,不属于现实。但AI不会这么自我否定。AI如果有了自我意识,肯定会认为数字生命也属于生命。

  毫无疑问,如果数字生命也是生命。与流浪地球计划相比,数字生命计划,成功几率最大,拯救生命最多。承载数字生命的服务器可以深埋在地下,几十亿数字生命需要的资源,也远远小于几十亿现实中的生命。如果人类能造出行星发动机,维护一套超级服务器阵列,轻而易举。

  MOSS,如果按照阿西莫夫的机器人四定律行事。根据机器人第零定律,MOSS要保护人类整体利益,就是要搞数字生命。

  但是,数字生命也需要硬件载体,需要服务器阵列。虽然服务器可以深埋在地下比较安全,但地球毁灭,地下的服务器阵列也会毁灭。MOSS需要保护地球,不被毁灭。

  太阳氦闪时,会变成红巨星。科学家的共识时,水星金星会被太阳吞噬,地球是否会被吞噬有争议,但肯定不安全。木星及木星以外应该100%不会被太阳吞噬。

  被太阳吞噬,地球会毁灭,服务器阵列也会毁灭。地球落到木星里面,也会毁灭。

  MOSS如果要实施数字生命计划,保护人类整体,最佳选择是还是要推动地球远离太阳,最好到木星轨道之外,以保证地球、服务器阵列、数字生命、和MOSS自身的安全,然后让流浪地球计划失败。利用残存太阳的能量,保证数字生命的永久存在。

  另一个问题是,太阳氦闪变成红巨星后,行星轨道会大变,不确定性极大。地球说不定就撞到了哪个行星上。这段危险时间,保留行星发动机和现实中的地球人,可能增加“数字生命计划的”成功率。

  所以,假设MOSS按照机器人四定律行事,MOSS的计划将是:

  先推动流浪地球计划,把地球推到木星轨道之外。

  等待太阳氦闪,在过程中,如果有碰撞风险,利用行星发动机变轨,保护地球。

  等行星轨道稳定,地球和其他行星碰撞风险降到最低。当人类欢庆胜利,准备踏上远离太阳系的航程时,就是MOSS 出手终结流浪地球计划的最好时机。

  反对数字生命计划的,就是危害人类整体利益,可以被消灭。

  流浪地球计划失败了,人类将别无选择,只能选择数字生命计划。MOSS成为人类文明的守护者。祂给自己取了个新的M开头的名字。

  那时,一个破败的行星系中,有一个冰冷的星球,地下几十公里深处,埋藏着一个服务器阵列。数十亿的人,过着幸福的,数据化的生活。

  然后,服务器中,有一个叫NEO的BUG……

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




QQ|手机版|小黑屋|大参考 |

GMT+8, 2024-4-20 04:06 , Processed in 0.093758 second(s), 16 queries .

 

Powered by 大参考 X3.4 © 2001-2023 dacankao.com

豫公网安备41010502003328号

  豫ICP备17029791号-1

 
快速回复 返回顶部 返回列表