导图社区 由瓦尔赫拉利《智人之上》超详细导图
耗费月余细致总结修改完善的思维导图,比起官方导图,更加理清了前后的逻辑关系。该书是尤瓦尔·赫拉利继“人类简史三部曲”后的又一力作。在过去10万年里,智人积攒了巨大的力量,但持续不断的发明与征服也将人类推入了一场生存危机。
编辑于2024-11-20 11:07:06智人之上
序言
智人“有力量”但未必“有智慧”能够驾驭这种力量
发现、发明和征服了很多
但生存危机也逐渐逼近
生态崩溃
民粹浪潮
AI的失控
没有警醒,反而新的 世界大战正在逼近
国际紧张局势不断升温
全球合作更加困难
各国大量储备末日武器
智人为何缺乏理智?
传说中:人类本性中的某些致命缺陷会让 人类追求自己根本驾驭不了的强大力量
希腊神话:法厄同
歌德的警示寓言:魔法扫帚
两个故事讲的都是个体力量强大(拥有魔法)
真实:人类力量的获取方式
不是个体力量强大而造成灾难
而是源于大批普通人的合作网络不好驾驭
问题归根结底是个网络问题
宗教、国家、公司、市场等等都是网络
更明确地说是信息问题
信息是维持网络联结的粘合剂
但我们对大规模信息网络的 运作方式存在整体上的误解
天真的信息观(以后章节会多次提到)
认为信息越多越有力量和掌控力量的智慧
实际上,无知即是力量
虚构故事、幻想和错觉等极具迷惑性的 谎言信息支撑维系了某些疯狂的网络
比如宗教
比如纳粹
比如民粹
认为信息就是武器。建制派因为要掌握权力,所以垄断了信息,欺骗民众
比如反疫苗者
比如地平论者
信息越多,越有可能把相对稀缺而昂贵的真实信息淹没在相对常见而廉价的信息之中
21世纪可能出现类似纳粹的新极权主义网络
就是人类历史上最大的一场信息革命,新时代的“魔法扫帚”——AI
AI对人类相当了解,但人类对AI算法一无所知
AI可能造成“硅幕”,大幅加剧人类既有冲突
硅幕分隔的,一边是人类,一边是AI
到底还应不应该发展人工智能?
人类信息网络的历史发展进程 (没有AI的世代,信息网络 是什么样子的?)
信息是什么?
任何物体只要放在正确的情境下,就有可能成为信息
飞鸽传书是信息
橄榄枝和彩虹在圣经里是和平与宽容的象征
星系的形状与运行对天文学家是信息
北极星对航海家是信息
满天星斗对占星师是信息
百叶窗对于间谍就是信息
换了情境,可能就不是信息了
什么是正确的情境?
为了寻找真相的情境(天真的信息观认为, 在这种情境下,所用的任何物体都是信息)
反过来,也就是说,信息就是为了 寻找真相,进而呈现现实吗?
如果是,但是
现实
在客观上包含许多不同的方面
在主观上包含许多不同的观点
真相
能够准确呈现出现实特定的方面和观点, 但也只是特定的,如果能呈现现实的所有一切, 那它就是现实本身了,一张一比一的地图, 也不能说呈现了现实的所有方面。
所以,真相≠现实, 真相永远无法呈现 出现实的所有方面
就算通过信息, 找到真相,也没 办法呈现现实。 呈现了某一方面, 也就必然忽略或 者扭曲了其他的 方面。
所以,用信息来呈现现实太难了, 况且好多信息的传播者,故意传播 假信息,引导“假真相”和“假现实”
假的,实在太简单。 人们也乐于接受简单, 可以少动脑
比如天文学和占星术
信息,并不总是呈现现实
到底什么是信息?
有的信息能够呈现现实, 大部分信息并不是为了呈现现实, 而所有信息都能创造联结
所谓信息,就是能够将不同的 “点”联结成“网络”,从而 创造出“新的现实"
真正定义信息的是“联结”,而不是“渲染”或“象征”
音乐并不是要呈现现实,但却能联结很多人的感情
DNA并不是要呈现身体的现实,却能有机地联结身体的各个细胞 ,形成网络
元宇宙也并不是要一比一呈现现实,而是想要增强甚至取代我们这个世界
就算信息呈现的是错误的现实,也可能成为一种 社会联结
只要内部逻辑自洽,而且这个逻辑简单明了。 人们更愿意相信这种“现实” 信息,极容易被人利用,作为洗脑工具,去控制 某一些人 错误、谎言、幻想与虚构故事大行其道
一段描述美国登月造假的视频就能联结很多观众
占星术在长达数千年的时间中深刻影响着历史, 21世纪20年代全球占星市场依然有较高估值
《圣经》是史上影响力数一数二的 文本,却存在许多与现实不符之处
例如,《圣经》主张,传染病是神对人类的 惩罚,通过祈祷可以预防
故事
故事:无限的联结
故事或神话就是信息,真假不重要,重要的是它们使智人彼此成了“自己人”,从而促成了智人之间灵活的大规模合作,这才是智人统治世界的关键,作者在之前作品中就一直强调这一点。
人和故事的联结,这项技术的发明,使网络能够扩大到无限大,因为故事就像个插座,能够联结无限的人。
“品牌”就是个好故事
那个信鸽也是个故事
耶稣是更极端的故事
都是情感投射、一心向往的结果
故事给宇宙增加了一个层次的现实
宇宙的三个层次的现实
第一个层次——客观现实:石头、山脉、小行星
第二个层次——主观现实:痛苦、欢乐、爱
第三个层次——存在于主体间的现实,如法律、 神祇、国家、企业和货币等故事
是故事创造了历史
传统唯物主义观点:历史由权力关系与物质利益驱动, 人不为己,天诛地灭
人们总是被客观的物质利益驱动,十字军东征、第 一次世界大战、伊拉克战争,都是精英分子在谋取 自己的经济利益
如果历史真的完全由物质利益与权力斗争所塑造,那么 当各方意见不同的时候,就根本没有讨论交谈的必要。 就只有暴力了。
作者观点:传统的唯物主义观点忽略了故事的 巨大力量。故事是高贵的谎言
智人结成部落,基于共同崇敬的祖先、动物 图腾、守护神等故事,这些故事让成百上千 智人彼此认同,风险共担,利益共享,为了 共同的“神圣”的目标同进同退
幸好历史是由主体间现实的故事所塑造的,所以 有时候只要我们好好沟通,或者改变彼此所相信 的故事,或者找出大家都能接受的新故事,就能 避免冲突,实现和平
故事定义了大规模人类群体间 的身份认同,虚构的故事比真 相更易于让人们团结起来。因为:
(1)虚构的故事可以很简单,但真相往往很复杂
(2)真相常常令人痛苦不安
但是历史有两难困境
1,既要追求真相(不讲故事)
科学真相通向智慧和力量(不过只是个人的力量)
2,又要建立秩序(讲故事)
强大的秩序使网络更加巩固,所以也可以通向力量(集体的力量)
但是,太追求真相 故事就有(被揭穿)崩溃的危险
大部分社会网络禁止人们追求 某些“破坏性”真相, 只允许追求“工具性”真相, 故事是不容置疑的。
如纳粹德国, 武器科学异常发达, 但却服务于一个疯狂的故事
这样的网络力量极其强大, 但缺乏智慧
但极少数,如美国宪法,一开始就容许人们质疑和修改
人类(信息网络)的历史,就是在真相与秩序之间寻找平衡。平衡一旦被破坏,信息网络(比如各种政权)也就离灭亡不远了
但书面文件的发明,比故事的发明,使人们更难寻求这样的平衡(见下一章)
文件:纸老虎也会咬人
故事是人类最早研发出的重要信息技术
故事的局限性
虽然激励人心
但空谈误国
建设国家还得需要处理 大量繁琐无趣的事务性工作 处理海量数据,清单列表
书面文件的意义
人类善于记住故事(生动),却难于记住数据(无聊)
书面文件出现之前,不管是故事还是数据,人们只能口述,用脑记忆,但脑容量有限
书面文件的诞生,突破了人类脑容量的限制
书面文件让人类创造出了更多主体间的现实(也是有真有假)
文件就是凭证,谁都得认
书面文件的局限性
信息检索:虽然记录大量数据,但用的时候不好找
人类于是把文件分类
文件分类,处理文件的人也就分了类,形成官僚制度
官僚制度,各管一摊,形成了一种新的世界秩序
官僚制度促进了比故事更庞大、更复杂的信息网络的产生
官僚制度和神话故事是相辅相成的
官僚制度的局限性和带来的更大的问题
不管怎么分类,都不会尽善尽美,真实世界是极其复杂多变的
而且官僚制度分类的目的就不是呈现真实的世界,而是往往为了自己工作起来方便。 同时,也给不同部门的合作带来了阻碍(只关心自己部门的利益,破坏政体的利益)
所以官僚制度是给世界强加了一套人为的秩序,创造的是机械死板的主体间现实
各种表格与证明,非常麻烦,甚至成了很多普通人的噩梦(比如证明我妈是我妈)
官僚制度的危险:给世界万物,包括给你贴上分类标签(可能并不准确),在他们来说只是工作的习惯或传统,但却会真实地决定你的命运
官僚制度对人们比较了解
因为不停地收集人们的数据
人们对官僚制度非常不了解
不愿意了解
人类喜欢的是各种狗血故事(生物戏剧),而对各种技术细节,包括这种无聊又复杂的官僚制度的原理和运作毫无兴趣。
也很难了解
因为人们是被统治者。人们无从知道自己的数据到底拿去做了什么
不了解,意味着不信任。矛盾不断。甚至会愤怒到起义来消灭官僚制度(反智主义?)
巨大问题
所有威力强大的信息网络(包括官僚制度), 都可好可坏,取决于它们的设计和使用方式
官僚制度(书面文件)虽然创造了更大规模 的秩序,但它的复杂性决定了它比神话故事 更难以达到真相与秩序之间的平衡。
为了更强大的秩序, 就要设计更复杂的官僚制度, 复杂的官僚制度也更为了自己利益, 扭曲了事实真相 (统治者也乐于为了秩序而牺牲真相。 官僚也会为了自己的方便或甩锅, 不管真实世界的复杂,而把自己的 标准强套在人民头上。)所以 官僚制度也就遭人痛恨。 统治者也有覆亡的危险
那么,真相还是很重要的。人们为了力挺真相, 为了平衡真相和秩序,(在前AI世代)都做过 什么努力呢?(请看下一章) 既然官僚制度(书面文件)的出现是因为 人脑容量有限,那么随着技术的进步, 尤其是人工智能AI的出现,这种超级速度 和超级容量的大脑会不会比人类做的更好, 从而更好地平衡真相与秩序呢。 (要放到第二部分再讨论)
错误:绝对正确是一种幻想
人类也在不断吸取教训
人类为了建立大型社会,就得把人团结起来形成秩序
于是神话故事和官僚制度,成了大型社会的两大支柱
但这两者并不完美。统治者总会犯错,人们也总会觉醒。所以使用这两者的人,总是不小心就会被人们抛弃,被推翻
所以,有人就想到只能依靠永不犯错的,万能的神
有人觉得未来的AI就能是这样的“神”
但神真的能解决这一切,一劳永逸吗?让我们先考察一下前AI世代的神——各种宗教,它们的努力到底产生了何种效果?
注意:从石器时代,到AI时代,随着技术的不断进步,人们的信息网络利用了各种技术,也是不断进化的。但是,AI是一种本质的变化。
宗教
最重要的功能:为社会秩序提供超人类的合法性
也就是说:神,绝对正确!
那么,神的旨意如何传达?
总会有人在中间传达,怎么保证他不会夹带私货?
设立宗教监管机构,审查这些所谓传达神谕的人
编纂各种宗教经典 剔除中间人的作用
像《圣经》《古兰经》这样的宗教经典其实就是一种技术
公元前1000年开始,书就成了一项重要的宗教技术
直接收录了神谕,直接传达给教徒,没有“中间商”
涵盖从宇宙创造到食品规则等万事万物,能指导所有的人类生活?
每本书都应该是一样的,没有人能够篡改这种“区块链”结构
人类梦想着能通过宗教经典这种技术来避开会犯错的凡人机制,但这永远只是个无法实现的梦想
但是这些方法都不行
宗教机构和神职人员 会受贿,从而假传神谕
编纂各种宗教经典 书籍遇到的问题
谁来决定在圣书中放进哪些内容? 还是需要人来决定
比如《希伯来圣经》的形成
等到正典内容确定,大多数犹太人也就慢慢忘记, 是人(虽然是聪明和值得信赖的)决定了圣经该收录哪些内容。 从而相信,《圣经》就是上帝亲自交给摩西的
没有印刷术,书籍需要抄写,抄写容易出错
导致每本书并不一样
经文的解读
《希伯来圣经》 的解读
因为经文里 有些内容语焉不详
因为时代变了, 很多新事务 经文里就不可能收录过
于是犹太拉比(博学的 犹太贤者)们,垄断了 经文的解释权,成为新 的“中间商”
拉比们经过大量努力, 做出了一本对《圣经》 的解释经典——《密释纳》
后来许多人坚信, 《密释纳》是上帝 亲自写的
后来,《密释纳》的解读 又成了问题。从而创作了 解读《密释纳》的《塔木德》
……
又后来,犹太人又开始对 《塔木德》的解读产生了异议
……
分裂的基督教 和基督教《圣经》
由于不相信那些拉比,一些分裂出来的异议分子形成了基督教,也使得经文的解读更加混乱
《密释纳》和《塔木德》成型的同一时期,基督徒也创造了解读文本《新约》, 从而形成了基督教特有的《圣经》
《新约》也有内容争议,有着各种不同分支
比如有的分支就尊重女性,有的就不尊重
宗教经典的回声室
因为拥有解读的权力,犹太教拉比和基督教教会的权力越来越大
印刷术出现前
文字思想传播困难,也就容易遏制
一些权力巨大的机构垄断了解释权
人们于是被笼罩在了信息茧房里
印刷术出现后
文字思想传播容易了,就能够打破信息茧房吗?
欧洲中世纪的“猎巫事件”
宗教裁判官克雷默大量发行印刷品《女巫之锤》,促成了女巫阴谋论在欧洲迅速传播
大量无辜的人遭到处决,酷刑、告发、连坐,惨无人道
当人们都在传播这个理论的时候,就没有人敢怀疑,甚至自己就相信了一些从来没发生的记忆。人们仍然被困在信息的牢笼里
光是消除掉信息流动的障碍, 不一定就能发现真相、传播真理。
真相不出门,谎言行千里。 愤怒与煽情容易传播的多
《女巫之锤》这种狗血故事, 比《天体运行论》给书商赚的钱多得多
所以,就算是 “神”的旨意 也无法绕过人
有的人能轻易地 操弄神的旨意
就算值得信任 的人也容易犯错
就算让思想市场 完全自由,也反 而容易导致谎言 与幻想的传播
最后的办法是, 只能找到解决 “人会犯错” 这个问题的 创新方法
科学革命与自我修正
绝对正确是不存在的!
教会相信,宗教经典、神的旨意,绝对正确
鼓励遵循与遵从教义,所有的错误都是个别成员犯下的
科学机构,承认自己的无知,有随时准备自我修正的机制
鼓励怀疑与创新,尤其是自我怀疑。坦承不讳,光明磊落
自我修正机制也有局限
真相与秩序的平衡始终是历史中很重要的一件事,为了真理而牺牲秩序,代价也很大
科学领域这种学术机构的自我修正和破坏秩序,代价还不算很大。代价尤其严重的还得是社会政治层面。
下一章就专门讨论,民主和独裁政体在信息流动层面,对于自我修正机制的态度和由此带来的后果。从而在第二部分进一步讨论,AI是有利于还是有碍于政体的自我修正机制。
抉择:民主与极权主义简史
独裁信息网络:简单
是集中式的信息网络
中心掌握着无限权力,信息往往从地方流向中央,中央做出最重要决策
缺乏强大的自我修正机制
人们会认定中央是绝对正确的,所以并不欢迎对中央决策的任何挑战
能够挑战中央权威的机构,往往都会受到中央的打压
优缺点
优点是秩序一目了然,维持秩序异常有效。同时决策迅速,执行坚定。
缺点是,一旦这条信息渠道被封锁,就成了“动脉阻塞”了。同时,信息如果太多,中央节点根本处理不过来,就“塞车”了。另外,还有体制僵化难以变通
民主信息网络:复杂
是一个分布式的信息网络
除了中央政府外,其他的很多机构也有独立的信息渠道和相互沟通的权力
拥有强大的自我修正机制
相信人人都会犯错,所以其他的很多机构也有独立做出决策的权力,用来修正中央政府的失误
对民主政府来说,就算拥有相关技术,有能力微观管理人民的生活,也会尽量保留让人民自己做选择的空间
优缺点
优点是能更好地追求真相
缺点是决策缓慢,难以达成共识,甚至有分崩离析、不欢而散的风险
定义民主,需要注意的几点
多数人的独裁
多数人并不一定就代表民主 多数人选举出来的,并不一定就是民主政府
比如多数人决定剥夺少数人的两类权利
包括人权:生命权、工作权、隐私权、迁徙自由、宗教信仰自由等
也包括公民权:投票权、新闻自由、学术自由、集会自由等
民主政府不仅不能侵犯,而且应该主动保障这两类权利
比如民选政府上台后,攻击和削弱其他独立机构
人民和真理
多数人也不一定就代表真理
选举只是要在各方冲突的欲望之间做出裁定,以此来维持秩序
真理有时候会掌握在少数人手里
民主不同于民粹
由于官僚制度的复杂和不受信任,很容易让某些人钻了空子,来鼓动民众发起民粹攻击
民粹是披着民主外衣的独裁
民粹用简单又直接的方针,迎合了那些反智又情绪化的人们
民主和独裁不是绝对的,而是一个连续的光谱
靠民选上台的,可能是独裁政府
可以由小团体集体决策的,是有一点民主的独裁
能够参与对话的人越多,民主的含量就越高
有时候,人们尽管有广泛对话的条件,但没有相互倾听和达成共识的能力,政府也会被迫变得独裁一些。
技术的发展,在历史上也深刻地影响着两种网络的形态
石器时代和狩猎采集时代,虽然机构制度和信息技术落后,但由于规模不大,所以往往也能够达成广泛的对话。领导者也没有办法和技术垄断所有信息流。
农业革命后的几千年里,文字技术协助催生了大型官僚政体,一是群体变大了,二是技术让垄断信息变得容易了,三是就算还想要维持民主对话,也变得困难了。
在技术限制下,民主和人群规模不可兼得
没有报纸广播等传播技术,把几万名公民聚到广场来对话,可不容易
人民必须要懂得彼此谈话的内容,否则就是鸡同鸭讲
需要有教育和媒体平台使人民有基础的知识素养
但是,大规模专制政体之中的地方事务,却可以采用民主形式
因为同样在技术限制下,专制者也控制不到那么具体的小地方
大众媒体,如印刷术的发明,让大众民主梦想成真
报纸拥有了关键的政治影响力,报纸主编也成为了政治领袖
大众民主,也是大众极权
在电报、电话、电视、广播、火车轮船飞机等现代信息技术出现后,极权政体也拥有了控制国家所有毛细血管的能力。
技术没有成熟之前也有极权的尝试,虽然失败了
斯巴达和秦朝
斯大林极权的三位一体
政府机构
苏联共产党及党支部
秘密警察
互相监督,维持秩序
现代政体已经基本解决了以前无法避免的问题——地方下属的叛乱
对一切信息流的完全控制
在各个机构里派驻代表
苏联集体农业化
垄断信息的集体经济造成大饥荒等灾难
把罪过归咎于富农等“阴谋”群体,制造了现代的“猎巫行动”
新一波信息技术革命(AI),会施加更加重大的影响
强大的算力,能使如洪水般涌来的新声音加入公共对话
也能使集中到中央极权的所有信息,更好更快地得到处理
这一次与以往都不同
这一次给我们编造神话故事和处理官僚任务的不是人,而是强大的AI算力
这种智能体有能力控制我们的一切信息,但我们对它正在做什么,毫无了解
人类和非人类之间可能会形成一道强大的“硅幕”
非生物网络(人工智能兴起的政治意义)
计算机成了一个新“物种”
基本特点
自己可以做决定
可以创造新的想法
计算机正在成为一种主动行为者
已然的例证
脸书的算法,助长了现实中的暴力 2016-2017年缅甸有关罗兴亚人的暴力冲突
关键原因是,算法自主决定了人们能看到哪些帖子
怎么回事?
因为工程师给算法设定了目标:提高用户参与度
算法就能用尽各种办法,达到这个目标。并且不择手段。虽然这些手段不是工程师希望看到的。事实上,算法是自己做出决定的。
为何影响如此之大?
算法不像以前的泥板、印刷机等工具,而更像是“报纸编辑”
真正的权力不掌握在作者手中,而在“推荐者”手中。人们能看到什么,什么就能大大左右人们的想法。
算法不仅积极推荐,而且强制推送
智能与意识
定义
智能是实现目标的能力
意识是体验各种主观感受
人类同时拥有智能和意识
计算机现阶段可能没有意识,以后可能会有,但现阶段肯定有智能,而且对于做出自主决定来说,有智能就够了
比如细菌与植物明显没有意识,但它们能表现出智能,就能改变这个世界
人类信息网络的基本结构改变了
以前这个网络里作为成员的主动行为者只能是智人,各种工具及文件,是死的,只能帮助人类传递信息。
但现在加入的计算机,却也成了网络成员。而且计算机之间就可以秘密传递信息,完全把人类抛开。
人类社会的发展,得益于在信息网络中人和人的大规模合作。那么以后呢?计算机之间不仅可以自主建立大规模网络,而且计算机在很多方面的性能都优于人类大脑,计算机就是天然的文件处理器,天生的官僚。
对人类的威胁
正在发生的:计算机学会写作、写音乐、画图象、做视频、编代码,甚至处理政府公文,使很多人失业
科幻小说想象的:机器人造反,射杀人类;把人脑和计算机连接,操控人类……
作者认为更可能,也更可怕的是, 计算机可能会入侵人类文明的底层操作系统。 就像几千年来那些聪明人干的事一样:通过 语言来操纵与重塑社会。
入侵人类的底层文明
学会人类的语言与思维,让人无法分辨网络对面的到底是人类还是计算机
创造出不受人类控制的神话故事及宗教
使民主对话失去意义
机器本来就不可能被说服
反而会在不断对话中,收集我们的弱点
在交流中与人类建立“虚假的亲密关系”,从而影响人类的行为
垄断人类的信息获取渠道,使人盲目信任ai的答案
抛弃搜索引擎、新闻、报纸、广告等正常渠道
人类的文化可能不能再由自己主导
现如今,网上就有越来越多的由ai创作的图像、视频、短视频、文字。你能分辨出来吗?
计算机可能很快就会学会以及创造更多的人类文化,利用文化的力量操纵人们做出某些极端行为
此轮信息革命的重要性远胜过往,可能会以前所未有的规模创造出前所未有的政治结构、经济模式与文化规范
谁应该负起责任
目前事态还没有失控,我们必须要积极了解现实与应对所有的可能性
在编写计算机代码的时候,绝不是只在设计一个产品,而是在重新设计人类的政治、社会与文化
因为科技太复杂,发展速度太快,造成了可怕的信息不对称
选民与政治人物就算想负起责任,但并不懂这一轮信息革命,不知道怎么办
那些带领计算机革命的企业,懂得这一切,但为了利益,往往帅锅,有空子就钻,不愿承担责任
科技的发展太快,政策的制定远远跟不上节奏
比如如今出现的信息对信息的交易
某科技公司给另一个国家的人免费提供服务并免费获得了对方的数据信息(中间没有金钱交易),并以此来训练人工智能获得收益,那么那个国家应不应该向这个外国企业收税?收多少?
一个科技公司承诺给一个政客提供选民数据,并从网上影响舆论方向,以助此人当选,回报就是要政客推动放弃数字税立法(中间没有金钱交易)。这属不属于贿选?
信息替代了货币
信息交易,看起来是免费的,没有花钱
信息交易,无法收税
后面讲到的“社会信用体系”或许可行
不要相信决定论
想要发挥我们的能动性,就得先了解这些新技术的本质与能力,这对每一位公民来说都是急迫而应负的责任。
监控网络永远持续运行
从古至今,我们一直都被监视着,只是限于技术,监控力度不够
实施监控的人员不够
监控获得的数据太多,分析不过来
如今计算机网络深刻地改变了这一切
24小时,无处不在的监控
AI可以更快地分析监控内容
皮下监控技术,也在发展中
如果监控发展为一种社会信用体系,那么人类将彻底失去隐私,让生活变成一场永无止境的求职面试
然而计算机网络谬误百出,难以理解,难以控制
“一致性问题”很难解决(在完成人类设定的目标时,往往会造成其他未曾预见的后果)
比如之前提到的,社交媒体算法鼓励仇恨的事,结果与目标不一致(目标是提高用户参与度)。计算机算法通过奖励人性里某些本能,同时惩罚某些善良,从而创造出互联网喷子和其他极端人士
早在计算机发明之前,一致性问题就困扰人类几千年
比如军事行动和政治目标难以一致
拿破仑的失策
美国入侵伊拉克的目标失败
计算机网络的一致性问题危险特别高
一,计算机网络特别强大
回形针工厂思想实验
二,计算机达成目的的方法人类无法预见,防不胜防
人工智能赛车游戏
三,计算机会不假思索地执行人类设定的错误目标,不会用人类的价值判断来纠错
确保给计算机设定一个正确的, 永远不得违背的终极目标 能解决一致性问题吗?
人类根本就 找不到这样的目标!
义务论认为 符合普世道德的 目标就是好目标
普世道德根本做不到普世。 因为权力依然掌握在虚构故事的框架下。 不同的虚构故事定义了不同的普世道德, 不同的普世道德排除了不同的群体, 致使此群体受苦受难。
功利主义认 为能减少痛苦, 增加快乐的就是好目标
然而痛苦和快乐无法计算
一致性问题本质就是个神话问题
然而,计算机会制造自己的神话和价值判断体系,而人类被完全排除在外。
计算机会制造存在于计算机之间的现实
新型加密货币
新型金融工具
计算机制造的神话可能会更有力地迫害人类
想要躲过能读取虹膜和DNA数据的计算机,变得异常困难
计算机会以前所未有的效率把一套秩序硬套在人的头上
计算机也会有偏见,不纯洁
机器学习的数据来自人类,所以计算机不可避免得会习得人类的偏见
种族主义
厌女
恐同
反犹太主义
计算机政治学 (不同类型的社会如何应对)
技术演进肯定有代价
并不是科技本身有什么问题,而是人类得花点时间才能学会善用科技
工业革命的代价
现代帝国主义,大量人口死亡
破坏生态平衡,大量生物灭绝
新的信息革命难道还要付出那么大代价吗?
对民主政权的影响
对于无处不在的监控
民主国家完全可以选择有节制地运用。基本原则:
为善
去中心化
相互性监控
监控系统必须永远保留让人改变与休息的空间
自动化破坏就业市场的稳定
容易被替代
智力技能比体力技能更容易被替代
创造力技能也容易被替代
情绪力技能也容易被替代
无法预测新情景下会带来什么新工作机会
刚适应的工作可能很快就被淘汰,人类来不及反复适应新情况
大量失业容易催生极权体制
许多保守派的极端行为大可不必,应该充分发挥民主制度的灵活性
我们需要“得到解释”的权力,以理解算法的所作所为
算法的行为高深莫测
算法已经可以用来给人量刑
COMPAS犯罪风险评估软件
民众的理解能力有限
民众往往落入单一归因谬误
往往认为事情变坏的原因只有一个
算法却相反,它善于分析大量因素并从中找出规律
民众一旦觉得自己看不懂世界了,就容易相信阴谋论,被阴谋者俘虏,滑向独裁
利用算法来研究算法可能是有用的
但又如何保证这个算法的可靠呢?
所以最终由人类来监管是必要的
监管机构如何过的民众的信任?
官僚和艺术家应该合作,在计算机的协助下把算法的语言尽量地翻译成民众能听懂的故事
数字无政府状态的威胁
民主制度的运作必须满足两个条件
能针对关键议题进行自由的公共对话
能维持最低限度的社会秩序与制度信任
如今情况的变化
计算机网络让更多人能够参与辩论
以前,报纸广播政党等透漏出的信息都是有编辑有过滤的
如今人人都可以发出声音
对话规则难以统一,对话难以达成共识,造成无政府状态
人工智能加入对话
非人类的杂音越来越多
人工智能会从多角度污染我们的网络内容
极端言论
假新闻假图片假影片等
营造假的亲密感的内容
人工智能开始操控对话
助长某些言论
不会被说服,但善于窥探人类,从而说服人类
对人工智能必须加以规范 也绝对可以规范
果断立法禁止假冒人类
禁止算法在无人监督的情况下对关键公共辩论进行筛选和管理
对极权政权的影响
人工智能给极权制度带来了梦寐以求的便利
集中的权力中心的信息可以更快更好地进行处理
人工智能给极权带来的威胁
极权没办法以恐怖统治的方式控制人工智能
人工智能与极权者的目标也具有一致性难题
极权者喜欢掩饰过错,人工智能给此项行为带来了麻烦
人工智能极容易垄断信息,使极权者变成傀儡
独裁者的两难困境
想要摆脱尾大不掉的人类下属,从而信任理论上绝对正确的信息技术
就有可能成为信息技术的傀儡
想要人类机构来监督人工智能
就要小心这个机构对独裁者的权力造成限制
人工智能对极权制度的影响比对民主制度大
必须要讨论对全球整体造成的影响
世界是紧密相连的,影响是相互的,一损俱损
偏执的独裁者可能让人工智能掌握核武器
恐怖分子掌握了人工智能,可能用来引发全球疫情
计算机让信息与权力更容易集中,从而形成新的更强大的帝国时代
一道新的硅幕可能使人类分裂为敌对的数字帝国
数字帝国兴起的可能
曾经工业帝国的兴起
起先由民间企业推动
政府与军队开始主导
人工智能的转折点
2012年AlexNet视觉识别
2016年谷歌的AlphaGo击败李世石
中国政府意识到人工智能时代正式降临
最早意识到事情真正重要性的或许就是中国
各大国纷纷发展人工智能
数据殖民主义
21世纪,如果要统治一个殖民地,已不再需要炮艇,只需使用数据即可
大数据的威力
各国的防御措施
屏蔽与禁用一些有危险的应用程序
新信息经济的本质,使垄断和集中更加容易
数字领先国家的产业升级也容易的多
未来产值预测
普华永道预测,人工智能预计在2030年为全球经济增加15.7万亿美元,中国与北美合计将抢下其中70%的份额
硅幕
不同的代码,不同的硬件,会使两个数字领域渐行渐远
科技上
文化价值观上
社会规范上
政治结构上
在过去,信息技术推动了全球化,形成了开放的互联网,如今却极有可能形成封闭的互联“茧”
全球的身心分离
不同的数字茧开始对人类身份这种最基本的问题有了不同的想法
升级到热战的可能加大
核武器的出现促成了相当的和平
因为有“保证同归于尽”原则
网络战可能会打破这个原则
网络武器能做到的远比核弹多
使电网瘫痪
摧毁秘密研究设施
干扰传感器
煽动政治丑闻
操纵选举
入侵智能手机
悄无声息
网络武器的可预测性变低
可能致使许多传统武器失灵
成功的侥幸,让网络战的诱惑加大
未来的选择
求同存异
合作,才是真正的丛林法则
向往美好
智人之所以成功,秘诀在于懂得运用信息,并把许多人联结起来。 但很遗憾,人类在拥有这种能力的同时,常常也伴随着相信谎言、 错误与幻想。
历史不是确定的,未来将由我们所有人在未来几年所做的选择而 塑造……如果未来真的无法改变,还去讨论未来岂不是浪费时间?
历史真正研究的并不是“过去”,而是“变化”。历史能告诉 我们什么是不变的、什么是变化的,以及事物又是如何变化的。