导图社区 《人工智能全传》
这是一篇关于《人工智能全传》的思维导图,主要内容包括:第三部分 我们将去向何处,第二部分 我们是怎么走到这一步的,第一部分 人工智能是什么,书籍信息。
编辑于2025-02-10 14:15:48《人工智能全传》
书籍信息
作者:[英] 迈克尔 伍尔德里奇
迈克尔·伍尔德里奇教授是牛津大学计算机科学系主任,曾参与开发阿尔法围棋机器人(AlphaGo)项目 。伍尔德里奇教授主要从事多智能系统研究,同时兼任国际计算机学会、美国人工智能学会及欧洲人工智能学会会员;2015年7月—2017年8月曾担任国际人工智能联合会议主席。
出版社:浙江科学技术出版社
出版年:2021-3-25
目录:
这本书主要想告诉我们什么?
人工智能是什么?又不是什么?
人工智能的历史→虚假繁荣和过度萧条之间起起落落
人工智能的未来→走过许多弯路,但是未来依然乐观
第一部分 人工智能是什么
第一章 图灵的电子大脑
人工智能的故事与机器人的开端应该是一样的,它源自于1935年英国剑桥大学的艾伦图灵(Alan Turing),当时他还是数学系的一个学生 1912-1954
他是真正意义上计算机的发明者,不久,又成为了人工智能领域的主要奠基人
偶然的机会,发明了计算机(当时叫图灵机),用于做数学判定,因为本质上数学问题的都可以简化为寻找对应算法就可以解决的问题。
二战时期图灵利用计算机为盟军破解了德军密码
打败了另一台机器恩格玛机器
图灵认为,解决数学问题不必过于冗长,也可以短小精干,只要确定基本的框架,真正的证明实际上只有几行。也就是说,方案更为重要,基于计算机执行既定的步骤,就可以解决各种想解决的问题。
图灵了不起的地方有三点:
1.理念:方法更重要,重要的证明就几行
2.可执行的图灵机:可以根据步骤图灵机
3.有限的通用性:设定步骤→得到结果
停机理论
内容:存在某些判定问题不能简单地按照确定的步骤来解决
人话:有一些问题,没法通过简单的几个步骤设定得到结果
实质:否定了存在算法通用性的可能,其实就是觉得机器不会像人一样去思考(人思考的过程其实就是算法的通用性的体现),机器的思考是被人赋予的
图灵测试
内容:人通过键盘与未知”生物“聊天,以文本交互,人提问,”生物“回答,最终人要给出该”生物“是人还是机器
如果判断错误或者无法判断,就说明机器拥有类似人类的智能
质疑的声音:不是证明机器多像人,而是证明了人的判断能力有时很有限
意义:第一从现代数学计算机的角度去探讨人工智能,发表了第一篇论文《计算机器与智能》
停留在理论基础,是概念性的,并没有在技术层面推动人工智能发展,没有形成学科,没有研究团队
计算机的伟大之处
计算速度非常快,每秒处理1000亿次=银河系所有恒星的数量=一个人24小时工作31710年且不出错
可靠性
执行彻底,无论是运算,还是决策
可修正(也是基于指令)→机器能够学习
人工智能的萌芽开始浮现
计算机能力情况
实现新的功能,就需要新的方案
自动驾驶:弄清周围的情况,比要做什么更重要
难点1:算力,虽然知道如何解决,但是占用内存太高,运算时间太长,比如当时在解决机器下棋的问题就遇到这个困难
难点2:算法,我们压根不知道有些问题该如何解决,比如理解艺术品,比如通过行人表情和动作理解他是否要横穿马路
其实当代科学家一直希望通过努力实现机器能像人类一样思考,但是困难在于,人脑的低功率运行(20瓦左右),天量神经元(860亿个)和算法的通用性(100个步骤可以学会任何事,做出准确的判断)
强人工智能:和人一样的理解力,有意识
杰克:我要离开你 露丝:她是谁?
豆包
奖杯无法放进箱子里,因为它太大了;奖杯无法放进箱子里,因为它太小了。
豆包
换个例子,考验一下豆包
弱人工智能:只能模拟出特定能力的程序,干特定的事情
解决方案1:符号人工智能,用符号代表各种事物,并进行推理和认知,建立思维模型:A代表卧室,B代表客厅,C代表打扫,CA代表打扫卧室,CB代表打扫客厅。(20世纪50年代中期至80年代末期的主流构建方法)
解决方案2:模拟大脑去进行思考,试图用计算机构建人类大脑,但是难点是人类大脑非常复杂,我们对大脑的成分、结构、运作原理不够了解,无法完全复制
该方案给予科学家的灵感→神经网络→构造智能系统中的组件
计算机神经网络的定义:指的是一种模仿生物大脑神经元之间信息传递方式而设计的计算模型,它由大量的神经元节点相互连接组成,具有强大的信息处理和学习能力
第二部分 我们是怎么走到这一步的
第二章 黄金年代
人工智能的黄金年代1956年-1974年
研究人员不知道失望为何物,一切皆有可能
构造了人工智能系统
内存小
运行慢
使用困难
人工智能的命名者,美国学者约翰麦卡锡John McCarthy
发明了FISP语言(人工智能首选编程语言),一直用到现在
洛克菲勒研究院资助
对人工智能系统的构想:我的观点是,智能体能够使用逻辑语句来表达其对世界、目标和当前状况的了解,并通过(推断)某个行为或者行动过程是否符合它的目标,来决定它自己的行为
科学家夏令营
召集实际各地有共同兴趣的研究员当面交流和共事
虽然没有什么研究上的重大进展,但是生成了一门新的科学→人工智能
成员:小约翰福布斯纳什John Forbes Nash, Jr.1928-2015
普林斯顿数学系
性格孤僻,不善交际、精神分裂
思考所有问题都喜欢用数学思维
非合作博弈的理论
在博弈中的参与者在决策时,只考虑自己的利益最大化,而不与其他参与者合作
囚徒困境(只考虑自己短期利益,不考虑别人,不考虑合作)
独立性、自利性、策略依存性(根据判断别人的策略,制定自己的策略)
意义:探索最优解、应对不确定性
广泛应用于:经济学、政治学、计算机科学
1994年博弈论获得了诺贝尔奖
《美丽心灵》2002年奥斯卡金像奖
研究策略:通用智能不好实现,那就分而治之
实现各种各样的具体的智能行为能力
能力1-感知能力:视觉、听觉、嗅觉、触觉和味觉→感知器
雷达
激光雷达
红外线测距仪
超声波测距仪
力矩感应器
惯性、听觉、视觉传感器
能力2-机器学习能力:不同于人类学习,是指解析和预测数据
能力3-问题解决和指定计划:用给定的动作实现目标
应用:下棋
难点:需要提前认识到,不同的移动,产生不同的结果
所有人都是凡人,A是一个人→A是一个凡人
推理:凡人会生
推理:凡人会死
推理:凡人死后不能复活
推理能力是人工智能重要发展方向
能力4-自然语言理解能力
非常难精准定义,因为自然语言灵活多变、模糊、各种音色
成就1:SHRDLU系统
斯坦福大学博士生特里威诺格拉德
特点:人和机器能交互
积木世界
将初始状态变成目标状态
图:
特点:1.封闭世界 2.模拟世界
和真实世界的差别:1.没有外部干扰 2.机器的执行能力达不到
重要的启示:低估了完成目标的难度,错误的觉得,一些人类执行起来很容易的任务,机器干起来也会很容易
成就2:机器人SHAKEY
斯坦福研究所开展的研究项目
物理学家哈尔斯罗森
人类第一次尝试构建可移动的、实体的机器人,也有人说这是第一台AI机器人
前提:机器人能感知身边环境、能接受任务、制定完成任务需要的步骤
意义:真实环境下的项目,发现做好一个机器人需要:
足够小、足够灵活
足够强大和精准的传感器
导航能力
处理器
启示:要想让一个机器执行特定的简单任务,难度会直接跃升好几个数量级
成就3:问题解决和搜索
解决问题的能力是人和动物的重要区别
解决问题需要智慧
搜索技术的出现
不是搜索信息,而是人工智能利用搜索技术找到解决问题的方法
全盘考虑所有进程方案,比如下棋,考虑所有动作产生的结果后,再决策用哪个最优方案执行(终局思维)尝试→实践→判断
缺点是:太多重复和低效率。步骤越多,结果越多,无法短时间内得出最优解,另外很多明显是错误的动作会被过度演进,浪费精力
无法面对组合爆炸(导致发展停滞原因1)
解决1:深度优化搜索,选择一个策略一直找到最终方案
解决2:经验法则,告诉机器哪些方法最有效
难题:给机器的启发必须是好的启发,否则仍然无效
产物:IBM亚瑟塞缪尔20世纪50年代中期制造的跳棋程序→深蓝IBM701计算机(大概算力是现在计算机的几百万分之一)
真正意义上的一个机器学习程序
给棋盘每个位置设定不同的权重(跳哪里更容易赢)
给不同方案打分,最后得到最优解
1997年战胜了国际象棋世界冠军
每秒评估2亿个棋局
NP完全问题(导致发展停滞的原因2)
其实还是通用性难题
如果你想解决所有问题,意味着所有问题都有相同的解决方法,但是人类又找不到这个解决所有问题的方法
人物代表1:赫伯特西蒙 1916-2001
美国国家科学院院士,1978年诺贝尔经济学奖得主,有限理性说和决策理论
有限理性说
信息有限,决策者不可能获得全部信息
认知能力有限,即便有足够的信息,认知能力达不到也无法实现理性决策
满意原则,信息不全和认知有限导致决策者最后的选择是一个让自己满意而并非真正最优方案
决策理论
重要观点:管理就是决策
批判传统经济学假设所有人都是完全理性的“经济人”
当时人工智能先驱者的代表,推动了人工智能的发展,被称作人工智能之父,
世界上出现了能够思考、学习和创造的机器,在可预见的未来,能够像人类一样处理问题
人物代表2:休伯特德莱弗斯1929-2017
美国著名的哲学家
哈佛大学
人工智能的批判者,美国智库兰德公司委托其评估人工智能发展前景,休伯特指出人工智能在模拟人类的具身性、情境理解、直觉和情感方面有根本性困难
《人工智能等于炼金术》
研究人员被兴奋冲昏了头脑
大肆炒作是为了吸引投资和研究基金
当时美国人工智能发展资金主要来自军方,因为很多承诺没有兑现,美国资金撤出
人物代表3:詹姆斯莱特希尔1924-1998
英国数学家,20世纪最伟大的数学家之一
《莱特希尔报告》
组合爆炸是人工之恩那个无法解决的关键问题
导致了英国对人工智能研究经费的严重削减
到1974年进展停滞,资助者撤资,人工智能被扼杀在摇篮中
第三章 知识就是力量
20世纪70年代至80年代初,一种新的研究方法有希望解决之前的问题,成为了当时主流的研究方向,这种方法就是知识,研究者们确信捕捉和使用人类现有的知识,才是人工智能进步的关键
基于知识的专家系统出现
被证明人工智能在某些特定领域远胜人类
可以应用于商业领域
专家系统和通用系统不同,专家系统只解决非常侠义和具体的问题
工业界向这一领域投入了巨量的资金,更狂热的人工智能浪潮到来
知识表达
基于规则
通过 如果……那么…… 的形式获得离散的知识块
当遇到的信息与规则相匹配,规则就会触发
但是
每个人都有不同的表达方式,且不通用
如果规则过于简单,则无法识别复杂环境下的相关知识
环境过于复杂,比如多人环境,也无法适应
1978年,人工智能著名科学家Drew McDermott总结了这些问题,并指出
对一个系统而言,正确性是重中之重
让人能理解,也十分关键
基于知识的专家系统结构
知识库包含机器所拥有的规则
工作存储器包含了机器当前正在解决的问题信息
推理机负责根据规则和获取的信息来解决问题
经典的专家系统:MYCIN
20世纪70年代
首次证明人工智能在某些领域优于人类专家,为后续专家系统提供模板
用于辅助医疗,专攻血液疾病
由斯坦福大学的一个研发小组
布鲁斯布坎南领导的人工智能实验室和特德肖特利夫领导的医学院专家组
成功的最大要素:由真正的专家参与建设的
其他专家系统的失败原因在于没有专家参加
关键特性
可以像人一样交互信息(基于上百条的规则,如果……那么……)
所有的推理都可以还原和解释(人类可以信服)
应对不确定性,它不会仅仅通过一个特性就给出结论,而是表示出对该特性的信任程度数值
这是当时人工智能发展的难题——不确定性处理问题和推理问题,到目前仍然是
第一例成功的专家系统:DENDRAL
斯坦福大学Ed.Feigenbaum专家系统之父
目的是帮助化学家根据质谱仪提供的信息确定化合物的成分及结构
20世纪70年代-80年代中期广泛应用于商业领域,证明由商业价值,研发资金大量流入
专家系统赋予了人工智能另外一种可能,你不需要是相关领域的博士,只要有足够的知识,就能构建一个专家系统
1983年英国政府再次资助人工智能发展
基于脚本的专家系统结构
心理学家Roger Schank和Robert P.Abelson
理论基础:心理学方面,人类的行为部分受刻板印象模式的支配
终极专家系统 CYC
知识型人工智能最著名的实验,CYC就是一个包罗万象的知识库
天才人工智能研究员Doug Lenat
理论:知识就是力量,人工智能通用性需要靠知识储备来解决,足够的知识量能解决通用性
方式:大部分工作必须经过人类判断以后手工输入,包括很多很多理所当然的简单常识,比如空气无色透明,水龙头里的水通常是凉的,本质就是告诉机器人类世界的真实模样
评价:一场豪赌,高风险、高收益、如果成功,可以改变世界
最终,失败了
人类所有知识的组织汇编从没有有过,没有基础,不是现成的
相互之间的关联性极度复杂
崔迪是一只鸟
鸟会飞
崔迪是一只企鹅
企鹅是一种鸟但是不会飞
CYC……,陷入理解困境
进展过程曲折,不断推翻重来
导致CYC甚至连一些最基本的常识都不能准确回答,比如面包是不是饮料
这些看似简单的问题,是当时人工智能发展的主要挑战,当时最聪明的人没有真正意义上解决
意义:对处理复杂知识的一次伟大的超前的尝试,确立了CYC假说→通用人工智能的本质是知识体系问题,可以通过一个合适的基于知识的系统来解决
30年后谷歌发布了庞大知识库→知识图谱
和CYC的区别是,利用系统自动从网页提取的,而非手动
20世纪80年代末,专家系统的繁荣结束
正面:很多专家系统出现
负面:实际产出没有达到被鼓吹的高度
第四章 机器人与其合理性
哲学家Thomas Kuhn《科学革命的结构》1922-1996
随着科学认知的发展,旧有的科学体系会面临全盘崩溃的危机
新的科学体系会诞生,这意味着科学的范式发生变化
这动摇了“知识就是力量”的理论
这就为另一种路径的选择打开了可能性,有没有可能基于行为开展人工智能研究?
机器人学家Rodney Brooks
参与过多个人工智能研究
但是是一个人工智能的批判者
他质疑:制造机器人的关键是将现实世界的知识编码成某种可以被机器人识别的形式,作为推理和决策的基础
因为现实世界比虚拟世界复杂的多的多
因为模拟世界忽略了感知能力
之前分而治之的理念存在问题,因为忽略了相互之间的协作(实际上当时的科学家考虑的这一点,但是因为无法实现所以选择专注某个领域)
重新思考人工智能最基础层面的问题
要想取得真正意义的进步
必须与真实世界互动
海量的知识不是人工智能的必备条件,尤其是以逻辑为基础的机器人
智慧是涌现性质(涌现出来的),源自实体与环境发生的交互行为
重新设计了一种基于行为模式的结构→包容式体系结构
行为分层次,层次优先级不同
能对获得的信息快速做出反应,快速响应环境变化,而不用再进行复杂的计算推演
举例子:扫地机器人,只要有电,只有没有障碍物,就可以执行清洁;如果没有即将没电,不管周边环境如何,第一时间返回充电座
成吉思汗机器人
仍然具有局限性
无法扩展规模
一旦基础行为数量太多,就难以设计出行为系统
无法理解各个行为之间的关系
纯行为模式虽然展现出表达的高效,但是仍然无法完全否定知识和推理在人工智能发展中的作用
否则,所有的AI机器人都是扫地机器人了
智能体Agent
概念:是个完整的人工智能系统,独立、自主、嵌入某个环境中,代表用户执行特定任务
可以展现完整的集成的能力,而不仅仅式类似于逻辑推理那样孤立的、脱离实体的能力
具备的能力
反应灵敏,快速适应环境并调整自己
积极主动的完成任务
具有协作性,能和别的智能体合作
具有社交技能,不单单是沟通能力,还有协作、协调、谈判、推进的能力
也就是说,智能体需要有社交能力
这与之前给与人工智能信息有本质的不同
不仅仅是交流
跟多的是协作
也就是说机器能理解人的意思,并给与人协助,而并非完全的执行
从以机器为中心过度到以人为中心
HOMER机器人
能够接受指令
存在记忆
能够理解时间概念
有情绪表达
说白了就是更像人了
软件智能体
苹果公司知识导航器
John Sculley苹果CEO在1987年发布
高度概念化,更像是一种愿景而非产品展示
可以跟人用英文交互
以动画人形的方式呈现
礼貌的提醒日程安排
负责管理来电
暗示
互联网将成为我们工作环境的常规部分(当时还没有在办公环境普及)
平板电脑将会普及
最重要的是:人通过智能体与机器实现交流的思想
计算机只会原地等待,而智能体则更为主动,更像是一个助手
因为智能体本身是软件,2000年初开发者们陆续陷入资金窘境,未能实现盈利,伴随网络市场开始崩溃
20年后,siri出现并应用于苹果手机
引发了人工智能发展道路的思考
智能体代替我们执行最优的选择
从和人做出一样的判断→做出比人更好的判断
不同人有不同的偏好,所以不同的智能体会有存在偏好效应
也就是个性化差异
比如A喜欢吃橘子,B喜欢吃苹果
A通过智能体要求送一些好吃的水果,智能体会选择橘子,而B给与智能体同样的指令,智能体会选择苹果
第五章 深度突破
DeepMind
2014年谷歌收购的一家小公司
25个人,报价4亿英镑
外界觉得这家公司没有任何产品、技术和商业计划
强大和重要的技术:深度学习
这家公司设计了一个程序,可以从头到位玩雅达利游戏
通过强化学习自学玩游戏
通过每次玩游戏得到的反馈,学习哪些行为会有奖励
比人玩的好
围棋(人类最难的棋类)
战胜了欧洲冠军和韩国的世界冠军李世石九段
大家多说李世石一开场就输了
AlphaGo有很多的奇怪举动,一些落子人类不会这样做
机器学习
举例:文本识别功能
手写文字→电脑文本
图片→电脑文本
监督式学习
大量数据
特征提取
强化学习
不给数据
直接让机器决策,然后告诉机器决策的反馈,以判断是好是坏
神经网络
人脑大约有1000亿个神经元,神经元有数千个连接
神经元之间传送信息时,神经元会给与信息不同的权重(做出判断)
证明了神经系统能有效学习
神经网络的构想是,在机器学习的程序中引入类似的结构
人类为什么会有意识,仍然是个迷,所以机器也无从模仿产生意识
神经网络1.0 感知器
20世纪40年代Warren McCnlloch和Walter Pitts
神经元可以用电路建模
到了50年代Frank Rosenblatt改造了这个模型,创造出了感知器模型
20世纪60年代开始衰落,人们更倾向于符号人工智能的方式
神经网络2.0连接主义
20世纪80年代
出现了一种技术→并行分布式处理
利用的方法是反向传播算法
简称BP算法,是一种在人工神经网络中用于训练模型的重要方法
原理是:如果机器的判断是错误的,那一定是有信息输入权重的问题导致了错误判断的输出,通过不断的纠错(调整信息权重),调整算法,让机器变得越来越聪明
举个例子
一个香蕉展示在机器面前,机器说这是一个橘子
反向推演发现原因并调整的过程
信息A:这个水果有把占50%权重
信息B:这个水果是黄色的占40%权重
信息C:这个水果是长条形状占10%
因为该水果的信息输入A+B+C触发了该水果是橘子的输出阈值,所以机器说这个水果是橘子
调整,将形状信息权重增加到50%,降低水果有把的权重,让机器因为这个调整判断这个水果是香蕉
机器因此次训练对水果的认知增强
变聪明了
当时算力无法支撑这样的训练,所以机器学习的主流方法,又一次从神经模型上移开了
神经网络3.0深度学习
足够深度,神经网络是多层结构
神经元数量剧增,2016年先进的神经网络已经能有100万个,这和蜜蜂相当
神经元直接的连接数量增加
Geoff Hinton 2024年诺贝尔奖
反向传播算法的创始人之一
2016提出
除了具备以上条件外,还需要两个因素
数据
ImageNet项目
斯坦福华裔研究员李飞飞
李飞飞认为机器学习需要大型的、维护良好的数据集
ImageNet是一个大型的在线图像档案库,2021年已经有1400万张图片
重要的是这些图片被详细的分为了22000种不同的类型
不是人工分类,而是机器根据特定物体进行分类
算力
深度学习需要大量的计算机处理时间
GPU被证明是训练深度神经网络的完美工具
研究室对GPU的需求似乎没有上限
缺点
所展现的智慧不够透明,因为这个智慧是通过连接输出的,它会告诉你这个水果是香蕉,但是无法证明
神经网络的稳定性不足,对图片稍微修改,就会导致分类错误
第三部分 我们将去向何处
第六章 人工智能的今天
人工智能会像互联网一样改变我们的生活
最突出的两个方面
人工医疗
面临的问题
人类平均寿命增加,老人数量增加,总体需要的医疗资源更多
可以用于治疗疾病的方法和药品增加,带来了总体医疗支出的增加
培养医疗保障服务的医生和技能需要大量的时间,通常是10年
个人医疗健康管理系统的出现
可穿戴设备,比如苹果手表,可以持续监测我们的生理数据,使个人医疗健康管理成为可能(这是历史上第一次我们自己对自己进行持续监测)
自动化诊断,利用人工智能有效识别医学图像中的异常,比如DeepMind用了两个神经网络系统,一个用于分割扫描,一个用于诊断,来进行眼部检查,经过15000个案例和900个图像,达到了专家水平
反对的声音
医疗卫生是人文科学,需要任何人的交互
人更信赖人而非机器
作者的想法
人工智能是为人所用,而非取代人
人工智能可以将专家水平普及,特别是缺乏医疗技术的地区
无人驾驶
面临的问题
每年100万人死于交通事故,其中印度和中国占据四分之一,这主要是由于驾驶员失误造成的
燃料和动力资源因为驾驶不当被浪费
私家车数量越来越多
无人驾驶面临的挑战
感知能力欠缺,一辆汽车知道自己在哪里,周边的情况如何
无人驾驶的级别
L0,人工驾驶
L1,辅助驾驶(需要人工全神贯注干预),比如自动巡航,可以通过控制油门和刹车控制车速
L2,部分自动化(需要人工持续监控),汽车可以参与转向和速度控制
L3,有条件的自动驾驶(当汽车无法应对情况下需要人工控制)
L4,高度自动化驾驶(驾驶员极少干预),汽车可以完全自动正常的驾驶操作
L5,全自动驾驶(无需人工干预),方向盘会取消,人只需要说去哪里
发生了一些事故及原因
2015年特斯拉自动驾驶仪导致人员死亡事故,原因是对面车辆是白色的与天空颜色接近,导致无法识别
2018年Uber无人驾驶撞到了人,因为行驶速度超过了车辆制动的区间距离
目前的困难
如何应对突发事件,也就是当汽车遇到没有在训练中遇到的事件,会发生事故,而人类会依靠经验和直觉处理
道路情况千差万别
和人工智能汽车一同上路会让其他人类驾驶员感到不安
人类驾驶员和行人行为的不可预测,比如闯红灯、压实线
无人驾驶的一些进展
在露天矿区的应用
更像是自动化而非自主驾驶
在城市内提供交通服务
使用范围严格受限
在高速设置专用车道
会让人类驾驶员更加远离无人驾驶汽车
最乐观的预测,20年后,L5级别才能普及
第七章 杞人忧天——我们想象中的人工智能会出什么错
一些报道会迎合大众对人工智能“终结者式的恐惧”
大众的担忧:我们正在创造一些自己无法控制的东西,这会给人类的生存带来风险
马斯克对人工智能层表示担忧,并捐赠了1000万美元作为研究经费,支持负责任的人工智能研究
霍金在2014年也公开表示人工智能可能会威胁人类生存
影视作品中的人工智能
人工智能伦理道德讨论→成为道德智能体
错误1:自运行过程中的代码错误
错误2:如果人类表达错误,人工智能会按照错误的指令,实现错误的行为
奇点主义
美国未来学家Ray Kurzweil 2005年出版的《奇点临近》
关键思想:人类创造的技术增速过快,在几十年内,以信息为基础的技术将涵盖所有人类的知识和技能,最终包括人类自身、识别能力、解决问题能力、情感和道德
奇点:指计算机智能超过人类智能的一个假象点
摩尔定律:大约每隔18个月半导体固定面积上的晶体管数量会翻一番
能耗会以同样的速度降低
处理器本身的体积会相应缩小
近50年摩尔定律一直很可靠,但是2010年前后,开始触及物理极限
作者怀疑奇点主义的理由
1.软件的提升水平远远慢于硬件
2.机器的智能能力发展实际很慢
结论:目前距离奇点还很远
这种想法不是少数,但是也受到了批评,以核能举例
20世纪30年代,科学家知道有大量的能量被锁在原子核中,但是不知道如何释放
原子弹研发成功并在广岛投放
人工智能会不会是另一个核能呢?
虽然核能连锁反应的机制是很简单的,而人工智能却很复杂
如何约束机器的错误
美国科幻小说作家阿西莫夫和他的机器人三定律
定律一,机器人不得伤害人类,也不得因为不作为而让人类收到伤害
定律二,机器人必须服从人给予它的命令,除非该命令与第一定律冲突
定律三,机器人在不违反第一、第二定律的情况下要尽可能保证自己的生存
实际上无法实现,因为三个定律之间相互矛盾,因为人都做不到如此周全,何况模仿人的机器呢?比如让机器人下煤矿挖煤,按第二定律是要彻底执行,第三定律要求又要保护自己,同时挖煤会导致土地塌陷,会不会违反第一定律伤害到人类呢?
伦理层面的无人驾驶难题:电车难题
英国哲学家Philippa Foot 1967年提出
一辆电车失去控制,正高速冲向五个无法移动的人,轨道旁边有一个操纵杆,如果拉动控制杆,电车将转向另一条轨道,那里只有一个人(同样无法移动)。你如果拉动了操纵杆,会杀死一个人,但能拯救五个人。那么拉不拉?
2016年舆论:无人驾驶决定了杀死谁
几个可能性
一个人被杀,损失小于五个人
这五个人可能是穷凶极恶的坏人,而被杀的那个人可能是一个无辜的小孩
杀几个人都是不对的,也许应该不作为,因为作为就意味着谋杀
作者:人都无法判断,期待人工智能解决电车难题并不合理
作者:我开了几十年车,从来没有遇到过,用极小概率事件阻碍技术发展很可笑
作者:不管哪个答案,都会有被反对的理由出现
做过统计
东亚和伊斯兰国家倾向保护合法的人而非犯罪的人、保护行人而不是乘客、保护年轻人
拉丁美洲国家倾向保护地位高的人和年轻人及女性
西方国家倾向牺牲一个人保护五个人
作者:过多的讨论道德没有意义,我们的精力应该放在如何能让汽车停下来
这是所有人的潜意识(首先是刹车,想尽办法停下来),但是机器在执行的时候,可能会因为人类在给与指令时忽视这一点,而只考虑选择走哪条路而非停止。
另一个例子:要求机器保证人类不会得癌症,而机器得选择是把人类杀了
机器做了你想让它做得事情,但是结果可能并不是你想要得
斯坦福大学计算机科学系和电子工程系副教授,人工智能实验室主任吴恩达
现在讨论这些事情耽误技术发展
现在距离这些担心还十分遥远
设计的时候需要考虑:人工智能在完成当下任务时,尽量保证其他不变
逆向强化学习→理解人类真正想要什么
先理解人类会怎么做
再指定人工智能的行为模式
我们默认了人类行为是参考样本
第八章 现实中的人工智能会导致什么问题
任何新的技术都可能产生想不到的效果,而这很难预测和控制
化石燃料的发现导致了气候变化
发电机的发明导致了电椅的应用
奔驰汽车的发明导致了一个世纪几百万人因交通事故死亡
互联网的发明导致了网络赌博和诈骗
人工智能的滥用也如此
人工智能会替代人类的工作(影响人类的职业结构)
相比人类:机器不会有疲惫、不会有抱怨、不会有工会
工业革命使得很多农业人口变成了工业人口,而人工智能将这个阶层变成无用阶层(创造了更多机会和就业)
微处理器的发展使得手工业变成了自动化(创造了更多机会和就业)
但是根据牛津大学的研究结果,人工智能的出现则会取代47%的岗位
容易被取代:医生、顾问、教师、客服、数据员、销售、财务、雕刻、等等
不太容易被取代:创造思维类的艺术媒体和科学、需要理解人类行为的强社交能力类的工作比如婚介、涉及灵敏感知和灵巧类的工作
乐观的乌托邦主义者
所有的事情都让机器干,人们可以自由自在的做想做的事情
质疑的声音:人的欲望会大于现有的物质,所以为了满足欲望,人类还是会想办法去努力工作;人类社会过去发展很快,但是平均分配的问题依然没有被解决,而且贫富差距更大了。
乌托邦社会不会那么容易的实现
全民基本收入的概念
每个人都得有事干
基本收入的保证
存在的问题
人工智能产生效益必须非常巨大,才能实现全民基本收入
强大的政治意愿,而这种意愿往往是在发生大危机之后才能被提上日程
全民基本收入会破坏社会的结构,特别是资本主义社会
马克思主义
19世纪中叶,资本主义初期,《共产党宣言》
关注的是工人与工作和社会的关系
工业革命→工厂出现→工人岗位→重复、无聊、无成就感、微薄的收入→工人没有控制自己工作的权力→工人的工作没有意义但工人别无选择
人工智能的出现→未来工人的老板可能只是一个算法→外卖员的订单
人工智能造就的自动化噩梦:人类的劳动被系统地简化为机器和软件暂时做不成的任务
人权
2017年英国杜伦的警察不怼启用了危害评估风险工具
是帮助警察决定罪犯该释放还是监禁
基于的数据是2008-2013年的拘捕数据
最终结果是:高风险准确率是88%,低风险准确率是98%
虽然人类经常仍然主导着最终判决,但是这个系统的应用仍然引发了公众的不安
人工智能侵蚀了人类判断的地位
军事
无人装备在战场的应用
越过了伦理的探讨被直接应用了
压根不考虑道德的事
算法偏见
分配伤害,势必会有一类群体利益受损
代表性伤害,因为强化刻板印象导致的错判,比如2015年谷歌照片分类系统将黑人照片标注为大猩猩
导致这种偏见的原因
数据面狭窄,不管多少数据,仍然可能都是狭窄的
算法设计人的原因(可能本身这个人是个种族主义者)
本质:机器学习本身就是算法,它自己不会像人一样思考,虽然结果相同,但是过程天差地别
缺乏多样性
人工智能长期以来都是男性主导的一门科学
最终我们可能得到的是男性人工智能,无法代表女性立场
假新闻的制造和传播(垃圾新闻)
第九章 通往有意识的机器之路
近些年,虽然人工智能和深度学习方面实现了突破,但是距离真正的和人一样的人工智能还相差甚远
重要的是,到底缺少啥,我们自己都不知道
技术进步会解决我们面临的未知难题
1838年英国科学家John Herschel发现太阳一秒钟辐射的能量,远超地球一年产生的能量
太阳怎么做到的成为当时的未知难题
后来19世纪末核物理学诞生→Hans Bethe提出了核聚变理论
爱因斯坦的质能公式 E=mc²,质量和能量可以相互转换
当原子质量M减少时,能量E也会减少,光速C是常量=3*10的八次方
较少的质量会以能量的方式释放
只不过我们现在连方向都没有,因为我们不知道自己的意识是如何产生的,更不知道如何测试
1974年美国哲学家托马斯内格尔人类意识测试
成为一个X需要什么样的感觉
有感觉,就有意识(人、猩猩、狗)
没有感觉,就没有意识(蚯蚓、面包、冰箱)
结论
意识并不是一个有或者无的东西,它是有层次的,即便是人和人之间也有差异
不同的实体差异巨大
推论:机器没有感觉,所以机器无法形成意识
强人工智能无法出现
作者反对,人工智能未来可能会有意识
因为人是原子组成的,原子没有意识,但是组成的人类有意识
美国哲学家霍伯特德雷夫斯
人工智能的批判者
现在人工智能的发展配不上人工智能这个名字
人类的许多行为和决策都是建立在“直觉”的基础上
“直觉”无法像计算机那样精准
“直觉”无法简化为计算机程序的算法
人类总是已经做完了,还不清楚为什么这样做→行为不是推理出来的→人类的行为不是依靠算法
社交大脑
英国牛津大学的人类学家邓巴提出了邓巴数
人类的大脑新皮层大小有限,提供的认知能力只能使一个人维持与大约150个人的稳定人际关系
人类的大脑是一个社会性的大脑,社会越复杂,大脑越大,这赋予了我们大脑有能力管理和维持大量的社交关系
大脑的进化实际上是社会发展导致的
这意味着什么?美国哲学家丹尼尔丹尼特提出意向立场
意向立场是具有解释力的,它让我们解释人们做了什么,以及接下来可能做什么
这个逻辑并不关心行为的内部构造
男:我要离开你 女:她是谁
用意向立场很好解释,但是用算法却很难得出
结论,人类的意识可能是一种社交推理
计算机有社交推理能力吗?
比如:当开关认为人类想传送电流的时候,它会打开
显然,目前人工智能研究不是解决意识问题,而是解决复杂的算法推理问题
精神病学及实验心理学家西蒙巴伦科恩提出了心智理论
泛指人类理解自己与他人的心理状态,包括欲望、信仰和意图等,病基于此预测和解释他人行为的能力
心智理论能力是一种实际的、常识性的能力
成熟的成年人拥有这种能力,能够对自己和别人的精神状态进行推理
人类并不是天生就有这种能力,但是有发育这种能力的能力
一般在4岁的时候就能进行推理
人们已经开始根据这个理论研究机器学习程序如何学习原始的心智理论能力
DeepMind开发了一个ToMnet的神经网络
目前处于非常原始的阶段
人工智能的发展是多学科共同推动的结果,包括:哲学、心理学、认知科学、神经科学、逻辑学、统计学、经济学、机器人学。
人类生存的意义
回到最早的图灵测试
如果机器正在做的事情与“真实的人类所做的事情”无法区别
那么我们就英台停止争论机器究竟是否存在“真正”的意识
如果它能通过我们各种合理的测试,包括意识测试
那它就是我们想要的结果了