Ernest Davis
- Rebooting AI: Building Artificial Intelligence We Can Trust
- AI 太火,媒体功不可没。过火了自然也有人挑出来泼冷水,这本书就是。勉强作为业内人士,基本认可这本书关于当下的AI无法通往强人工智能。
- 作者认为AI的出路在于自己定义的可信AI:基于推理、常识性价值和良好工程实践的人工智能。对此,我的态度是 talk is cheap, show me the code.
- talk 当然也有价值,只是对作者的观点我有质疑。作者的诸多列举并非创见,业内很多人也意识到这些问题,并试图做出贡献。但是很难,这些人人都知道的问题,为什么至今没人解决?因为太难而无从下手。甚至有没有实际推进都令人怀疑。
- 现在深度学习被认为是低垂的果实,我不同意。如果我们不对强人工智能有偏执的追求,现有的这些技术迭代不是也很激动人心?这些贡献之所以被低估,还是在于人们过早地期待了强人工智能,这点整个行业也有过错,有意或者无意地传递了错误的认知
- 我其实很难想象强人工智能来临的时代,那时候任何一个工人可以被金属零件加上软件所替代,金融资本可以无限制地转化为人力,这不恐怖吗?不过我们这一代人并不用担心这个问题,因为可预见的未来这都不会发生。
- 与其关心强人工智能毁灭人类,不如关心气候问题,关心能源问题,探索星辰大海,探索人心幽秘。
Outline🔗
- 第1章 AI 该往何处走
- 真的有可信的AI么
- 狭义AI与广义AI
- 领域专精的AI与通用AI
- 理想与现实之间的鸿沟 Chasm
- 轻信坑
- 虚幻进步坑
- 鲁棒坑
- 如何跨越AI鸿沟:搞清楚AI技术的利害关系,为什么当前的系统为什么解决不了问题;找到新策略
- 第2章 当下 AI 的9个风险
- 机器人有暴力倾向吗
- 机器也会犯错
- 当下AI的9个风险
- [[book/算法霸权]]
- 第3章 深度学习的好与坏
- 人工智能-机器学习-深度学习
- 什么是深度学习:分层模式识别+学习
- 深度学习的三个核心问题
- 贪婪的:需要大量数据
- 不透明的:可解释性问题
- 脆弱的:
- 深度学习是一个“美好”的悲剧
- 爬上再高的大树,也无法抵达地球 [[quote]]
- 第4章 计算机若真有那么聪明,为什么还不会阅读
- Talk to Books 无法回答一切问题
- 人是怎样阅读的
- 搜索引擎和语音虚拟助手的困惑
- 计算机不会阅读的三大原因
- 常识很重要
- 第5章 哪里有真正的机器人管家
- 从扫地机器人到机器人管家
- 机器人管家必备的四个能力
- 定位
- 运动控制
- 态势感知
- 复杂场景采取行动的能力
- 认知模型和深度理解才是关键
- 第6章 从认知科学中获得的11个启示
- 11个启示
- 没有银弹
- 认识大量利用内部表征
- 抽象和概括在认知中发挥着至关重要的作用
- 认知系统是高度结构化的
- 即便是看似简单的认知,有时也需要多种工具
- 人类思想和语言是由成分组成的
- 对世界的鲁棒理解,既需要自上而下的信息,也需要自下而上的信息
- 概念嵌于理论之中
- 因果关系是理解世界的基础
- 我们针对逐个的人和事件进行跟进
- 复杂的认知生物体并非白板一块
- 为机器赋予常识
- 11个启示
- 第7章 常识,实现深度理解的关键
- 建立常识库的三种方法
- 知识表征
- 通用人工智能应具备的常识
- 推理能力
- 人类所有的知识都是不确定、不精确和不完整的 [[quote]] [[Bertrand Russell]]
- 常识,深度理解的关键
- 第8章 创造可信的AI
- 优秀的工程实践
- 用深度理解取代深度学习
- 赋予机器道德价值观
- 重启AI
- 后记