无人能构想出人工智能的未来 | 对话伯克利顶级学者 Stuart Russell

出品 | 《新程序员编辑部》
在人工智能学界的经典著作中,这两本书有资格称得上学界圣经 。一本是 Ian (生成对抗网络之父)的《深度学习》,还有一本,在业内常被简称为“AIMA” 。
这本比砖头还要厚的“AIMA”,全称《人工智能:现代方法》( : A,如图 1 所示) 。不少人工智能学科的教授,会在学期必读清单中列上“AIMA” 。这部 1995 年首次出版的 AI 读物,至今已经四次重印,成为全球 135 个国家的 1500 多所高等院校使用的教材 。
图 1 人工智能学界的两本经典读物
“AIMA”的合著者之一(见图 2)是人工智能领域的领军人物,他同时担任加州大学伯克利分校人类兼容人工智能中心( for Human- AI)的创始人和伯克利计算机科学专业的教授 。
AI 的发展带来了各种各样的危机讨论,近年来,一直为 AI 潜在风险奔走 。他不仅签署了埃隆·马斯克 (Elon Musk)、史蒂夫·沃兹尼亚克 (Steve ) 等人牵头的建议放缓 AI 研究进程公开信,还主动奔赴更多公众可见的场合,以警告 AI 的潜在风险 。
图 2 CSDN x的面对面对话
CSDN《新程序员》在智源大会上与教授进行了深入对话,了解他对 AI 技术发展方向的思考与顾虑,并得到了以下回答:
如果你想获得这本《人工智能:现代方法》,请翻阅至文末参与互动!
AI 通过模拟人类的复杂性来实现智能
教授在《人工智能:现代方法》中,深入探讨了人机交互的问题,并提出了一种叫做“辅助游戏”( Games)的数学框架,来帮助我们理解人与机器复杂的互动过程,并总结出了构建安全人工智能的 3 条原则:
AI 系统的唯一任务就是尽力满足人类的需求和愿望 。
设计者必须保证 AI 系统并不事先知道人类具体想要什么,AI 系统需要通过与人类的互动和观察,来推断人类的偏好 。
AI 系统在通过观察推断出人类偏好后,需要继续优化行为和决策 。
《新程序员》:您曾于书中建议,在 AI 系统中引入不确定性,加强 AI 系统对人类偏好的学习和理解 。这是否要求 AI 系统和人的交互应该更复杂、更深入,让 AI 全面地了解人类决策和行动的逻辑?
:我认为“复杂”一词不适用于形容人机交互的发展方向,或者说人类本身就是在复杂交互中处理问题,AI 也在不断学习人类处理问题的模式 。
让我举一个常见的例子:当一位食客走进餐厅,餐厅如何能够快速了解食客的需求?
传统的方式是向食客提供菜单,让食客自行选择自己想要的菜品 。这个过程不复杂,是通过双方的共同协作,降低了需求匹配的难度 。这就是人机交互的基本原则:AI 系统会了解用户的偏好,并表现得和人一样,执行既定的任务 。
这项基本原则已经实际应用到了生活当中:当我预订飞机座位时,机场的航班系统会问我要靠窗还是靠过道,我一般会选靠过道,有些人则喜欢靠窗 。这个航班系统的交互并不复杂,是一种非常自然的行为 。
那么,在计算机系统已经记录了用户偏好的情况下,我们就会采用传统的交互方式,让 AI 执行既定任务 。但是,在现实世界中,每个人的偏好都存在不确定性 。
无论是个人 AI 助理、家用机器人还是自动驾驶汽车,都需要根据不同用户的偏好改变行为策略 。一位优秀的人类出租车司机,会根据乘客的情况调整驾驶方式,比如说在遇到老年乘客的时候,避免急刹或急转弯,或者是在乘客携带婴幼儿的时候,选择能够平稳驾驶的路线,以减少他们在后排乘坐时的不适 。
所以,自动驾驶 AI 的发展方向就应该是具备优秀的人类司机相同的特质 。