专访数学家Hannah Fry:算法的时代,人类从未如此重要( 二 )


步枪协会便专门为单身母亲推送那些有点让他们害怕的广告,比如先说大半夜有人跑进了你们家,而我可以提供给你保护房子的服务等 。
当然,这些广告最后对于选举的结果有没有影响很难说,因为这些大型事件往往都是多方面共同促使的 。但是当时大选那么紧凑,特朗普在一些洲里以几千票获胜,我觉得这也是有可能的 。通过算法操控民主确实是一个值得担心的事儿,但我们还是要关心一下这些算法现在到底有什么能力,到底能不能潜移默化的操控民主 。
【专访数学家Hannah Fry:算法的时代,人类从未如此重要】现在新闻中有很多无人驾驶的新闻 。自动驾驶的一个挑战是怎么让车子不止观察路况正常行驶,而是像人类一样感知周围,并且做出“富有同情心”的决定 。你觉得自动驾驶有可能实现这个目标吗?
技术上来说没问题 。但是这个问题其实涉及到伦理学上一个难题,叫“电车难题( )” 。这个难题大概的意思是说无人驾驶车正在往前跑,突然前面发现一辆大货车正在卸货呢,眼瞅着就要撞上 。这时候你有两个选择,要不就直接往前走,货车司机就被撞上了,要不就打方向盘,把旁边的行人卷进去 。
这完全是个伦理道德问题 。这种问题的头疼之处就在于它并没有正确的答案,也没有简单的逻辑来说孰对孰错 。所以我觉得我们每个人对于自动驾驶的这种伦理道德问题都没有统一的答案 。
Q:现在一些算法被广泛应用到了司法系统的决策里,这对于很多读者(包括我)来说都很惊讶 。想问一下你,机器学习算法能帮助修正人类的偏差吗?
A:其实算法已经在法庭上用了很久了,最早可以追溯到20世纪30年代 。当时的那些算法是想预测一个罪犯是否还会继续犯罪 。不论喜不喜欢、愿不愿意,法官必须要给法庭上的罪犯下个定义,预测他被释放之后会不会再犯罪 。而且确实有的算法就是比人的预测更准确 。
2017年的时候,的调查采访人员发布了一个重大的新闻报道 。报道中说他们试用了一种算法,并且发现算法有种族主义 。他们表示,黑人被告被误分类为犯罪的风险要高于白人 。

专访数学家Hannah Fry:算法的时代,人类从未如此重要

文章插图
医学领域现在也逐渐应用了机器学习算法,能不能跟我们讨论一些算法和医学伦理方面的案例 。
先说个算法在医学领域正面的例子,癌症诊断 。诊断不是开处方,没有给算法过多的权利,它就是看一些医学图像,然后判断这个图片里面是否隐藏着微小的肿瘤组织 。这个算法很成功 。
还有别的诊断中的算法例子 。比如在英国曝光率很高的一个app,叫,它能帮助国家健康服务组织()简化诊断过程 。用户只要登录后打开聊天窗口,然后算法就能根据你的病情返回一些建议和信息,然后把你的询问内容过滤一下发送给医护人员 。
这听起来有点科幻,因为不只是西方的发达国家想要这样便宜和方便的服务,很多发展中国家更需要它们 。但是有一个小问题,就是这些技术可能没有他们宣称的那么好 。它还是会犯很多错误 。比如有一次有个人打开的聊天框说,他的肘部受伤了,结果莫名其妙的算法就诊断说他生殖器周围发红充血(the ) 。哈哈,这个算法也真是拔牙伤到前列腺了 。所以网上有着各种各样的段子,调侃这些人工机器人是怎么闹笑话和开车的 。
事实上,世界上最隐私的数据就是你的医疗数据了,特别是DNA 。所有的算法都要大量的数据才能工作 。但问题是谁有你的医疗数据,即便有了数据,又有哪个人愿意让自己这么隐私的数据暴露出去?就现在而言,我们还不能去除隐私问题所导致的恶果,也未能妥善保护每个人的隐私 。