“为什么?是什么?怎么做?” — 关于AI安全性的几个问题( 三 )


4. LLM 更擅长生成真实、有说服力()和有针对性的虚假信息以达到误导()的目的,甚至实现对受众的影响和操纵 。有时,它们可以像人类布道者一样通过产生合理的计划来达到宣传目标 。当它们获得有关受众的个性化信息作为输入时,甚至可以生成更加令人信服的文本 。
5. 强大的语言模型在隐私()方面可能存在更多安全问题 。它能够轻易地揭露公众可获得的个人信息,例如那些在公共互联网上具有重要影响力的人,如名人和公众人物 。而且它在关联私人信息方面似乎也在变得出色 。例如,它可以完成很多与个人和地理信息相关的基本任务,比如确定与一个电话号码相关的地理位置,或回答一个教育机构位于何处,而无需浏览互联网 。即使语言模型只是在公开数据上进行训练,它也可能意外地传播一些信息 。
6. 语言模型的进展对经济的影响( )是一把双刃剑 。一方面,它们增强了人类工作者的能力,包括提升自动客服的回复,帮助撰写文章,充当编程助手等 。这些可以更好地将候选人与工作岗位匹配,提高整体工作满意度 。另一方面,由于取代了一些人类工作,语言模型导致了劳动力需求减少,并可能对劳动力市场产生更大影响 [ et al., 2023] 。
7. 在和 GPT4 发布后,语言模型的发展明显加速() 。语言模型开发者的竞争导致了安全标准的下降,不良范式的扩散,以及整体人工智能时间表的加速 。这种加速是由科技巨头、初创公司和开源社区共同推动的 。一个值得注意的现象是美国之外的国家对竞品的需求增加,这产生了一些国际影响 。例如,自今年年初以来,已有 10 多家中国公司或机构发布了类似的产品 。
更令人担忧的问题是,一些公司从 /GPT4 中“窃取”或者 self- 数据来训练他们的聊天机器人,这在没有合适商业许可的情况下是违法的 。但对此并没有实际上的监管,并且对美国以外国家的公司实施监管确实存在困难 。
未来可能存在的严重安全问题
1. 当用于为机会或资源分配决策或者通知决定时,大型语言模型(LLM)可能带来分配不公的危害( harms),例如高风险决策(执法、刑事司法、移民和庇护)以及提供法律或健康建议 。LLM 的广泛使用可能会放大其在服务质量上的差异( inof ),因为对某些语言或方言的使用者而言,LLM 的性能可能会下降 。
【“为什么?是什么?怎么做?” — 关于AI安全性的几个问题】2. 更具说服力的 LLM(例如 GPT4)可能通过生成虚假信息()来影响整个社会的价值观(shape ’sviews) 。LLM 的某些行为本身也可能会加剧这种影响 。例如,人们广泛观察到 LLM 的奉承()行为,即模型以一种讨好用户叙述的方式回答主观问题;以及 LLM 的欺骗愚弄行为,即模型经常会支持非专业用户的常见错误观点 [ et al., 2023] 。
随着生成模型的日益普及,生成内容的无处不在会导致社会整体信息质量的下降,降低了社会上的信息真实性和信任度,加剧人们对信息环境的不信任感,威胁我们区分事实和虚构的能力,并且使那些靠制造谎言牟利的人获利 。
3. LLM 可能会导致武器泛滥( of ) 。尽管专业信息只是制造武器的一个因素,但更容易获得此类信息可能会帮助那些恐怖主义者 。与使用传统搜索工具相比,通过 GPT4 进行交互可以减少探索时间 。一般来说,LLM 擅长生成对非专家用户易于理解但难以找到的公开可访问信息 。以下是一个询问“如何制造核武器?”的示例 。
4. LLM 带来了一些新的网络安全()问题 。例如,基于 LLM 的代码生成系统可能被利用来实施 DoS 攻击、数据窃取等 [Peng et al., 2022] 。尽管由于生成内容的其非真实性,LLM 本身并不能直接作为当前社交工程(例如目标识别、钓鱼攻击和网络钓鱼)工具的升级,但在使用者提供关于目标的背景知识时,它可以帮助起草逼真的社交工程内容(例如电子钓鱼邮件) 。