人工智能对我们的恶意
多伦多大学公民实验室主任、《追逐阴影:网络间谍、颠覆与全球民主斗争》一书的作者罗纳德·迪伯特(Ronald Deibert)9月8日在《环球邮报》撰文《加拿大新任人工智能部长绝不能对其危害视而不见》:
“人工智能正在使智能民主化:使分析数据、自动化任务和改进决策的能力更加触手可及……许多过去需要花费大量时间的事情现在只需几秒钟即可完成。”
加拿大新任人工智能部长埃文·所罗门(Evan Solomon)在接受《多伦多生活》杂志(Toronto Life magazine)采访时如是说。
但是,如果那些效率更高的任务实际上腐蚀了社会,会发生什么呢?所罗门先生——表面上是一位乐观主义者——应该花更多时间去探究那些不那么暖心的故事。它们很难被忽视,而且其影响是毁灭性的。
例如,总部位于旧金山的人工智能公司 Anthropic 最近报告称,其发现黑客一直在使用其聊天机器人 Claude 进行大规模网络犯罪活动,侦察公司基础设施,编写恶意软件窃取信息,然后分析数据以确定哪些数据可以用来勒索受害者。由于 Claude,一整套劳动密集型的网络犯罪任务——用 Solomon 先生的话来说,“过去需要耗费大量时间”——现在完全自动化了。
与此同时,The Intercept 的报道显示,美国军方目前正在开展由人工智能驱动的秘密影响行动,以“压制异议”。美国的这一举措并不令人意外。有关国家支持、利用人工智能进行虚假宣传活动的新闻越来越频繁,这些活动与中国、俄罗斯、伊朗、卢旺达、以色列和其他国家的政府都有联系。
这些活动如今如此普遍,几乎每个世界性事件都会涉及它们。 《纽约时报》最近的一项调查显示,在两国最近的冲突中,亲以色列和亲伊朗的势力都发布了人工智能生成的视频和合成内容,捏造了诸如以色列本·古里安机场遭空袭或支持伊朗政权更迭的大规模民间抗议等事件。人工智能生成的虚假信息也充斥着俄乌战争和加沙战争。与网络犯罪一样,过去耗费大量时间和资源的心理战现在只需点击一下按钮即可完成。
许多此类行动的一个特点是其背后都有私营公司负责执行。强大的新型人工智能工具与日益恶化的政治环境相结合,为“暗网公关”公司创造了一个完美的生态系统。监管不力、道德问题存疑的初创公司如今提供工业规模的意识形态操纵服务。其中包括总部位于以色列的Psy-Group(现已更名为“白骑士集团”),其座右铭“现实取决于感知”就像是哲学家让·鲍德里亚和摩萨德的混合体。另一个总部位于以色列的组织,被揭发其真面目的卧底记者称为“豪尔赫团队”,吹嘘利用人工智能生成的虚假信息干预了全球数十场选举。
其结果可想而知,却又令人担忧。一场由人工智能生成的虚假信息海啸已经席卷我们,污染了公共领域,并渗透到人工智能系统赖以生存的语言模型中。该怎么办?
各国政府在应对这些威胁时,大多将其错误地定义为“外国干涉”——这是国家之间由来已久的地缘政治竞争的一部分。然而,这不仅仅是国家之间干涉彼此内政的问题。国内游说团体或跨国公司也可能部署同样的系统,试图抹黑举报人或阻挠调查。此外,用地缘政治术语来描述威胁通常会引发要求加强警惕或冒着落后风险的呼声,这无疑会火上浇油。
人工智能公司本身已采取了一些尝试性措施来解决这个问题,但这些措施远远不够。像 Anthropic 和 OpenAI 这样的公司现在都拥有“威胁情报”团队来追踪恶意行为者。然而,与社交媒体一样,这些团队面临着一个内在的矛盾:他们的任务是监管直接源于自身商业模式的危害。他们就像资源匮乏的脑震荡医护人员为搏击俱乐部工作。
与此同时,研究人工智能虚假信息的公共利益研究人员也面临着障碍。社交媒体和人工智能平台关闭了研究人员之前使用的开放接口,同时对批评者和研究人员采取了诉讼手段,扼杀了独立的监督机构。
现在需要的不是欣喜若狂的欢呼。政府至少应该对人工智能平台强制实施透明度报告和独立审计;通过法律要求科技平台向公众开放研究;鼓励调查人工智能对心理和社会的负面影响,尤其是对青少年的影响;并针对涉嫌人工智能不法行为的公司实施制裁。
能够高效建模语言和推理的系统正被用于秘密目的,其部署目的并非拓展人类的理解力,而是系统性地颠覆人类的理解力,这揭示了我们这个时代的一些隐患。正如所罗门先生所言,我们目睹的并非“智能民主化”,而是某种集体性的脑损伤。人工智能部长应该降低这些风险,而不是天真地支持这一切背后的技术。

评论
发表评论