如何应对深度伪造和合成媒体对网络安全的影响?
译者 | 晶颜
审校 | 重楼
在过去的几年里,由于深度伪造(Deepfakes)技术的出现,数字领域的现实与虚拟之间的界限已经缓慢而稳步地变得越来越模糊。
复杂的、人工智能驱动的合成媒体(Synthetic Media)已经从好莱坞的一个新奇概念发展成为一种实用工具,被政治动机驱动的威胁行为者和网络犯罪分子用于合成虚假信息和实施欺诈。
如今,随着人工智能的应用能力爆炸式增长,深度伪造和合成媒体的威胁也随之增长。我们对网络信息真实性的信任度从未如此之低,也从未如此脆弱。
在这篇文章中,我们将深入研究今天所看到的深度伪造世界,探索其本质、风险、对现实生活的影响以及应对这些高级威胁所需的措施。
什么是深度伪造?
深度伪造是人工创造的媒体,通常是视频和音频,旨在展示从未发生过的事件或人们参与的行为。它们利用复杂的人工智能(AI)和机器学习(ML)技术,特别是生成式对抗网络(GAN)。
GAN涉及两个AI模型:一个生成内容(生成器),另一个评估其真实性(鉴别器)。生成器生成越来越逼真的假视频或假音频,而鉴别器不断评估内容的逼真度,导致生成的假视频的质量和可信度迅速提高。
最初,深度伪造在娱乐和社交媒体上找到了自己的位置,提供了创作内容的新颖方式,比如在视频中将名人的脸叠加到不同的身体上,或者实现逼真的声音模仿。然而,这项技术创造高度令人信服的赝品的潜力,很快就从单纯的新奇事物转变为虚假信息和被操纵的有力工具。
深度伪造的网络安全风险
从政治虚假信息到金融欺诈,深度伪造的后果是深远且多方面的。下面,我们将探讨一些关键的例子,以了解这些风险的广度和深度。
政治性虚假信息
深度伪造通过传播虚假言论和操纵公众舆论,对政治稳定构成重大风险,特别是当它们被用来制造对政治人物的误导性陈述时。第一个引人注目的例子发生在2018年,当时BuzzFeed发布了一张奥巴马总统的深度伪造照片。
从那以后,许多其他的案件被曝光;乌克兰总统弗拉基米尔·泽伦斯基(Volodymyr Zelensky)的一段深度伪造视频错误地将他描绘成承认失败并敦促乌克兰人向俄罗斯投降,旨在误导和打击公众士气。最终,由于发现泽伦斯基的头部和身体大小不匹配等不符之处,该视频被认定为假视频。
商业间谍活动
在业界,深度伪造已经成为实施欺诈的有效工具,有可能造成巨额的经济损失。这种骗局在冒充高级管理人员时尤为有效。一家英国能源公司损失了22万欧元,因为人工智能软件被用来模仿该公司德国母公司首席执行官的声音,并指示英国首席执行官紧急转移资金。
个人身份盗窃和骚扰
当虚假媒体被用来进行身份盗窃和骚扰时,个人权利和隐私极易受到伤害。恶意媒体的创造可能远比我们以为的更严重。在德国,政府非常担心深度伪造的威胁,以至于发布了一场广告宣传活动来强调这些危险,警告家长注意与这些技术相关的风险。
操纵金融市场
除了对个人或组织造成伤害之外,深度伪造还可以通过虚假陈述影响投资者决策和市场情绪,扰乱整个金融市场。一个示例是攻击者曾在一段深度伪造视频中描述了五角大楼附近发生的假想爆炸,该视频短暂地影响了美国股市。
法律和司法滥用
在法律领域,深度伪造可以用来伪造证据,可能导致司法不公,破坏司法程序的完整性。虽然在法律环境中尚未出现具体的广泛实例,但以这种方式使用深度伪造的可能性,引起了人们对法庭上视听证据的可靠性和加强核查措施以确保司法公正的必要性的关切。
深度造假的检测与打击
与任何工具一样,人工智能可以用于好的方面,也可以用于坏的方面。目前,业界正在努力开发人工智能驱动的方法来检测和打击深度伪造威胁。其中许多工作都集中在分析面部表情和语音生物识别技术上,以发现人眼和耳朵无法察觉的细微异常。这涉及到使用机器学习模型,并在包含真实和操纵媒体的广泛数据集上训练它们,以便有效区分两者。
通常与加密货币相关的区块链技术也正在成为这场斗争中的有用工具。区块链提供了一种方法来验证媒体文件的来源和真实性,并确认它们是否被更改。所谓的“智能合约”既可以用来验证数字内容的真实性,也可以用来追踪它是如何与其他对象交互的,包括任何修改。与可以标记媒体内容真实性的人工智能相结合,智能合约可以触发审查过程或提醒相关当局或利益相关者。
此外,业界还在开发其他工具,以确保人工智能平台创建的内容可以被检测为人为的。例如,谷歌的SynthID可以在人工智能生成的音频内容中嵌入听不见的“水印”。像SynthID这样的方法旨在确保人工智能工具生成的内容即使在被人类或其他编辑软件操纵后仍然被可靠地检测为人工生成。
与其他网络安全领域一样,教育和宣传活动在打击深度伪造威胁方面也发挥着重要作用。教育个人和组织了解深度伪造,如何发现它们,以及它们的潜在影响将是至关重要的。技术公司、网络安全专家、政府机构和教育机构之间的合作在未来几年将被证明是至关重要的,因为我们将努力制定更全面的战略来打击用于不良目的的人工生成内容。
深度伪造时代组织和个人的最佳实践
随着深度伪造造成的威胁形势不断演变,采取策略来减轻与人工智能技术滥用相关的风险变得越来越重要。下述最佳实践可以帮助组织和个人增强对深度伪造相关安全威胁的认知。
提高认识和培训
教育是防范深度伪造的基石。定期对员工进行识别深度伪造的培训,可以显著降低被欺骗的风险。该培训应侧重于合成媒体的微妙之处,并与深度伪造技术的最新发展保持同步。
在组织内部培养一种核查文化,任何不寻常或可疑的交流(特别是涉及敏感信息的交流)都要通过多种渠道进行交叉核查。
实现强大的验证过程
对于关键通信,特别是在金融和法律环境中,实施多因素身份验证和严格的验证流程是必不可少的。例如,对于高风险交易或敏感信息共享进行语音和视频通话确认可能是有效的。这种做法可以防止类似于前面提到的CEO伪造声音进行欺诈活动的事件。
利用先进的网络安全解决方案
我们可以通过将先进的网络安全解决方案与深度伪造检测能力相结合,利用人工智能来击败人工智能。使用人工智能和机器学习来分析和标记潜在深度伪造的工具增加了重要的安全层。
定期软件和安全更新
维护最新的软件,包括安全解决方案,对网络安全至关重要。更新通常包含针对新发现的漏洞的补丁,这些漏洞可能被深度伪造和其他网络威胁利用。积极主动地进行软件更新可以显著降低发生安全漏洞的可能性。
与外部专家合作
对于那些内部网络安全能力有限的组织来说,与外部安全专家合作可以提供增强的保护。这些专业人员可以提供有关最新威胁的信息,并协助制定专门针对深度伪造和其他新兴网络风险的策略。
个人警惕
作为个人,我们所有人在与媒体接触时必须保持警惕,这包括对耸人听闻或有争议的内容保持一定的怀疑态度,在分享或根据这些信息采取行动之前核实来源。
利用有助于检测深度伪造的工具和浏览器扩展也有助于加强个人网络安全实践。
同样值得注意的是,与任何其他创作一样,深度伪造的质量也会因创作者的能力和对细节的把控而良莠不齐。这意味着在某些情况下,仍然有可能发现不那么先进或复杂的深度伪造。在鉴别视频过程中需要特别注意的事情包括:
- 不自然的眼球运动:人工智能生成的图像或视频可能无法准确地复制复杂而自然的眼球运动。这种差异可以表现为不寻常的眨眼模式或缺乏自然的眼球运动。
- 音频-视频同步问题:一些深度造假可能无法同步语音和嘴唇动作,导致明显的差异。
- 颜色和阴影不一致:人工智能经常在持续渲染颜色和阴影方面表现不佳,特别是在不同的照明条件下。注意肤色或背景颜色的不一致,阴影可能会出现错位等情况。
- 不寻常的身体动作:人工智能也可能难以保持身体形状的一致性,导致明显的扭曲或不规则。这可能包括突然的、不自然的动作或表情,与一个人通常的动作或反应不一致。
简而言之,打击深度伪造需要多方面的方法,结合教育、强大的验证过程、先进的技术、软件维护、专家协作和个人警惕。这些做法是应对网络安全领域日益复杂的深度伪造的综合战略的组成部分。此外,它们还将有助于抵御其他类型的网络安全威胁,鼓励个人和组织在当今以数字为中心的世界中必备所需要的安全思维。
深度伪造和网络安全的未来
“潘多拉的魔盒”已经打开,我们不能奢望深度伪造消失。相反地,随着深度伪造变得越来越普遍、越来越微妙,我们将需要制定有效的应对措施,并在某些关键领域取得突破。
除了继续开发先进的身份验证工具外,包括OpenAI和网络安全公司等人工智能开发商在内的行业领导者还需要引导人工智能技术的开发和应用,以建立道德准则,并确保针对深度伪造威胁的强大防御机制。
此外,还需要新的立法和法规来禁止和惩罚为有害目的制作和传播深度伪造的媒体。由于数字媒体的跨国性质,还需要在法律框架方面进行国际合作,以有效打击深度伪造。
正如我们上面提到的,教育公众提高深度伪造认知和媒体素养是应对此类威胁的一个组成部分。在这场涉及广泛网络面(这些面都可能传播错误信息)的斗争中,仅靠技术和监管无法赢得胜利。深度伪造不可避免地扩散需要一种多维的防御方法来应对,结合技术创新、道德行业实践、明智的立法措施和公众教育。
原文标题:Beyond Illusion | Addressing the Cybersecurity Impact of Deepfakes and Synthetic Media,作者:Migo Kedem