deepfake图像的明显迹象过去很容易发现,但生成AI让我们质疑我们现在看到和听到的一切。随着每个新的AI模型的发布,假图像的迹象正在减少,并且为了增加混乱,您现在可以在几秒钟内创建deepfake视频,亲人的语音克隆并伪造假文章。 为了避免被人工智能深度伪造所愚弄,值得知道它们会带来什么样的危险。 深度伪造的演变 deepfake显示一个人做了现实生活中从未发生过的事情。这完全是假的。当深度伪造作为模因或笑话在互联网上分享时,我们会嘲笑它们,但当它们被用来误导我们时,很少有人觉得很有趣。 过去,deepfakes 是通过拍摄现有照片并在 Photoshop 等图像编辑软件中对其进行更改来创建的。但人工智能deepfake的与众不同之处在于,它可以使用深度学习算法从头开始生成。 Merriam-Webster词典将deepfake定义为: 经过令人信服的更改和操纵以歪曲某人做或说了实际上没有做或说的事情的图像或录音。 但随着人工智能技术的进步,这个定义开始看起来过时了。通过使用人工智能工具,深度伪造现在包括图像、文本、视频和语音克隆。有时,同时使用所有四种AI生成模式。 因为它是一个自动化过程,使用起来非常快速且便宜,所以它是以我们从未见过的速度生产深度伪造的完美工具——所有这些都不需要知道如何编辑照片、视频或音频。 人工智能深度伪造的巨大危险 已经存在许多AI视频生成器,以及大量的AI语音生成器。加入像 gpt-4 这样的大型语言模型,你就有了创建迄今为止我们在现代历史上看到的最可信的深度伪造的秘诀。 了解不同类型的人工智能深度伪造,以及它们如何被用来欺骗你,是避免被误导的一种方法。以下是人工智能深度伪造技术如何构成真正威胁的几个严肃例子。 1.AI身份盗窃 你可能已经见过他们。在第一批真正传播到世界各地的病毒式人工智能深度伪造中,有一张唐纳德·特朗普被捕的照片,以及教皇弗朗西斯穿着白色羽绒服的照片。 虽然人们似乎天真地重新想象着一个著名的宗教人物在罗马寒冷的日子里可能会穿什么;另一幅图像显示了一个政治人物在法律的严重处境中,如果被认为是真实的,后果要大得多。 到目前为止,人们在创建 AI 深度伪造时主要针对名人、政治人物和其他名人。在某种程度上,这是因为名人在互联网上有很多他们的照片,这可能首先有助于训练模型。 在像Midjourney这样的AI图像生成器的情况下 - 用于特朗普和教皇的深度伪造 - 用户只需要输入描述他们想要看到的内容的文本。关键字可用于指定艺术风格,例如照片或照片写实主义,并且可以通过提高分辨率来微调结果。 您可以轻松学习使用Midjourney并自己进行测试,但出于明显的道德和法律原因,您应该避免公开发布这些图像。 不幸的是,作为一个普通的、不出名的人也不能保证你免受人工智能深度伪造的影响。 问题在于AI图像生成器提供的一个关键功能:上传自己的图像并使用AI对其进行操作的能力。像 DALL-E 2 中的 Outpaint 这样的工具可以通过输入文本提示并描述您想要生成的其他内容来将现有图像扩展到其边界之外。 如果其他人对你的照片这样做,危险可能比穿着白色夹克的教皇的深度伪造要大得多——他们可以在任何地方使用它,假装成你。虽然大多数人通常出于良好的意图使用人工智能,但很少有限制阻止人们使用它造成伤害,尤其是在身份盗用的情况下。 2. 深度伪造语音克隆诈骗 在人工智能的帮助下,深度伪造已经越过了我们大多数人都没有准备好的界限:假语音克隆。只需少量的原始音频——可能来自你曾经发布的 TikTok 视频,或者你出现在其中的 YouTube 视频——人工智能模型就可以复制你独一无二的声音。 想象接到一个听起来像家人、朋友或同事的电话既不可思议又令人恐惧。Deepfake语音克隆是一个足够严重的问题,联邦贸易委员会(FTC)已经对此发出警告。 不要相信声音。打电话给据称与您联系的人并验证故事。使用您知道是他们的电话号码。如果您无法联系到您所爱的人,请尝试通过其他家庭成员或他们的朋友与他们取得联系。 《华盛顿邮报》报道了一对70多岁的夫妇接到一个听起来像他们孙子的人的电话。他在监狱里,急需保释金。没有其他理由怀疑他们在和谁说话,他们继续把钱交给骗子。 不仅老一辈人面临风险,《卫报》报道了另一个银行经理在他们认为是银行董事的一系列“深度伪造电话”后批准了一项35万美元交易的例子。 3. 大量制作的假新闻 像 ChatGPT 这样的大型语言模型非常非常擅长生成听起来像人类的文本,我们目前还没有有效的工具来发现差异。在坏人手中,假新闻和阴谋论的制作成本低廉,需要更长的时间来揭穿。 传播错误信息当然不是什么新鲜事,但 2023 年 <> 月在 arXiv 上发表的一篇研究论文解释说,问题在于使用 AI 工具扩大输出有多容易。他们将其称为“人工智能产生的影响力活动”,例如,他们说政客可以利用这种活动来外包他们的政治活动。 结合多个 AI 生成的源会创建一个高级深度伪造。例如,人工智能模型可以生成一个写得很好且令人信服的新闻故事,与唐纳德·特朗普被捕的虚假图像一起。这使其比单独共享图像更具合法性。 假新闻也不仅限于图像和写作,人工智能视频生成的发展意味着我们看到更多的深度伪造视频出现。这是小罗伯特·唐尼(Robert Downey Jr.)嫁接到埃隆·马斯克(Elon Musk)的视频上的一个,该视频由YouTube频道Deepfakery发布。 创建深度伪造可以像下载应用程序一样简单。您可以使用像TokkingHeads这样的应用程序将静止图像转换为动画头像,这允许您上传自己的图像和音频,使其看起来像是在说话。 在大多数情况下,它很有趣,但也有可能带来麻烦。它向我们展示了使用任何人的形象是多么容易,使那个人看起来好像说了他们从未说过的话。 不要被 AI 深度伪造所愚弄 深度伪造可以以非常低的成本快速部署,并且所需的专业知识或计算能力较低。它们可以采用生成的图像、语音克隆或 AI 生成的图像、音频和文本的组合的形状。 过去,制作深度伪造要困难得多,而且劳动密集得多,但现在,有了大量的人工智能应用程序,几乎任何人都可以使用用于创建深度伪造的工具。随着人工智能深度伪造技术变得越来越先进,值得密切关注它带来的危险。 |
营业执照 | EDI证 | ©2013-2016 www.16rd.com 深圳一流网络技术有限公司版权所有
一牛网 ( 粤ICP备13053961号 )|SitemapGMT+8, 2023-10-1 20:23