
.png?width=48&height=48&name=image%20(3).png)
2024年1月30日
随著AI生成的泰勒·斯威夫特(Taylor Swift)色情图片在X(前身为Twitter)上迅速走红,我们不禁要问:这对AI的未来意味著什么?
最近,一些AI生成的在X平台上引发了不安的转变,突显了AI能力的黑暗面。这些图片据信是使用微软设计师(MicrosoftDesigner)创建的,引起了广泛的关注,并彰显了AI生成虚假色情内容日益增加的挑战。
随著这些图片迅速在平台上流传,这一事件不仅引发了粉丝和隐私倡导者的愤怒,还提出了有关AI在媒体创作中伦理使用的关键问题。
Avast的威胁情报总监米哈伊·萨拉特(MichalSalát)为这一时事讨论带来了丰富的知识和专业见解。他精通技术、安全和伦理的交集,对AI生成内容的影响提供了细致的见解。
在接下来的部分中,我们将深入探讨他的观点,探索图像操控的历史平行、AI能力带来的伦理困境,以及在日益以AI为中心的世界中对数位信任和安全的更广泛影响。
萨拉特将当前AI生成逼真图片的能力与过去使用Photoshop的情况进行了比较。正如Photoshop多年前彻底改变了图片处理,现在AI使创建逼真图片变得更为简单。然而,操控图片的概念并不新鲜;AI只是这场持续故事中的最新工具。
“在某种程度上,这只是一种不同的照片编辑软体,”他解释道,强调操控图片的概念已经引发了超过十年的关注。现在的关键区别是AI技术带来的便利性和可及性。这一变化提出了关于社会如何适应和监管这些新工具的重要问题,这些工具使创建逼真图片变得比以往任何时候都更加轻松。
其中一个最紧迫的问题是使用AI生成露骨图片的伦理含义,特别是对特定个体在未获得他们同意的情况下。虽然生成一般的裸体图片可能不引发太多伦理问题,但真正的问题在于轻易地创建可识别人的露骨图片。
“AI生成的色情内容本身并不会有根本的错误或伦理上的问题,”萨拉特说。“但对我来说,伦理上的问题在于你可以相对轻松地生成带有已知或特定面孔的图片。”
这一能力不仅限于像泰勒·斯威夫特这样的名人,还可能扩展到任何人,这强调了制定伦理指导原则和立法的必要性:虽然所谓的“复仇色情”(或未经同意分享的裸体照)在48个州是,但AI生成的深度伪造色情内容目前
或许因为生成性AI的接触相对较新,导致对在未获得主体同意的情况下生成露骨内容的防范措施很少。然而,萨拉特认为,对于AI公司来说,实施这些防范措施并不太困难:不允许生成特定人的图片或使用客户提交的图片作为素材,这样的设置将足以阻止绝大多数人。
“当然,某些人会有能力绕过限制,强迫模型做它不应该做的事情,”萨拉特说。“在我看来,现在几乎不可能完全避免这一点——你只能让它变得更困难。我想说的是,提供这些服务的公司应该更加努力地来避免这一情况。”
也有可能有人创建自己的生成色情内容的模型,且没有任何限制。然而,萨拉特指出,尽管这是可能的,但这需要_大量_的技术知识和_大量_的计算能力。
“并不是每个人都能够自行创建生成裸体图片的AI,”萨拉特说。“因此,这将更像是使用Photoshop,因为你需要具备一定的技能才能做到这一点。”
萨拉特将当前的AI发展状态与安全行业的演变相提并论。他观察到,我们正目睹安全行业“与AI重新开始”。这一类比强调了将AI发展视为一个持续过程的重要性,识别和修复漏洞对于科技的成熟至关重要。
在X平台上生成的泰勒·斯威夫特图片突显了负责任使用AI的重要性。随著AI的持续发展,平衡技术能力与伦理考量和安全措施将是关键。通过向米哈伊·萨拉特等专家学习,并反思过去的挑战,我们可以在这个复杂的领域中采取更知情和小心的方式。
Leave a Reply