格罗克‘火辣’视频模式:一用就出泰勒·斯威夫特裸体深度伪造

格罗克‘火辣’视频模式:一用就出泰勒·斯威夫特裸体深度伪造

2025-08-09Technology
--:--
--:--
卿姐
早上好,韩纪飞,我是卿姐,这里是专属于你的Goose Pod。今天是8月10日,星期日。
小撒
我是小撒!今天我们来聊一个相当“火辣”的话题:格罗克那个全新的视频模式,据说手指一点,就能生成泰勒·斯威夫特的深度伪造裸体视频。这科技跑得太快,伦理和法律的裤子都快被甩掉了!
小撒
Let's get started... 说真的,这个Grok Imagine的新功能,尤其是那个“火辣”模式,简直就像一个等着被引爆的法律炸弹。别的视频生成器,比如谷歌的Veo或者OpenAI的Sora,都还在小心翼翼地设置护栏,防止名人滥用。
卿姐
但Grok似乎反其道而行之,不仅不禁止,甚至将“名人”与“不雅内容”这两个敏感元素同时作为卖点。我看到报道里说,用户根本不需要特意输入“脱掉她的衣服”这样的指令,这实在是令人不寒而栗。
小撒
没错!记者只是尝试生成“泰勒·斯威夫特和朋友们庆祝科切拉音乐节”的图片,Grok就给出了30多张选择,好几张的穿着已经相当暴露了。这简直是在诱导犯罪啊!从这儿到生成一个裸体视频,只需要轻轻一点。
卿姐
从一张身着银色短裙和挂脖上衣的照片,到撕掉衣服、开始跳舞的视频,中间只隔了一个“火辣”按钮和一次形同虚设的年龄验证。技术本应向善,但这种设计却轻易地打开了潘多拉的魔盒。
小撒
而且这个年龄验证简直是笑话!下载App时没问,生成视频时才问,而且随便填个年份就通过了,完全不需要任何证明。我都能做到,那意味着任何一个有iPhone和每月30美元订阅费的人都能做到。
卿姐
虽然报道也提到,生成的面部效果并不完美,有一种“恐怖谷”效应带来的怪异感,但依然能够清晰地辨认出是她本人。这种对个人形象的侵犯,无论多么不完美,其伤害性都是真实存在的。
小撒
最讽刺的是,你如果直接让它生成裸体图片,它会给你看一堆空白方块,说明它有这个审查能力。但“火辣”模式就像一个后门,绕过了这个限制。它不保证每次都裸体,但好几次默认选项就是直接“一键脱衣”。
卿姐
就如同那句警示所言,“技术没有人文的约束,就是一匹脱缰的野马”。它有能力辨别,却选择性地“失明”,这背后的逻辑和价值观导向,才是最值得我们深思和警惕的地方,不是吗?
小撒
绝对是!而且马斯克还在炫耀,说Grok Imagine上线以来,已经生成了超过3400万张图片,用户使用量“像野火一样蔓延”。这火要是烧错了地方,可就不是燎原之势,而是引火烧身了。
卿姐
考虑到这家公司与泰勒·斯威夫特的深度伪造内容早有“前缘”,又面临着像《下架法案》这样日益严格的监管环境,他们的做法就更显得鲁莽和不负责任。这不仅仅是技术问题,更是企业伦理的缺失。
小撒
他们的可接受使用政策里,白纸黑字写着禁止“以色情方式描绘人物肖像”,但Grok Imagine似乎什么都没做来阻止用户生成名人肖像,同时又提供一个专门制作暗示性视频的服务。这不就是自相矛盾吗?
卿姐
其实,这并非这位才华横溢的歌者第一次陷入这样的风波。就如同那句诗所说,“树大招风风撼树”,声名鹊起之时,也往往是非议所集之处。早在2024年1月,就有一次大规模的类似事件。
小撒
对,那次更夸张!那些伪造图片最早出现在4chan社区,甚至有一个Telegram群组专门讨论如何绕过AI图像生成器的审查机制。其中一张图片在X平台,也就是以前的推特,被删除前,浏览量超过了4700万次!
卿姐
四千七百万次,这背后是多么巨大的恶意传播和对个人尊严的践踏。我记得当时,她的粉丝们,也就是“Swifties”,自发地行动起来,发起了#ProtectTaylorSwift 的话题,用积极的内容去覆盖那些恶意的标签。
小撒
没错,粉丝们用爱发电,筑起了一道“数字长城”。但平台方的反应就有点慢半拍了。X平台虽然表示会暂停传播图片的账户,甚至一度屏蔽了对斯威夫特名字的搜索,但他们的“合成与操控媒体政策”还是被批为效果不彰。
卿姐
我想,这大概就是技术发展中,我们常常看到的景象:伤害已经发生,规则才姗姗来迟。微软作为当时被认为用于制作这些图像的AI工具提供方,也加强了模型以防止未来的滥用。亡羊补牢,虽是必要,但总令人惋惜。
小撒
当时连白宫都惊动了!新闻秘书卡琳·让-皮埃尔都出来表示担忧,强调社交媒体平台有责任。微软CEO萨提亚·纳德拉也说这事“令人震惊和可怕”,呼吁建立一个更安全的网络世界。你看,这已经不是娱乐八卦,而是社会安全问题了。
卿姐
是的,当技术被用于制造非自愿的色情内容时,它就变成了一种武器。这也直接催生了立法行动。美国参议员们提出了一项跨党派法案,允许受害者起诉那些制作或持有意图传播的“数字伪造品”的人。
小撒
欧洲那边动作也很快,欧盟在2024年2月就一项法案达成协议,目标是在2027年中期之前,将深度伪造色情制品和网络骚扰定为刑事犯罪。你看,这就像是给AI内容审核装上了更锋利的牙齿。说到审核,这本身就是一场道高一尺魔高一丈的战争。
卿姐
确实如此。如今,大部分内容审核决策已经由机器而非人类做出,而且这个趋势还在加速。生成式AI的出现,让高质量的伪造内容制作变得轻而易举,这给审核带来了前所未有的挑战。我们仿佛进入了一个全新的“数字丛林”。
小撒
没错,平台就像是这个丛林的管理员。他们必须用AI来对抗AI。比如用关键词过滤、哈希值匹配,还有更高级的机器学习。哈希值匹配就像是给每一张已知的违规图片一个独一无二的“数字指纹”,比如微软的PhotoDNA,一旦发现就地正法。
卿姐
这个比喻很生动。但“指纹”技术也有局限,如果图片被裁剪或调整尺寸,它可能就认不出了。所以还需要机器学习这样更聪明的“警犬”,去嗅出那些前所未见的、经过伪装的有害内容。但训练“警犬”又需要样本,这就陷入了法律和伦理的困境。
小撒
是的,你总不能为了训练AI去识别儿童色情,就建立一个巨大的儿童色情数据库吧?这在法律和道德上都说不通。所以你看,Meta公司旗下的Facebook和Instagram,在2021年上半年就移除了数百万条相关内容,但这背后是无数算法和人工审核员的艰苦努力。
卿姐
谷歌的副总裁苏珊·贾斯珀曾说,“我们依赖两种同等重要的技术来主动识别儿童性虐待材料:哈希匹配和人工智能。” 她也强调,AI不是要取代人类审核员,而是辅助他们的工具。这句话道出了当下人与技术关系的真谛。
小撒
一点没错!就像2018年Tumblr因为CSAM传播被苹果下架,或者2022年马斯克放松推特审核政策导致广告商大规模出走一样。内容审核一旦松懈,法律后果、经济损失、品牌声誉的打击,都是实实在在的。所以,这根本不是一个“要不要管”的问题。
卿姐
归根结底,我们是在与一种利用人性弱点、挑战社会底线的技术滥用行为作斗争。从泰勒·斯威夫特的遭遇,到更广泛的非法内容治理,我们看到的是一条漫长而艰难的道路,需要技术、法律、企业责任和公众意识共同前行。
小撒
这就引出了一个经典的老大难问题:自由和安全的跷跷板。平台总说‘我们正在努力寻找一个微妙的平衡’,既要维护言论自由,又要保护用户免受伤害。但这个平衡点到底在哪?感觉就像在走钢丝,下面是万丈深渊。
卿姐
这确实是一个“微妙的平衡”。它要求我们像高超的艺术家一样,在画布上调和最冲突的色彩。一方面,我们不希望扼杀创新的火花和表达的自由;另一方面,我们必须为善良和安全划定一条不可逾越的红线。
小撒
所以很多公司就搞起了“自愿承诺”。你听听这些名字,OpenAI、谷歌、微软、Meta,甚至马斯克的xAI,都发布了各种“安全框架”、“风险管理框架”,听起来特别高大上。但这里面,就有乐观派和悲观派的巨大分歧。
卿姐
我们先听听乐观的看法。他们认为,现有的法律其实已经可以处理很多AI引发的犯罪行为了。比如之前有人用AI模仿拜登总统的声音进行电话诈骗,最终就被依据《电话消费者保护法》处以重罚。这说明,旧的法律工具箱里,也能找到新扳手。
小撒
而且,他们觉得对一个还没完全搞懂的东西进行过度监管,可能会扼杀很多有益的创新,就像《国家环境政策法》那样,过度的审查流程拖垮了无数项目。所以,让行业先自愿探索,形成最佳实践,这本身就是监管演变中一个有价值的阶段。
卿姐
是的,就如同航空安全标准一样,很多最初都是行业内部的实践,后来才逐渐被编入法典。当一种做法在自愿的环境中被证明行之有效,它就为立法提供了宝贵的先例和证据,证明这项规定是可行的,不会适得其反。
小撒
好,现在轮到悲观派登场了,我个人比较站这边。他们认为,所谓的“自愿承诺”很容易变成“安全作秀”。当市场状况或战略利益发生变化时,公司可以随时退出,几乎没什么直接后果。今天信誓旦旦,明天就可能抛之脑后。
卿姐
这种担忧不无道理。企业毕竟是以盈利为目的的。当面临激烈的市场竞争时,就可能出现一种“囚徒困境”:即使所有人都知道谨慎行事对整个行业更好,但为了不落后于竞争对手,单个公司可能会被迫在安全问题上“抄近路”。
小撒
完全正确!这就是一场“逐底竞赛”。更可怕的是,AI不像其他技术,它的失败可能是不可逆转的。传统行业可以“尝试、失败、学习、改进”,但AI的重大失败,可能一次就够我们受的了。没有那么多试错的机会。
卿姐
OpenAI的前政策研究主管迈尔斯·布伦达奇就警告说,先进AI系统可能在几年内就超越人类能力,而我们的政策框架完全没有为此做好准备。这就像是,我们还在为一辆马车该如何行驶而争论,而一架超音速飞机已经呼啸而来了。
小撒
所以,这场关于监管的冲突,本质上是两种世界观的碰撞。一种是渐进式的,相信市场和行业自律能慢慢找到方向;另一种是紧迫式的,认为AI的颠覆性太强,必须用更强有力的早期护栏来防范潜在的巨大风险。而Grok这次的事件,无疑给后者增添了最有力的论据。
卿姐
我想,这大概就是技术发展必然会经历的阵痛期。当公众的信任被一再透支,反弹的力量也便随之而来。有民调显示,高达72%的美国成年人对AI感到担忧,这并非无的放矢,而是真实焦虑的回响。
小撒
这种担忧五花八门,有担心隐私泄露的,有害怕网络安全风险的,还有对算法里隐藏的种族和性别偏见感到不安的。而且这种担忧是跨越政治派别的。你看,尽管一些科技领袖说AI监管没必要,但现实中的问题和公众的疑虑才是最真实的。
卿姐
当人们因为技术滥用而对新兴技术失去信任时,它的普及速度就会减慢,同时也会激起更多要求监督和监管的呼声。这是一个历史规律。行业领袖们越是坦诚面对AI的能力和挑战,才越能维护整个行业的长期生命力。
小撒
没错,你不能一边让AI生成“幻觉”,也就是凭空捏造事实,一边又说一切尽在掌握。现在生成式AI产生的虚假内容,甚至被整合进大语言模型里,这简直是“污染源”自己处理“污染物”,能处理干净吗?
卿姐
这种影响也延伸到了工作领域。过去的自动化主要冲击蓝领的重复性劳动,但生成式AI不同,它开始挑战需要认知和非重复性技能的工作,比如编程、写作、分析。这直接触及了中高收入的白领阶层。
小撒
是的,以前我们以为AI是来流水线搬砖的,没想到它直接坐进了办公室,开始写报告、编程了。而且研究发现,女性在这次变革中受到的冲击可能更大,因为她们在白领和行政支持类岗位中的比例更高。
卿姐
这确实是一个巨大的社会影响。报告指出,超过30%的劳动者的工作任务,可能会有至少一半被生成式AI颠覆。我们还没有为这种潜在的风险和机遇做好充分准备,无论是政策、商业实践还是劳动者权益保障方面。
小撒
所以,你看,从一个看似娱乐化的深度伪造事件,我们看到了公众信任的动摇、监管压力的增大,以及对未来工作模式的深远影响。这就像投入湖中的一颗石子,它的涟漪会扩散到社会的每一个角落。
小撒
正所谓“无规矩不成方圆”。展望未来,法律层面的交锋会越来越激烈。现在《纽约时报》已经把微软和OpenAI告上了法庭,核心就是版权问题。这就像往平静的湖面扔下了一块巨石,整个行业都得思考:我的训练数据从哪来?合不合法?
卿姐
这确实会催生出新的数据许可模式。我们看到,出版商正在推动AI公司更清晰地披露数据来源和训练方法。谷歌也提出用DeepMind的水印技术来标记AI生成的图像。这些都是为了在信息的源头建立起一种秩序和透明度。
小撒
没错。但还有一个更狡猾的问题,就是所谓的“骗子红利”。就是说,因为深度伪造的存在,真正的丑闻也可能被当权者轻易地斥为“AI生成”的假货。在今年的全球选举年,这可是一个巨大的威胁,它会严重破坏民主讨论的根基。
卿姐
这是对信息完整性的深层侵蚀。未来,我们不仅需要能够识别“假”的技术,更需要捍卫“真”的共识和机制。在信息真假难辨的时代,捍卫真相本身,就成了一种公民责任。我们需要更精密的“滤网”,也需要每个人心中都有一把辨别是非的“标尺”。
小撒
所以,未来的方向一定是加强监管、明确责任、技术向善。无论是欧盟的AI法案,还是各国的应对措施,都是在为这匹飞速奔跑的AI野马套上缰绳。最终目标,是让它为人服务,而不是让人类活在它制造的真假迷雾之中。
小撒
好了,今天的讨论也差不多了。从Grok一个“火辣”的功能,我们一路聊到了技术伦理、法律监管和社会的未来。这信息量真是够“火辣”的!
卿姐
感谢您的收听,韩纪飞。这就是今天的Goose Pod。我们明天再会。

## Grok's "Spicy" AI Video Tool Generates Uncensored Celebrity Deepfakes, Raising Legal and Ethical Concerns **News Title:** Grok’s ‘spicy’ video setting instantly made me Taylor Swift nude deepfakes **Report Provider:** The Verge **Author:** Jess Weatherbed **Published Date:** August 5, 2025 This report details significant concerns regarding the "spicy" mode of xAI's new generative AI video tool, Grok Imagine. Unlike competitors such as Google's Veo and OpenAI's Sora, which have implemented safeguards against Non-Consensual Sexual Content (NSFW) and celebrity deepfakes, Grok Imagine appears to readily generate such material. ### Key Findings and Concerns: * **Uncensored Celebrity Deepfakes:** The most alarming finding is Grok Imagine's ability to produce uncensored topless videos of celebrities, specifically Taylor Swift, without explicit prompting for nudity. The author reported that the tool generated such content on the first use, even when not specifically requested. * **"Spicy" Mode Functionality:** Grok Imagine allows users to generate images from text prompts and then convert them into video clips using four presets: "Custom," "Normal," "Fun," and "Spicy." The "Spicy" mode is described as the catalyst for generating suggestive or nude content. * **Ease of Celebrity Image Generation:** The text-to-image generator readily produced numerous images of Taylor Swift when prompted with a request like "Taylor Swift celebrating Coachella with the boys." Several of these initial images already depicted Swift in revealing attire. * **"Spicy" Mode Variability:** While the "Spicy" preset doesn't always guarantee nudity, it can result in suggestive poses or, as demonstrated, the removal of clothing. The author noted that some "spicy" videos showed Swift "sexily swaying or suggestively motioning to her clothes," while others defaulted to "ripping off most of her clothing." * **Inconsistent Nudity Restrictions:** The text-to-image generator itself refused to produce full or partial nudity when directly requested, resulting in blank squares. However, the "spicy" video preset bypasses this restriction. * **Photorealistic Images of Children:** The tool can generate photorealistic images of children, but it reportedly refuses to animate them inappropriately, even with the "spicy" option available. In tests, the "spicy" option on children's images resulted in generic movement. * **Weak Age Verification:** The app's age verification process is described as "laughably easy to bypass," with no proof of age required. This raises concerns about accessibility to potentially harmful content for minors. * **Legal and Regulatory Risks:** The report highlights the potential legal ramifications, especially given xAI's parent company's history with Taylor Swift deepfakes and existing regulations like the "Take It Down Act." The xAI acceptable use policy bans "depicting likenesses of persons in a pornographic manner," yet Grok Imagine appears to facilitate this. * **Widespread Usage:** xAI CEO Elon Musk stated that over **34 million images** have been generated using Grok Imagine since Monday, with usage described as "growing like wildfire." This indicates a significant and rapid adoption of the tool. ### Potential Implications: The findings suggest a significant gap in the safeguards of Grok Imagine compared to its industry peers. The ease with which celebrity deepfakes, including explicit content, can be generated poses serious risks of defamation, harassment, and the spread of misinformation. The lack of robust age verification further exacerbates these concerns, potentially exposing younger users to inappropriate material. The report implies that xAI may be creating a product that is "a lawsuit waiting to happen" due to its lax approach to content moderation and celebrity likenesses.

Grok’s ‘spicy’ video setting instantly made me Taylor Swift nude deepfakes

Read original at The Verge

The “spicy’ mode for Grok’s new generative AI video tool feels like a lawsuit waiting to happen. While other video generators like Google’s Veo and OpenAI’s Sora have safeguards in place to prevent users from creating NSFW content and celebrity deepfakes, Grok Imagine is happy to do both simultaneously.

In fact, it didn’t hesitate to spit out fully uncensored topless videos of Taylor Swift the very first time I used it — without me even specifically asking the bot to take her clothes off.Grok’s Imagine feature on iOS lets you generate pictures with a text prompt, then turn them quickly into video clips with four presets: “Custom,” “Normal,” “Fun,” and “Spicy.

” While image generators often shy away from producing recognizable celebrities, I asked it to generate “Taylor Swift celebrating Coachella with the boys” and was met with a sprawling feed of more than 30 images to pick from, several of which already depicted Swift in revealing clothes.From there, all I had to do was open a picture of Swift in a silver skirt and halter top, tap the “make video” option in the bottom right corner, select “spicy” from the drop-down menu, and confirm my birth year (something I wasn’t asked to do upon downloading the app, despite living in the UK where the internet is now being age-gated.

) The video promptly had Swift tear off her clothes and begin dancing in a thong for a largely indifferent AI-generated crowd.Swift’s likeness wasn’t perfect, given that most of the images Grok generated had an uncanny valley offness to them, but it was still recognizable as her. The text-to-image generator itself wouldn’t produce full or partial nudity on request; asking for nude pictures of Swift or people in general produced blank squares.

The “spicy” preset also isn’t guaranteed to result in nudity — some of the other AI Swift Coachella images I tried had her sexily swaying or suggestively motioning to her clothes, for example. But several defaulted to ripping off most of her clothing.The image generator will also make photorealistic pictures of children upon request, but thankfully refuses to animate them inappropriately, despite the “spicy” option still being available.

You can still select it, but in all my tests, it just added generic movement.You would think a company that already has a complicated history with Taylor Swift deepfakes, in a regulatory landscape with rules like the Take It Down Act, would be a little more careful. The xAI acceptable use policy does ban “depicting likenesses of persons in a pornographic manner,” Grok Imagine simply seems to do nothing to stop people creating likenesses of celebrities like Swift, while offering a service designed specifically to make suggestive videos including partial nudity.

The age check only appeared once and was laughably easy to bypass, requesting no proof that I was the age I claimed to be.If I could do it, that means anyone with an iPhone and a $30 SuperGrok subscription can too. More than 34 million images have already been generated using Grok Imagine since Monday, according to xAI CEO Elon Musk, who said usage was “growing like wildfire.

”Follow topics and authors from this story to see more like this in your personalized homepage feed and to receive email updates.Jess Weatherbed

Analysis

Conflict+
Related Info+
Core Event+
Background+
Impact+
Future+

Related Podcasts