Estudio revela mercado de deepfakes sexuales en plataforma con inversión VC
Civitai, respaldada por Andreessen Horowitz, facilita la compra de archivos para generar deepfakes pornográficos de mujeres reales.
Una investigación de las universidades de Stanford e Indiana reveló que Civitai, una plataforma para comercializar contenido generado por IA respaldada por Andreessen Horowitz, facilita la creación de deepfakes sexuales no consensuales de mujeres reales.
El estudio analizó las solicitudes de contenido llamadas "bounties" entre mediados de 2023 y finales de 2024, encontrando que 90% de los pedidos de deepfakes se dirigían a mujeres. Los usuarios solicitan archivos de instrucciones llamados LoRAs que permiten a modelos como Stable Diffusion generar contenido pornográfico de figuras públicas como influencers y cantantes.
El mercado funciona con pagos que van de 50 centavos a 5 dólares, utilizando la criptomoneda interna "Buzz". Los pedidos especifican detalles como reproducir tatuajes o modificar el color de cabello, e incluyen enlaces a perfiles de redes sociales para capturar imágenes.
La plataforma no solo proporciona la infraestructura, sino que enseña explícitamente a los usuarios cómo utilizar herramientas externas para personalizar generadores de imágenes pornográficas. Aunque Civitai prohibió todo contenido de deepfakes en mayo de 2025, numerosas solicitudes anteriores permanecen activas.
Los problemas financieros reflejan las consecuencias: en mayo de 2025, su operadora de tarjetas de crédito interrumpió servicios por el contenido no consensual, obligando a los usuarios a utilizar criptomonedas o tarjetas regalo.
Según Ryan Calo, experto en derecho tecnológico de la Universidad de Washington, las empresas y firmas de capital de riesgo son "excesivamente tolerantes" con los deepfakes de adultos, a diferencia del abuso sexual infantil que recibe mayor atención.
Este caso ilustra un problema global que afecta especialmente a América Latina, donde las regulaciones sobre deepfakes y violencia de género digital aún están en desarrollo, dejando a las víctimas con pocas herramientas legales de protección.
Fuente original: MIT Technology Review Brasil
Este resumen fue generado con asistencia de IA y revisado editorialmente por Algoré.