En los últimos años, hemos sido testigos de cómo la inteligencia artificial (IA) ha transformado numerosos aspectos de nuestra vida cotidiana. Sin embargo, no todas sus aplicaciones son motivo de celebración. Recientemente, ha salido a la luz cómo ciertas aplicaciones y sitios web están utilizando la IA para generar imágenes no consentidas de personas, incluyendo material de abuso sexual infantil, generando millones de dólares anuales. Este fenómeno no solo representa una violación grave de la privacidad y dignidad de las víctimas, sino que también plantea serias cuestiones éticas sobre el uso de la tecnología.
Según una investigación reciente, estos sitios web, que permiten a los usuarios ‘desnudar’ digitalmente a personas en fotos con solo unos clics, están operando con la ayuda de servicios tecnológicos de gigantes como Google, Amazon y Cloudflare. A pesar de los esfuerzos de algunos legisladores y empresas por limitar estos servicios, la demanda sigue siendo alarmantemente alta, con millones de visitantes mensuales. Lo más preocupante es que estos sitios no solo están proliferando, sino que también están encontrando nuevas formas de monetizar su contenido, desde suscripciones hasta programas de afiliación, lo que sugiere una profesionalización de esta industria ilícita.
Frente a esta situación, expertos en seguridad en línea y defensores de los derechos digitales están llamando a una acción más contundente por parte de las empresas tecnológicas y los reguladores. Aunque se han dado algunos pasos en la dirección correcta, como demandas contra servicios de generación de imágenes no consentidas y nuevas legislaciones, queda claro que se necesita un enfoque más integral y proactivo para combatir este problema. La era de la IA generativa nos ha traído avances increíbles, pero también desafíos sin precedentes que requieren de nuestra atención y acción colectiva.