Por. Paty Betaza
Puede ser un video, una imagen o un audio con el que se imite a una persona. Están a la orden del día. Pero lo que está generando alerta es el uso de imágenes pornográficas falsas, deepfake, especialmente de mujeres.
Con ese mal uso de la inteligencia artificial se está dañando principalmente a mujeres, niñas y niños.
La víctima más reciente fue la cantante Taylor Swift, cuyas imágenes pornográficas falsas inundaron la red social X. Antes de que se eliminara, una de esas imágenes falsas de contenido sexual, fue vista por 47 millones de personas en cuestión de horas.
El caso de Taylor Swift ha causado indignación en Estados Unidos. Pero de acuerdo con algunos analistas esto podría llevar a crear leyes que pongan un alto a ese tipo de usos de la inteligencia artificial.
Según expertos, la red social X es una de las plataformas de contenido pornográfico más grande del mundo. Sus políticas son más laxas que Facebook o Instagram.
El problema radica también en que las imágenes falsas son relativamente fáciles de generar y pueden quedar publicadas días u horas antes de ser detectadas. La tecnología va más rápido que cualquier restricción. Ahí el reto.
El caso de Taylor Swift, no ha sido el único de una artista. Sin embargo, debido al fenómeno que ella representa a nivel mundial, podría ayudar a poner un alto al uso de la inteligencia artificial que deja vulnerables especialmente a mujeres y niñas en el mundo y cuyo mal uso puede dejar huellas imborrables.