Las redes sociales comienzan a "saborear" lo amargo de la IA generativa
A medida que las redes sociales avanzan rápidamente con nuevas funciones de IA, los usuarios ya están haciendo mal uso de ellas.
Hace unas semanas, celebridades como el actor Tom Hanks, la periodista de televisión Gayle King y el youtuber MrBeast denunciaron diferentes estafas que se produjeron con sus imágenes por medio de la técnica 'deepfake'. Por su parte, estos nuevos 'IA stickers' ya han generado polémica, ya que varios informes mostraban que los usuarios creaban fácilmente contenidos polémicos. La Oficina del Comisionado de Información del Reino Unido (ICO) emitió un aviso preliminar a Snap por el "posible fallo" de la red social a la hora de identificar y evaluar los riesgos para los niños en relación con su chatbot "My IA".
Estos problemas probablemente no son sorprendentes, especialmente después de que los expertos hayan pasado el último año advirtiendo de los riesgos de la desinformación relacionada con la IA y los riesgos para la privacidad de los datos. Sin embargo, muestran cómo todas las preocupaciones son algo más que meras hipótesis, y ofrecen ejemplos concretos de cómo la IA podría acelerar los mismos males de la Web2.
Los organismos reguladores de EE.UU. también siguen estudiando cómo la IA generativa podría afectar a diversos sectores y a los consumidores en general. La semana pasada, la Comisión Federal de Comercio estadounidense organizó una mesa redonda virtual para abordar los problemas de derechos de autor y otras cuestiones con varios autores, artistas y otros. Participaron Jen Jacobsen, directora ejecutiva de la Artist Rights Alliance; Duncan Crabtree Ireland, director ejecutivo nacional y negociador jefe de SAG-AFTRA; y Umair Kazi, director de política y defensa de la Authors Guild.
"La capacidad de crear una voz sintética con tan solo tres segundos de audio grabado es fácil, sencilla y peligrosa", afirmó Tim Friedlander, presidente y fundador del National Association of Voice Actors, que también participó en la mesa redonda.
"El audio sintético puede utilizarse para engañar a los consumidores haciéndoles creer que una voz de confianza se está comunicando con ellos", afirmó Friedlander. "Como mínimo, los consumidores deberían saber cuándo se utiliza IA para generar voces y recibir una advertencia de que la información que van a recibir puede no ser exacta. También nos acercamos a unas elecciones y sabemos que se utilizarán voces sintéticas, ya se han utilizado. Y es posible que cualquiera utilice estas voces para desinformar. Nadie, ni un actor de doblaje ni nadie, quiere ser la voz reconocible de la desinformación en estas próximas elecciones".
En España ocurre una situación parecida, tal y como afirma a maldita.es, Nieves Ábalos, cofundadora de Monoceros Labs asegura que “cualquier audio con la voz de una persona, ya de redes sociales como TikTok, o de otras plataformas como WhatsApp podría ser utilizado por alguien con fines maliciosos, aunque sea ilegal”.
Para ponerlo más difícil aplicaciones de mensajería como Telegram o WhatsApp usan un cifrado de extremo a extremo. Eso quiere decir que solo tú o la persona con la que hables podrá accedes a dichos mensajes, dejando fuera a posibles timadores. Para que los estafadores tuvieran éxito tendrían que acceder al control de nuestro dispositivo y a sus archivos.
Algunos modelos de lenguaje como el de Eleven Labs podría clonar voces con solo un minuto de audio. Pero otros programas como VALL-E de Microsoft puede imitar el habla de una persona a partir de tres segundos de audio, poniendo el foco en la facilidad de suplantar identidades.