lunes, 24 de mayo de 2021

Deepfake: el fin de la realidad

María Guerrero/ICT-Tecnología


Inventar hechos, deformar la realidad, crear “datos alternativos”: las noticias falsas no son algo nuevo en Internet. Éstas abundan en la Red, ya sean imágenes amañadas, o información falsificada, de modo que separar la realidad de la ficción es cada vez más difícil. Ahora las falsificaciones han alcanzado un nuevo nivel y se llaman deepfakes.


La adopción de tecnologías como la inteligencia artificial (IA) puede aportar grandes dosis de innovación en determinados sectores y profesiones. Es algo que ha quedado más que patente con la apuesta creativa de la agencia publicitaria Ogilvy en el nuevo spot de la cerveza Cruzcampo, donde se ha recreado el rostro, la voz y los gestos de la recordada artista Lola Flores para reivindicar la cultura y la diversidad de Andalucía. Para hacerlo posible se ha empleado la técnica conocida como deepfake, que permite crear audios y vídeos falsos a partir de muestras ya existentes que luego pueden ser manipuladas para unos determinados fines. Como guiño publicitario, funciona y conecta con el público rápidamente que, tras la sorpresa inicial, comprende que se trata de una recreación, pero este uso de la IA puede entrañar también ciertos riesgos de desinformación o fraude entre los usuarios cuando se da en otros contextos.




Si estás activo en las redes sociales, es posible que hayas visto muchas aplicaciones y filtros utilizados para intercambiar caras en imágenes y vídeos. Esa tecnología ha existido durante muchos años, pero rara vez ha producido resultados tan creíbles. Hoy en día, hay varias formas diferentes de intercambiar caras de una manera muy realista. No todos usan IA, pero algunos sí: deepfake es uno de ellos.


Un usuario anónimo publicó en 2017 sus primeras creaciones pornográficas utilizando algoritmos y librerías de imágenes de libre acceso con resultados asombrosos. La técnica de este usuario anónimo se popularizó y pronto surgió la primera app abierta para incorporar un rostro cualquiera a un video existente. Desde Bolsonaro como el Chapulín Colorado  hasta Cristina Kirchner como una Drag Queen de Rupaul, internet se llenó de videos con propósitos básicamente humorísticos, aunque la abrumadora mayoría seguían siendo pornográficos.


Según un análisis del Crime Science Journal, los deepfakes con propósito criminal son el delito basado en inteligencia artificial con mayor poder de daño y el más difícil de derrotar. Entre sus modalidades se encuentran la falsificación extorsiva de secuestros mediante la imitación de voz o imagen en video, la imitación por voz para acceder a sistemas seguros y una amplia gama de extorsiones con videos falsos. Por esto, ha habido muchas reacciones por parte de zonas del mundo y de grandes empresas: China prohibió la difusión de deepfakes sin su correspondiente advertencia y el Estado de California prohibió su utilización con fines políticos en períodos electorales.

Siempre que me han dado alguna charla sobre las redes sociales o sobre Internet, hacen mucho hincapié en la falsificación de las noticias o publicación y en la credibilidad de estas. Y es verdad. No hay que creerse todo lo que vemos por la pantalla y lo que realmente tenemos que hacer es aplicar una mentalidad crítica. Es trabajo de todos hacer de Internet un lugar mejor. Los deepfakes así como otros contenidos falsos circulan por la Red a gran velocidad a través de redes sociales, aplicaciones de mensajería o comunidades virtuales y por eso es muy importante aprender a distinguirlos, desarrollando la capacidad crítica en cada uno de nosotros. 


Este tipo de diversión no es mala en sí misma, pero sus novedosas posibilidades de manipulación sitúan a la sociedad ante varios desafíos, por ejemplo, respecto a la cuestión de la legalidad. Las actrices cuyos rostros pudieron verse en aquellos vídeos pornográficos no dieron en ningún momento su consentimiento. Aparte de su dudosa moralidad, estos vídeos deepfake suponen un claro entrometimiento en el derecho personal a la intimidad, pues podrían incluso dañar la reputación a largo plazo.

 

No hay comentarios:

Publicar un comentario