La Inteligencia Artificial permite hacer algoritmos y predicciones. Pero en los últimos tiempos también ha servido para crear los denominados Deepfakes.. ¿sabes de lo que hablamos?

Los últimos años han estado marcados por el auge y la preocupación ante las noticias falsas. Gigantes de Internet y gobiernos buscan soluciones a uno de los grandes males modernos:

Masas sociales siendo desinformada maliciosamente, algo que puede llegar a tener consecuencias fatales, como la muerte de más de dos decenas de personas en India por la difusión de sus imágenes en WhatsApp como supuestos secuestradores de niños.

Esta tendencia tuvo su vuelta de tuerca con la llegada de los deepfakes, videomontajes hiperrealistas, en forma de falsos vídeos porno protagonizados por famosas creados gracias a algoritmos de aprendizaje automático como TensorFlow.

Unos vídeos que no han hecho más que abrir la lata de lo que será la continuación de las noticias falsas: los deepfakes usados para difundir falsos mensajes pronunciados por personas que nunca los pronunciaron.

El Center for a New American Security (CNAS) es una organización estadounidense sin ánimo de lucro que promueve asuntos de seguridad entre la clase política. En julio de 2018 publicó un estudio sobre usos de la Inteligencia Artificial relacionados con la seguridad nacional.

Dijo sobre los deepfakes que es posible que en menos de cinco años puedan engañar a oídos y ojos no entrenados con tal de “difundir contenido falso, engañoso o hiperpartidista”.

Las manifestaciones públicas de preocupación por este fenómeno van aumentando, con la preocupación central del efecto político que puede tener en la sociedad el avance de este método de desinformación. Incluso hay quien no descarta que sean los propios estados quienes utilicen los deepfakes a su beneficio.

Andrew Grotto, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, afirmó en un artículo de AP News que los estados no podrán resistirse a usarlos para manipular la opinión pública.

También se atrevió a rebajar el plazo fijado por el CNAS, ya que dijo que en “uno o dos años será realmente complicado para las personas distinguir entre vídeos reales y falsos”..

¿Qué opinas? Mira el siguiente video de nuestro compañero Iván Martínez y déjanos tu comentario más abajo.

VER TAMBIÉN ▶ El lado oscuro del 10 años challenge: Un nuevo “reconocimiento facial”

Dejar respuesta

Please enter your comment!
Please enter your name here