Cicuta News - Opinión - 04/09/2020
Por: José Sobrevilla
Cuando editamos un video o escribimos una nota, existen muchas formas de entrarle y/o abordarlos; es ahí que el periodista o editor le imprimen su idea o sentido, sea el propio o el de quien paga por el trabajo. Por esa razón se ha dicho siempre que en periodismo la objetividad es “inexistente”. Lo mismo sucede cuando al escribir se aborda un tema. Es más, sin necesidad de trucos, cuando hacemos la edición de un video, el creador está en libertad de enfocar el tema de acuerdo con el material grabado; aunque también puede usar las crestomatías (decir, algo que es útil para aprender) y la RAE define como “Colección de escritos selectos para la enseñanza” y que se basan en el principio ‘Fair Use’, o uso justo, que contienen la mayoría de las legislaciones de derecho de autor del mundo.
En la actualidad, y ante la maraña de información, fueron surgiendo las fakesnews, o noticias falsas, que se han complementado con la manipulación de imágenes, todo ello hecho –casi siempre– a partir de la llamada ‘inteligencia artificial’, como es llamado el campo científico de la informática centrado en la creación de programas y mecanismos que pueden mostrar comportamientos considerados inteligentes.
Aunque poco ha permeado en la opinión pública, actualmente existe una forma de editar videos totalmente falsos de personas aparentemente reales; esto a partir de ‘algoritmos’ (Conjunto ordenado de operaciones sistemáticas que permiten hacer un cálculo para la solución de un problema) de aprendizajes no supervisados. Se trata de las DeepFake, término que proviene del acrónimo inglés fake, falsificación, y deep learning, aprendizaje profundo y que refiere la técnica de inteligencia artificial para la edición de vídeos falsos, conocido en español como RGA (Red Generativa Antagónica), esto a partir de vídeos o imágenes ya existentes.
En México tenemos el dicho “ver para creer”, pero la nueva realidad nos ha enseñado que no todo lo que se ve puede ser cierto. En España, por ejemplo, la universidad Complutense de Madrid ha publicado un estudio donde 86% de su población ha caído en el engaño de las noticias falsas o fakenews. Pese a que 60% de ellos consideraban saber detectarlas, sólo 14% las podía diferenciar y el 4% de los españoles las habían creado y distribuido, según ha difundido www.iebschool.com.
La Red Generativa Antagónica, RGA, se ha utilizado en películas como Star Wars en 2016, pero el origen, asegura Victoria González (Muy Interesante/España), comenzó con el filtrado de videos porno por un usuario de la red Reddit (Comunidad multitemática norteamericana creada en 2005) donde se añadían caras de actrices famosas. El alias utilizado por este hacker era Deepfake y para realizar sus videos requería únicamente de su ordenador personal y un algoritmo de aprendizaje automático; con ello era capaz de manipular imágenes fijas al vídeo con resultados profesionales extremadamente realistas.
Siguiendo su ejemplo, otro usuario llamado Deepfakeapp lanzó una aplicación que permitiría a cualquier novato informático manipular videos. Se trataba de “una herramienta diseñada especialmente para las llamadas ‘pornovenganzas’, es decir, la publicación no autorizada y malintencionada de imágenes comprometidas de ex amantes” [1].
Un informe elaborado por DeepTrace Tecnologies (www.deeptracetech.com) señalaba que el 96% de los vídeos falsos seguían siendo de carácter pornográfico. Sin embargo, en 2018, fue difundido un vídeo falso en el que un supuesto Barak Obama llamaba imbécil a Donald Trump. “Se trataba de una grabación falsa en la que el actor Jordan Peele y el CEO de Buzzfeed Jonah Peretti intentaban concientizar del peligro de la información no verificada y de los Deepfake”.
Una amenaza bastante real
Bien lo decía el ABC de España “no hace falta ser una lumbrera de la informática para poner al líder político en turno a decir cualquier cosa”. Por ejemplo, el reciente hackeo al Foro mexicano del Colegio de Notarios (26-08-2020) vía Zoom, donde participara Santiago Nieto, titular de la Unidad de Inteligencia Financiera, donde –de pronto– durante la transmisión, aparecieron imágenes pornográficas y el rostro del ya conocido “Anonymous”[2].
Deeptrace, la firma danesa de ciberseguridad, en un estudio publicado en octubre de 2019 señalaba ya que el fenómeno de los ultrafalsos crecía tan rápido que, en los siete primeros meses de 2019 se habían detectado 14.678, casi el doble que 2018.
Para David Sancho, responsable de investigación de Trend Micro, ciberseguridad, quienes crearon este tipo de software han refinado mucho sus capacidades e, incluso, algunos lo han hecho de acceso libre, de tal modo que cualquiera puede acceder gratuitamente a la herramienta (Zao, Doublicat, Familiar, Morphin, Reflect[3]). Mientras que Panda seguridad teme posibles consecuencias del uso de estas herramientas por personas ‘malintencionadas’. “Pueden ser tan indistinguibles que en algún momento serán necesarios dispositivos que los detecten para evitar fraudes telefónicos, financieros, políticos, fake news y todo tipo de trampas en las que puedan engañarnos suplantando la identidad de alguien”[4].
Se imagina, dice Andrea Hickerson, directora de la Escuela de Periodismo y Comunicaciones Masivas de la Universidad de Carolina del Sur, “¿Qué sucedería si un video deepfake retratara a un líder político incitando a la violencia o al pánico? ¿Podrían otros países verse obligados a actuar si la amenaza fuera inmediata?"
No hay que olvidar, –explica la catedrática– que hay más de 30 naciones involucradas de manera activa en la guerra cibernética en cualquier momento, por lo que la mayor preocupación con los deepfakes podrían ser cosas como el sitio web mal concebido Deepnudes, donde semblantes de celebridades y los rostros de mujeres comunes pudieron superponerse a videos pornográficos, razón por la que su creador desistió de continuar con ella.
La exposición es tan real que Nisos, otra empresa de ciberseguridad (Alexandria, Virginia), ha alertado –también– que “los piratas informáticos están utilizando el aprendizaje automático para clonar voces; y en un caso documentado, han utilizado audio sintético deepfake en un intento de defraudar a una empresa de tecnología”.
¿Qué es lo que se está haciendo?
Aunque usted no lo crea, no existe nada en las últimas fechas respecto al compromiso de las grandes empresas para combatir las DeepFakes. Solo una nota de enero de este año donde Facebook anuncia que las eliminará de forma inmediata –en caso de detectarlas–, aunque de acuerdo a ciertos criterios.
Lo más reciente, 13 de agosto/2020, ha sido la nota de Kristina Libby donde consigna que el Comité de Inteligencia de la Cámara de Representantes de los Estados Unidos, después que Donald Trump tuiteó un video falso de la presidenta de la Cámara de Representantes, Nancy Pelosi, envió una carta a Twitter, Facebook y Google preguntando cómo los sitios de redes sociales planeaban combatir los Deepfakes en las elecciones de 2020[5].
Antes de concluir es importante decirle que instituciones gubernamentales como DARPA e investigadores de universidades como Carnegie Mellon, la Universidad de Washington, la Universidad de Stanford y el Instituto Max Planck de Informática también han estado experimentando con tecnología deepfake. Disney –por ejemplo– ha tenido logros muy notables, pero, así como las organizaciones están estudiando cómo utilizar la tecnología GAN, también estudian cómo combatirla.
¿Cómo se hace una DeepFake? Ver: https://www.youtube.com/watch?v=nU0r-5vJUH0
MÁS INFORMACIÓN:
[1] https://www.genbeta.com/web/reddit-que-es-por-que-tiene-tanto-trafico-y-como-se-mantiene [2] https://www.eluniversal.com.mx/opinion/periodistas-el-universal/meten-fotos-porno-en-zoom-con-santiago-nieto [3] https://www.xatakandroid.com/aplicaciones-android/cinco-aplicaciones-para-crear-divertidos-deepfakes-android [4] https://www.abc.es/tecnologia/redes/abci-deepfake-nueva-amenaza-para-democracia-y-empresas-esta-alcance-cualquiera-202001240158_noticia.html [5] https://www.popularmechanics.com/technology/security/a28691128/deepfake-technology/
Comments