El video del escándalo

Escuchar este artículo

El video del escándalo

Septiembre 19, 2019 - 11:40 p.m. Por: Ossiel Villada

¿Ya vieron el video en el que uno de los candidatos a la Alcaldía de Cali que dice ser animalista le da tres patadas a un perro callejero? ¿Y el del otro candidato que aparece reunido con un reconocido ex político condenado por corrupción? ¿Les llegó el de una candidata a la Gobernación desnuda?

No se alarmen. A mí tampoco me han llegado. En realidad, ninguna de esas piezas existe, porque ninguna de esas situaciones ha ocurrido. O por lo menos, no que sepamos.

Pero no se extrañen si les llegan. Podría pasar. Ahora mismo, alguien en Cali podría estar al frente de un computador ‘creando’ alguna de esas piezas con el fin de difundirla en las redes sociales y hacer daño.

‘DeepFake’. Ese es el término de moda en el mundo. Se denomina así a la nueva forma que han asumido las ‘fakenews’. Una tan asombrosa como peligrosa. Lo que hemos conocido hasta hoy, sobre el impacto negativo de las falsas noticias, es absurdamente ridículo frente al poder destructivo de un ‘Deep’.

En términos simples, se trata de una tecnología que permite ‘convertir’ a alguien que aparece en un video, en otra persona distinta. Para lograrlo utiliza poderosos algoritmos de inteligencia artificial.

Lo explico con los ejemplos iniciales: alguien podría grabar a una persona pateando un perro callejero en Cali y luego reemplazar la imagen de esa persona por la de un candidato a la Alcaldía. O alguien podría tomar un video pornográfico y reemplazar a una de las actrices que allí aparece por la imagen de una candidata a la Gobernación.

¿Se imaginan el impacto si alguna de esas dos piezas hipotéticas llegara a ser publicada en Facebook o difundida a través de cadenas de WhatsApp?

No hablamos de ciencia ficción. Los ‘DeepFakes’ están en auge en Estados Unidos y Europa. Ya fueron creados y difundidos falsos videos pornográficos con las imágenes de famosas actrices. Hace pocos meses Nancy Pelosi, líder demócrata y posible rival de Donald Trump, fue ‘puesta’ en un falso video en el que aparece borracha. Hace menos de dos meses fue retirada de internet una aplicación capaz de tomar la foto de una mujer y recrear la imagen de cómo se vería desnuda.

Basta ir a Google y digitar las palabras ‘bill hader deepfake tom cruise’ para ver un impresionante ejemplo. Su creador hace ‘aparecer’ a Tom Cruise en el video de un programa de televisión en el que se entrevistó a un famoso comediante. Ese programa se grabó hace once años. Pero el cambio del rostro es tan sutil, que nadie entiende cómo es que Cruise aparece y desaparece. Simplemente aterrador.

Pero lo más preocupante de esta realidad no es el uso incorrecto que se está haciendo de la tecnología de Inteligencia Artificial. Lo realmente grave y alarmante es constatar el grado de extrema estupidez al que está llegando la especie humana en el Siglo XXI. Y me refiero, específicamente, a esa condición casi natural que lleva hoy a millones de personas a creer que todo lo que les llega a través de WhatsApp y las redes sociales, es cierto.

No vamos más lejos. Hace solo cuatro días alguien tomó la fotografía de una entrevista que El País le había hecho al candidato Alejandro Eder, le cambió el título a la nota para hacerlo aparecer diciendo que iba a “vender Emcali a los paisas” y la difundió por Twitter. Muchos la dieron como real.

Ese mismo fenómeno ocurrió en el Plebiscito por la Paz del 2016 y se potenció en las pasadas elecciones presidenciales, impulsado desde todas las ‘bodegas’ políticas.

Haga el ejercicio en su familia: ¿Cuántos hoy replican cadenas, fotos o videos sin ni siquiera preguntarse si son reales? El problema no es la tecnología, somos nosotros.

El problema es que nos gusta el matrimonio entre desinformación e indignación. El problema es que elegimos aquello que nos reafirma en nuestras convicciones, así no sea real. El problema es que preferimos la estupidez.

Conecta con la verdad. Suscríbete a elpais.com.co
VER COMENTARIOS