Expertos temen que los votantes sean engañados por videos ‘deepfake’

Tribune Content Agency

WASHINGTON — Funcionarios electorales y las empresas de redes sociales, ya desconcertados por los hackers, los trolls y los <i style=”mso-bidi-font-style: normal”>bots, se están preparando para el lanzamiento de un arma de desinformación potencialmente más peligrosa a medida que se acercan la elecciones de 2020: videos manipulados, conocidos como “deepfakes”, que pueden ser casi imposibles de detectar como falsos.

En las salas de consejo de las compañías tecnológicas, los laboratorios universitarios y las sesiones informativas del Pentágono, los tecnólogos en la primera línea de la seguridad cibernética han hecho sonar las alarmas sobre la amenaza, que según dicen ha aumentado notablemente a medida que la tecnología para hacer falsificaciones convincentes está cada vez más disponible.

El martes, los líderes en inteligencia artificial planean presentar una herramienta para combatirla: incluye el software de escaneo que la Universidad de California en Berkeley ha estado desarrollando en asociación con las fuerzas militares de EU, la cual la industria comenzará a proporcionar a periodistas y agentes políticos. El objetivo es dar a los medios y las oficinas de campaña la oportunidad de analizar posibles videos falsos antes de que puedan lanzar a la elección al caos.

El software se encuentra entre los primeros esfuerzos importantes para armar a los periodistas y a las oficinas de campaña de herramientas para combatir los deepfakes. Este enfrenta obstáculos formidables, tanto técnicos como políticos, y los desarrolladores dicen que no hay tiempo que perder.

“Tenemos que tomarnos en serio esto”, advirtió Hany Farid, profesora de ciencias de la computación en UC Berkeley que trabaja con una organización sin fines de lucro de San Francisco, la Fundación IA, para enfrentar la amenaza de los deepfakes.

“Dado lo que ya hemos visto con la interferencia, no se necesita mucha imaginación para ver lo fácil que sería”, agregó. “Hay poder real en las imágenes de videos”.

La preocupación que se ha apoderado de los innovadores de la inteligencia artificial es que un video falso aparezca días antes de una elección importante y lleve a la contienda al caos. Tal vez podría ser un video que pretenda mostrar al presidente Donald Trump conspirando para enriquecerse gracias a la presidencia o a Joe Biden tramando un acuerdo con los cabilderos de la industria, o a la senadora Elizabeth Warren burlándose de los nativos americanos.

La preocupación va mucho más allá de la pequeña comunidad de científicos.

“Hace apenas seis meses, esto era algo disponible solo para personas con cierto nivel de sofisticación”, dijo Lindsay Gorman, miembro de la Alianza para Asegurar la Democracia, un grupo de análisis bipartidista. Ahora, el software para hacer falsificaciones en video convincentes está “disponible para casi todos”, afirmó.

“El problema de los deepfakes se está extendiendo. No hay razón para pensar que no se utilizarán en estas elecciones”.

Facebook ha lanzado su propia iniciativa para acelerar el desarrollo de tecnología para detectar videos manipulados, y está discutiendo sobre si eliminar o etiquetar la propaganda deepfake cuando surja. Google también ha estado trabajando con académicos para generar colecciones de audio y video, reales y falsos, que se pueden usar en la lucha.

Una nueva ley de California, la AB 730, que entrará en vigencia en enero, hará que sea ilegal distribuir un audio o video manipulado de un candidato que sea malintencionadamente engañoso y “parezca falsamente auténtico para una persona razonable”. Hay un esfuerzo bipartidista en el Congreso para aprobar una legislación similar.

Sin embargo, tales prohibiciones son legalmente precarias y podrían resultar difíciles de aplicar en parte porque la línea entre una falsificación maliciosa y un video satírico protegido bajo la Primera Enmienda es difícil de trazar.

La urgencia en torno a los videos se produce al tiempo que los desarrolladores de inteligencia artificial revelan demostraciones de deepfakes que parecen increíblemente auténticos.

El más conocido es un video convincente del ex presidente Barack Obama recitando un pasaje inocuo que nunca dijo. La tecnología registra a otra persona pronunciando las palabras, luego injerta los movimientos de los labios y el sonido en una imagen del objetivo, utilizando algoritmos y grandes bases de datos de imágenes reales para hacer pasar las palabras como auténticas.

Los videos resultantes plantean un problema importante para los expertos en desinformación, quienes han descubierto que muchas soluciones potenciales no son suficientes. Una compañía como Facebook, por ejemplo, podría no ser capaz de distinguir entre un video político falso y uno con imágenes reales que han sido legítima y obviamente alteradas para tal efecto, tal vez para resaltar al candidato o para darle un tono satírico.

“La tecnología para detectar <i style=”mso-bidi-font-style: normal”>deepfakes se está quedando atrás”, dijo Robert Chesney, profesor de derecho de la Universidad de Texas que investiga los videos engañosos. “Se ha invertido una gran cantidad de dinero en tratar de enfrentarlo”.

El potencial para convertir en un arma las herramientas de inteligencia artificial contra las elecciones estadounidenses es inquietante para la Fundación IA, la subsidiaria sin fines de lucro de una empresa que desarrolla y comercializa aplicaciones de inteligencia artificial. Entre los trabajos en progreso de la compañía se encuentran clones en línea de líderes empresariales y espirituales actuales que podrían vivir para siempre.

Una demostración reciente para reporteros presentó un video chat dirigido por una recreación artificial de Deepak Chopra, la luminaria de la consciencia plena. El avatar intercambió algunas bromas y luego respondió a preguntas sobre cómo lidiar con el estrés laboral guiando al grupo en una breve meditación.

“Estas grandes oportunidades comerciales conllevan riesgos importantes”, dijo Lars Buttler, director ejecutivo de la Fundación IA. “Estamos enfocando la mitad de nuestra energía en la prevención/detección, en previsión de lo que podría salir mal”.

Y muchas cosas podrían salir mal.

Un video recientemente alterado de la presidenta de la Cámara de Representantes, Nancy Pelosi, desacelerado para dejar la falsa impresión de que estaba ebria y desorientada, se propagó por Internet como un virus antes de que los verificadores pudieran aclarar las cosas.

El video era más una “falsificación barata” que un deepfake, usando tecnología de edición burda que podía ser fácilmente detectada. Pero presagió lo poco preparados que están los votantes para procesar videos alterados.

“Existe un peligro real de que las herramientas de manipulación de video se estén volviendo tan buenas que las personas normales en la calle ya no puedan diferenciar qué sucedió”, subrayó Buttler. “Nos enfrentamos al riesgo de que en algún momento ya no podamos coincidir en cuál es la realidad objetiva”.

La fundación, que a principios de este año reclutó al cofundador de Twitter, Biz Stone, como codirector, espera que las herramientas de detección que está desarrollando ayuden a evitar eso. A los profesionales de medios y políticos a los que se dé acceso a su portal “Reality Defender 2020” serán invitados a correr el video que deseen verificar a través de dos algoritmos desarrollados por científicos en la primera línea de la inteligencia artificial.

El algoritmo de UC Berkeley compara los gestos sutiles de cualquier político que aparezca en el video en cuestión con sus gestos reales extraídos de una extensa colección de videos auténticos. El software puede evaluar luego si los dos están en sincronía.

“Cada persona tiene una correlación entre lo que dice y cómo actúa de otra manera”, apuntó Buttler. “Es casi tan único como una huella digital. Si no están sincronizados, es un signo revelador. Se puede determinar una correlación matemática”. Estas diferencias son típicamente imperceptibles en sus caras, señaló.

Los videos también se corren a través de un algoritmo separado, desarrollado en colaboración con el proyecto FaceForensics de la Universidad Técnica de Múnich en Alemania, que los separa píxel por píxel para buscar signos de que fueron alterados.

Google ha estado trabajando con el proyecto de Múnich para crear miles de videos deepfake que son usados para fortalecer dichos algoritmos, permitiéndoles aprender a detectar patrones que surgen dentro de la maquinaria de los videos que están alterados, pero que no son visibles para el espectador.

Falta por ver si la tecnología de detección será efectiva, y duradera frente a una amenaza que continúa evolucionando. Aquellos involucrados en la lucha contra los deepfakes prevén un juego perpetuo del gato y el ratón, donde los arquitectos de la desinformación usen la tecnología de detección para crear métodos cada vez más evasivos.

El plan con Reality Defender 2020 es permitir el acceso solo a medios de comunicación y oficinas de campaña política legítimos. Pero ese plan es complejo, ya que la tecnología corre el riesgo de ser tildada de partidista si el acceso está demasiado restringido y se ve comprometido si se pone a disposición de los medios y agentes políticos que tienen afiliaciones turbias.

E incluso si la tecnología de detección resulta ser impecable, la renuencia de Facebook y otros gigantes de las redes sociales a eliminar incluso el contenido demostrablemente falso y engañoso amenaza con limitar su eficacia.

Esa es una de las principales preocupaciones de Farid, el científico de UC Berkeley.

“Puedo hacer todo el trabajo que pueda para detectar los deepfakes, pero si al final del día Facebook dice: ‘Esto nos parece bien’, entonces todos tendremos un problema”, advirtió. Se muestra escéptico respecto al gigante de las redes sociales, incluso cuando este financia el trabajo de detección de su laboratorio.

“Les dije que no basta con trabajar con académicos para desarrollar esta tecnología y publicar comunicados de prensa y publicaciones de blog al respecto. Tienen que hacer algo con ello”.

Visit the Los Angeles Times at www.latimes.com