Español

DARPA solicita propuestas para el sistema de “análisis forense semántico”

El Departamento de Defensa de Estados Unidos se prepara para la censura masiva del internet

El ejército de los EUA ha emitido una convocatoria de propuestas de investigación de socios tecnológicos para el desarrollo de un sistema automatizado capaz de escanear todo el internet y localizar y censurar el contenido considerado como “activos mediáticos falsos” y la “desinformación”. De acuerdo con documentos gubernamentales, la solución proporcionaría “tecnologías semánticas innovadoras para analizar los medios” que ayudarán a “identificar, disuadir y comprender las campañas de desinformación adversarias”.

El 23 de agosto, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, por sus siglas en inglés) emitió una solicitud para un programa llamado Análisis Forense Semántico (SemaFor) en el sitio web de oportunidades comerciales del gobierno federal. De acuerdo con las especificaciones de la oferta, SemaFor “desarrollará tecnologías para detectar, atribuir y caracterizar automáticamente activos de medios multimodales falsificados (texto, audio, imagen, video) para defenderse contra ataques de desinformación automatizados a gran escala”.

En otras palabras, el Departamento de Defensa de los EUA está buscando un socio tecnológico que construya una plataforma que permita al Pentágono localizar cualquier contenido que identifique como un “ataque de desinformación” adversario y cerrarlo. Esta tecnología cubrirá cualquier cosa en el internet, incluyendo páginas web, videos, fotos y plataformas de redes sociales.

Los documentos publicados como parte de la solicitud de DARPA dicen que la tecnología y los algoritmos de software que está buscando “constituirán de vanguardia” que serán de alto secreto y no incluyen “información que está disponible públicamente sin restricciones”.

Diagrama del sistema de censura en línea de SemaFor buscado por el Departamento de Defensa

Estos avances implicarían alejarse de las “técnicas de detección estadística” que se están volviendo “insuficientes para detectar activos mediáticos falsos”. El uso de técnicas semánticas inteligentes (la capacidad de un programa para analizar contenido en línea dentro del contexto y determinar su significado e intención) requiere los últimos desarrollos en inteligencia artificial y las llamadas “redes neuronales” que tienen la capacidad de “aprender” y mejorar el rendimiento con el tiempo. Según el Departamento de Defensa de los EUA, el análisis semántico podrá identificar con precisión las inconsistencias dentro del contenido generado artificialmente y, por lo tanto, establecerlas que son “falsas”.

Hay tres componentes para la solución solicitada por DARPA. El primero es “determinar si los medios se generan o manipulan”, el segundo es que “los algoritmos de atribución inferirán si los medios se originan de una organización o individuo en particular” y el tercero es determinar si los medios fueron “manipulados con fines maliciosos”. Aunque la solicitud hace referencia a la disuasión, no hay detalles sobre cómo el Pentágono pretende actuar sobre el contenido que ha identificado como “falso”.

La solicitud de propuesta tampoco llega a especificar quiénes son los adversarios que deben identificarse, disuadirse y comprenderse. Sin embargo, está claro que una de las motivaciones de la iniciativa es la preocupación por el aumento del contenido “deepfake” [profundo y falso]. Los videos de Deepfake, por ejemplo, implican el uso de software especializado para modificar el contenido de video de manera que altere por completo la imagen o mensaje original y genere una nueva transmisión con aparente autenticidad.

Según el Dr. Matt Turek, el oficial de Innovación en Información de DARPA que redactó la solicitud de propuesta del Pentágono, “Reflejar este aumento en las imágenes digitales es la capacidad asociada, incluso para usuarios relativamente poco calificados, de manipular y distorsionar el mensaje de los medios visuales. Si bien muchas manipulaciones son benignas, se realizan por diversión o por valor artístico, otras tienen fines adversos, como propaganda o campañas de desinformación”.

La fecha límite para las propuestas de DARPA está fijada para el 21 de noviembre de 2019. La agencia tiene la intención de adjudicar el contrato a múltiples socios tecnológicos en las diferentes disciplinas del proyecto. La solicitud incluye detalles sobre cómo se evaluarán las empresas que lo envían y los contratos finalmente adjudicados.

Como varios informes ya han señalado, la absurda idea de que la inteligencia artificial puede desplegarse para identificar el contenido generado por la inteligencia artificial es el equivalente tecnológico de la serpiente proverbial que se come su propia cola. Como señaló Gizmodo, “en teoría un modelo automatizado suena bien; en la ejecución, hasta la fecha, este tipo de sistemas generados algorítmicamente todavía son defectuosos y sesgados y, en los casos más inquietantes, totalmente discriminatorios. Las aplicaciones existentes no inspiran mucha fe en un sistema de futuro cercano que sea efectivo y justo”.

Gran parte de la cobertura de los medios corporativos sobre la solicitud de oferta de DARPA ha presentado la iniciativa como un esfuerzo legítimo para detener las “noticias falsas” en línea. Esta presentación sigue a las acusaciones incesantes y no probadas de “interferencia rusa” en las elecciones de 2016 que fueron impulsadas por partidarios de dentro del establishment de inteligencia militar de Estados Unidos de la candidatura de Hillary Clinton para presidente.

Sin embargo, el esfuerzo actual del Pentágono para crear un sistema automatizado para identificar y cerrar las llamadas “noticias falsas” es parte del esfuerzo más amplio en curso de los demócratas y los republicanos, en cooperación con el estado de inteligencia, para controlar las redes sociales y el contenido en línea y usarlo para monitorear los estados de ánimo, las ideas y la política del público.

Independientemente de las afirmaciones públicas de DARPA sobre el deseo de detener el uso de “activos mediáticos falsos” para señalar ataques personales, generar eventos “creíbles” y propagar ransomware [cibersecuestro de datos], estas herramientas son, sin duda, parte del arsenal imperialista de ciberguerra que actualmente está desarrollando y desplegando el ejército de los EUA y la CIA.

(Publicado originalmente en inglés el 6 de septiembre del 2019)

Loading