Crece la preocupación por imágenes manipuladas difundidas por el gobierno de EE.UU.

Los Ángeles — Especialistas en desinformación y alfabetización mediática expresaron preocupación tras la difusión, desde cuentas oficiales del gobierno federal, de una imagen alterada digitalmente de la abogada de derechos civiles Nekima Levy Armstrong. La fotografía, originalmente tomada durante su arresto en una manifestación contra ICE en St. Paul, Minnesota, fue modificada para mostrarla llorando, lo que generó cuestionamientos sobre la creciente utilización de contenido sintético por parte de la administración.

La imagen editada fue compartida primero por la secretaria de Seguridad Nacional, Kristi Noem, y posteriormente por la cuenta oficial de la Casa Blanca. Funcionarios del gobierno defendieron la publicación, describiéndola como un “meme”, lo que intensificó el debate sobre la normalización de contenido manipulado desde instituciones públicas.

Académicos como David Rand (Cornell University) y Michael A. Spikes (Northwestern University) señalaron que la difusión de imágenes alteradas desde fuentes gubernamentales contribuye a erosionar la confianza en la información oficial y dificulta que el público distinga entre hechos verificables y contenido fabricado. Otros expertos, como Ramesh Srinivasan (UCLA), advirtieron que el uso institucional de IA puede incentivar a actores políticos y ciudadanos a replicar prácticas similares sin etiquetar contenido sintético.

El fenómeno ocurre en un contexto de proliferación de videos y fotografías generados por IA relacionados con operativos de ICE, protestas y confrontaciones con agentes federales. Muchos de estos materiales, según analistas, son producidos para obtener interacción en redes sociales, mientras que otros circulan como “ficción deseada” entre audiencias críticas de las agencias de seguridad.

A pesar de que algunas piezas presentan errores evidentes —como señales de tránsito con texto incoherente—, especialistas sostienen que la mayoría de los usuarios no detecta las señales de manipulación. La situación se agrava con la ausencia de sistemas de verificación ampliamente adoptados, como marcas de agua digitales que identifiquen el origen del contenido.

Investigadores coinciden en que la expansión de herramientas de IA generativa seguirá intensificando los desafíos para la verificación de información, especialmente en temas políticos y de seguridad pública. La falta de mecanismos de autenticidad, advierten, podría profundizar la crisis de confianza en instituciones y medios de comunicación.

Deja un comentario