La inteligencia artificial como arma de terror
Trump informó el 2 de septiembre que bombardeó un barco venezolano acusado de pertenecer al Tren de Aragua.
Este martes 2 de septiembre, el presidente de Estados Unidos, el depredador sexual Donald Trump, informó que sus fuerzas armadas bombardearon una embarcación venezolana. En su red social “Truth Social” acusó que el barco pertenecía al cártel Tren de Aragua y que llevaba drogas. Más allá de la clara violación al debido proceso, este presunto ataque tiene otras implicaciones.
El ministro de Comunicación de Venezuela, Freddy Ñáñez aseguró que el video era falso. Como fuente citó a “Gemini”, modelo de inteligencia artificial de Google que detectó diversas irregularidades, por ejemplo, que la explosión se veía caricaturesca y que el agua no se percibía natural. Le pregunté a Grok (inteligencia de la plataforma “X”) y llegó a una conclusión similar.
La IA de Elon Musk me aseguró que “se inclinaba a pensar que el video estaba manipulado”, aunque dijo que “no tenía total certeza”.
Te puede interesar....
Como Gemini, me proporcionó varios elementos, pero el que considero vale la pena destacar es “Contexto y Motivo”. Grok afirma que debe tomarse en cuenta que “el video fue publicado por Donald Trump que tiene un historial de utilizar imágenes dramáticas para transmitir mensajes políticos”.
Además, sostiene que existen “tensiones altas” entre Venezuela y “el ejército de Estados Unidos por su creciente presencia en la región”. Días antes de este presunto bombardeo, el gobierno estadounidense ofreció 50 mil dólares de recompensa por la captura de Nicolás Maduro, a quien acusan de liderar un cártel del narcotráfico.
Además, según el chavista, Estados Unidos desplegó 8 buques y 1,200 misiles que apuntan a su territorio. El video del barco venezolano convertido en añicos sirve como una herramienta propagandística, sea verdadero o falso. Durante su visita en México, el Secretario de Estado de Estados Unidos, Marco Rubio lo dejó claro: su país está dispuesto a bombardear más embarcaciones extranjeras en aguas internacionales.
Aunque permanece la incertidumbre sobre la legitimidad del video en cuestión, indudablemente nos deja claro que el desarrollo de la inteligencia artificial permitirá la difusión de contenido falso con motivaciones políticas. Esto es increíblemente peligroso al pensar cómo incluso sin estos modelos de generación de contenido, las campañas de desinformación en redes ya han cobrado vidas.
Un ejemplo conciso es Myanmar. En 2017 el ejército asesinó a 243 personas (de acuerdo a las últimas cifras de análisis independientes). Masacraron una aldea de musulmanes rohinyás, una minoría étnica en el país. También se ejecutó tortura y violaciones, y alrededor de 700 mil rohinyás huyeron de sus casas. Amnistía Internacional informó que esta masacre fue posible por la difusión de contenido de odio en Facebook. En un informe publicado en 2022, la organización aseguró que “los peligrosos algoritmos de Meta, y su temerario afán de lucro contribuyeron sustancialmente a las atrocidades perpetradas por el ejército de Myanmar contra la población rohinyá”.
Te puede interesar....
Los gobiernos tienen la obligación de actuar. Deben legislar para forzar a las plataformas a dar claridad sobre el contenido falso que se difunda en redes. Conforme continúe avanzando esta tecnología, cada vez se nublará más la diferencia entre lo real y lo falso, y las consecuencias podrían ser catastróficas.