Resumen y análisis automáticos realizados con Inteligencia Artificial
Tiempo de lectura:
—
¿Fue útil este resumen?
Este resumen y su análisis fueron generados con apoyo de Inteligencia
Artificial.
Aunque buscamos ofrecer claridad y precisión, pueden existir errores, omisiones
o
interpretaciones inexactas. Úsalo como guía rápida y consulta
la
nota completa para obtener el contexto completo.
Desarrollado por SACS
IA
El gobierno de Trump ordenó romper la relación comercial con Anthropic, una de las empresas de inteligencia artificial más importantes del mundo, acusándola de ser una empresa de izquierda radical.
Pero, ¿qué significa esto y por qué sucedió? En 2025, Anthropic firmó un contrato con el Pentágono por 200 millones de dólares, esto para trabajar de manera conjunta en asuntos de seguridad nacional.
Según reportes, su modelo fue utilizado en el operativo que terminó con la captura de Maduro.
Sin embargo, el problema que ocasionó la ruptura se debe a que Trump exigió que se eliminaran las restricciones de uso que Anthropic mantiene para acciones militares y de vigilancia, tanto para el Pentágono como para el gobierno de EEUU. Y ellos no aceptaron.
Anthropic mantiene dos líneas rojas que se ha negado a cruzar: que su tecnología se use en armas autónomas o en vigilancia masiva de ciudadanos. Y eso bastó para que la Casa Blanca decidiera cortar la relación.
Aunque el asunto puede parecer un simple desacuerdo entre dos partes con mucho capital, se trata más bien de una discusión ética propia del presente: ¿Cuáles deberían ser los límites de este tipo de inteligencias? ¿Para qué sí y para qué no se deberían usar? ¿El gobierno tiene la facultad de brincarse cualquier cerco legal con tal de cumplir sus objetivos?
Los dueños de Anthropic no está dispuesto a permitir que el Pentágono use su tecnología de inteligencia artificial sin restricciones, pues para ellos es claro que hay muchas cosas que podrían salir mal, por ejemplo, en un ataque autónomo.
Es alarmante y triste que en plena etapa del desarrollo de muchas inteligencias artificiales haya organismos que estén más preocupados en usarlas para ataques y guerras que para buscar que las personas prosperen.
Y es que, por poner un ejemplo significativo, apenas en 2024 Demis Hassabis, el cofundador de Google DeepMind, ganó el Premio Nobel de Química por el uso de inteligencia artificial para predecir la estructura de las proteínas. Y esto significó un aporte importante para el campo de la medicina.
En un mundo donde esas inteligencias pueden usarse para este tipo de propósitos, para salvar vidas, el gobierno de Estados Unidos parece verlas principalmente como herramientas militares.