Resumen y análisis automáticos realizados con Inteligencia Artificial
Tiempo de lectura:
—
¿Fue útil este resumen?
Este resumen y su análisis fueron generados con apoyo de Inteligencia
Artificial.
Aunque buscamos ofrecer claridad y precisión, pueden existir errores, omisiones
o
interpretaciones inexactas. Úsalo como guía rápida y consulta
la
nota completa para obtener el contexto completo.
Desarrollado por SACS
IA
Ella es Amanda Askell, la filósofa encargada de enseñar a reflexionar éticamente a Claude, el sistema de inteligencia artificial de Anthropic, y que incluso ha estado vinculado a proyectos de seguridad nacional en Estados Unidos.
Sin embargo, en los últimos meses la empresa ha entrado en conflicto con la administración de Trump, que llegó a señalarla como un riesgo para la seguridad nacional y a presionar para limitar su uso. Todo a razón de desacuerdos sobre los límites éticos de estas tecnologías.
Es interesante que en pleno desarrollo acelerado de las inteligencias artificiales, donde ya se han documentado casos graves en los que distintos sistemas han alentado a usuarios a hacerse daño o incluso a quitarse la vida, Anthropic siga apostando fuertemente por una línea ética.
Para muchas compañías ha sido más sencillo reducir o eliminar esos equipos, hacer como si el asunto no fuera delicado, como si no necesitaran también de la filosofía.
Y algo interesante del artículo publicado en The Wall Street Journal sobre Amanda Askell han sido las reacciones que ha generado. No solo de escepticismo hacia la filosofía, sino también de sorpresa ante la presencia de una filósofa en primera línea del desarrollo de una de las inteligencias artificiales más poderosas de hoy.
Es decir, no sorprende ver psicólogos, abogados o publicistas en corporaciones, pero sí genera extrañeza encontrar a un filósofo en un organigrama. La cultura popular ha tendido a menospreciar a la filosofía como profesión, pero lo cierto es que ha permanecido.
Y hoy, frente al auge de la inteligencia artificial, no solo sigue vigente, sino que se vuelve necesaria. Lo raro no es que haya una filósofa tomando decisiones importantes en Anthropic.
Lo raro es que las organizaciones no entiendan la importancia del pensamiento crítico ni la necesidad de incorporar a filósofos y filósofas. Sobre todo en un momento en el que lo que comienza a escasear es precisamente eso: pensamiento crítico, humanista y con profundidad.
Hoy diseñar inteligencia artificial ya no es solo un problema técnico. Es decidir qué tipo de mundo queremos construir y qué tipo de relación queremos establecer con la tecnología.