Quién es la filósofa que intenta enseñar moral a Claude: dentro del trabajo de Amanda Askell en Anthropic
- Redacción IT NOW
- hace 2 horas
- 2 Min. de lectura
La empresa designó a Askell para desarrollar o “enseñar” un sentido de moralidad al chatbot, en un enfoque que mezcla ética, psicología y computación para dotar al modelo de un comportamiento ético más sofisticado. Su trabajo ilustra la creciente intersección entre humanidades y tecnología en la carrera por IA responsable.

En el corazón de San Francisco, en un entorno dominado por ingenieros de software y científicos de datos, hay una presencia inesperada: una filósofa cuya misión es inculcar sentido ético en un sistema de inteligencia artificial. Amanda Askell, investigadora con formación académica en filosofía y ética, lidera en Anthropic el trabajo de desarrollar lo que la empresa conceptualiza como la “personalidad” y la “moralidad” del chatbot Claude, según un artículo del Wall Street Journal.
Askell no es una figura meramente ornamental ni retórica: su papel consiste en definir, articular y guiar cómo Claude responde a dilemas éticos y situaciones delicadas a través de un corpus de entrenamiento que, según diversas fuentes, incluye manuales internos de decenas de miles de palabras. La tarea es ambiciosa: no solo se trata de evitar respuestas dañinas, sino de cultivar en el modelo un equilibrio entre honestidad, empatía y prudencia.
Anthropic ha enfatizado que parte de este trabajo reside en un documento formal —a veces descrito como la “constitución” o incluso un “soul doc”— que guía el comportamiento ético de Claude. En esta perspectiva, el modelo no solo ejecuta reglas frías, sino que aprende a razonar sobre lo que es “correcto” o “beneficioso” en contextos ambiguos, un esfuerzo que cruza con debates filosóficos clásicos sobre moral y agencia.
La presencia de Askell y este enfoque de “alineación moral” en Anthropic responde a una lógica empresarial y técnica: a medida que los modelos de IA son usados en tareas que van desde la asesoría emocional hasta decisiones de negocio, la capacidad de manejar juicios éticos se convierte en un valor diferencial y en una barrera de mitigación de riesgos. Pero también abre preguntas profundas: ¿puede una máquina “entender” moralidad o simplemente simular respuestas “aceptables”? ¿Qué ocurre cuando el modelo se enfrenta a dilemas que no tienen soluciones claras? Askell y su equipo parecen estar en la primera línea de estas preguntas, en un terreno que no es puramente tecnológico, sino marcadamente humano.
Este enfoque (mezclando filosofía, ética y aprendizaje automático) refleja un cambio en la industria: la inteligencia artificial ya no se mide solo por su precisión o velocidad, sino por su capacidad para comportarse de forma que las personas perciban como responsable y digna de confianza. El trabajo de Askell no solo es técnica; es ético, cultural y, en última instancia, profundamente humano.
