top of page
Redacción IT NOW

Inteligencia Artificial: Errar no es solo humano

Para Mauricio París, de ECIJA, la comprensión y el manejo de los errores y riesgos de la IA son desafíos fundamentales para el sector tecnológico.


Por Mauricio París, socio director ECIJA Costa Rica, especialista en Derecho Digital.


Tengo varias semanas de estar usando ChatGPT para distintas tareas, tratando de descubrir los entresijos de su potencial. No voy a referirme acá a la decepción que siento, sino a los errores que le he visto cometer, y a la incógnita que me dejan algunos de ellos. Un ejemplo: subí mi currículum en formato PDF y en español (usando una licencia de pago) y le pedí que preparara un resumen corto para mi sitio web personal. Preparó un resumen, pero además de hacerlo en inglés, toda la información que contenía correspondía a una tal Michelle P. que era ingeniera industrial graduada en Los Ángeles, entre otras informaciones absolutamente inventadas.


La inteligencia artificial (IA) no solo es el sabor del mes en el entorno tecnológico. Su aplicación en diversos campos, desde la medicina hasta las finanzas, reviste un potencial para resolver problemas complejos y mejorar la eficiencia en nuestro trabajo. Sin embargo, como tecnología emergente que es, la IA no está exenta de errores que pueden conllevar riesgos importantes.


En términos generales, se dice que estos errores de la IA se pueden dividir en dos categorías: técnicos y éticos.


Los técnicos se deben a deficiencias en la programación, el entrenamiento del modelo o la calidad de los datos. Un ejemplo común de error técnico es el sesgo en el aprendizaje automático. Los algoritmos de IA aprenden a partir de los datos con que son alimentados. Si estos datos son incompletos, inexactos o sesgados, el sistema desarrolla patrones de comportamiento erróneos. Este es el caso de los sistemas de reconocimiento facial que han demostrado ser imprecisos para identificar rostros de mujeres o de personas de color, debido a la falta de representación de estos grupos en los datos de entrenamiento.



Los errores éticos son más difíciles de definir y solucionar. Se presentan cuando la IA actúa de maneras que no están alineadas con los valores socialmente aceptados. Un ejemplo podría ser un vehículo autónomo que tiene que tomar decisiones en situaciones de vida o muerte, donde debe elegir entre salvar la vida de los tripulantes, la de los peatones, o la de un perro que cruza la calle, por ejemplo. Para entrenar a la IA respecto de estas decisiones en vehículos autónomos, el portal moralmachine.net ofrece la posibilidad de que las personas tomen este tipo de decisiones morales y así entrenen a la IA sobre el estándar moral prevaleciente.


El reto es que estos errores pueden desencadenar una serie de riesgos que van más allá de desilusionarse sobre su potencial, sino que hablamos desde daños materiales y lesiones físicas hasta la pérdida de la privacidad y violaciones de derechos humanos.


En el primer caso, los errores técnicos pueden llevar a fallos catastróficos en sistemas críticos. Imaginemos un sistema de IA que controle el tráfico aéreo o la red de semáforos de San José, y que debido a un fallo exponga la vida de cientos de personas.


En materia de privacidad y derechos humanos, los errores de IA pueden tener consecuencias alarmantes. El sesgo de los algoritmos puede dar lugar a discriminación y estigmatización. Las decisiones automatizadas en el sector financiero, el empleo, la educación o la salud pueden tener un impacto directo en la vida de las personas, y si estos sistemas son discriminatorios, los daños pueden ser irreversibles.


Frente a estos desafíos, la regulación tiene un papel fundamental. El trabajo de reguladores y legisladores debe ir de la mano de un trabajo técnico por parte de los programadores, para asegurarse de que los sistemas de IA se desarrollen y utilicen de manera responsable.


Existen varias propuestas para mitigar estos riesgos. Un enfoque es la regulación que limite el uso de ciertas técnicas o requiera pruebas de precisión y justicia, que es la orientación que sigue la Unión Europea. Otra es la autorregulación de la industria, un modelo más propio de los Estados Unidos, que echa mano de estándares de diseño y certificaciones o de herramientas de auditoría de IA para verificar la precisión y la equidad de los algoritmos.


Pero al igual que con el resumen de mi currículum, la IA en ocasiones da respuestas absolutamente falsas e inexplicables. Precisamente, la explicabilidad en la inteligencia artificial es la transparencia y la comprensión de cómo toma sus decisiones. En ocasiones, los algoritmos de IA, especialmente los basados en deep learning, son "cajas negras" porque aunque pueden realizar tareas con alta precisión, el proceso mediante el que llegan a una decisión es imposible de entender incluso para sus fabricantes. Si el proceso es inexplicable, la posibilidad de identificar y corregir sesgos, errores y deficiencias será muy limitada.


La comprensión y el manejo de los errores y riesgos de la IA son desafíos fundamentales para el sector tecnológico. Sin embargo, con una regulación adecuada y un enfoque ético en el desarrollo de la IA, podemos mitigar el riesgo de que esta tecnología cometa errores que puedan afectarnos a todos.



Comments


bottom of page