Isaac Asimov, profesor de bioquímica … y uno de los más prolíficos escritores de ciencia ficción de la historia, simplificó el comportamiento ético de la inteligencia artificial en tres leyes que buscaban salvaguardar la seguridad de la humanidad.
Son sus famosas 3 leyes de la robótica, que forman una parte troncal de su obra y dan pie al desarrollo de muchos de sus relatos. Ciencia ficción pura hasta hace unos años. La ética de los sistemas de inteligencia artificial ya es una cuestión de estudio teórico, pero también clave a la hora de diseñar un nuevo sistema, y no sólo por una cuestión moral, sino también por las repercusiones reputacionales o legales que puede tener un algoritmo de IA que vulnere unos mínimos principios éticos.
En el contexto de la IA podemos entender la ética de los modelos computacionales a tres niveles distintos: construir sistemas con un propósito ético, de un modo ético y que tengan un comportamiento ético.
Que un sistema inteligente tenga un comportamiento ético implica que pueda ser auditados, que sea transparente y explicable, y que sea justo en sus respuestas. Esto es, que no introduzca o reproduzca sesgos, en especial contra grupos desfavorecidos según alguna categoría protegida (es decir, variables especialmente sensibles como el sexo).
Por ello, ayer mismo la Comisión Europea ha propuesto nuevas normas destinadas a regular la inteligencia artificial en la Unión Europea. Una legislación pionera que busca, dicen, «convertir a Europa en el centro mundial de una inteligencia artificial digna de confianza». La idea es que garantice la seguridad y los derechos fundamentales de la ciudadanía y las empresas.
439