Principios rectores del diseño de soluciones de inteligencia artificial: Análisis de “Carta ética europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno”

La carta ética europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno cuenta con la Comisión Europea para la Eficiencia de la Justicia CEPEJ del Consejo de Europa como autor, y fue publicada en Francia en diciembre de 2018. Persigue como objetivo alinear los esfuerzos por definir un conjunto de principios que regulen el diseño de soluciones de inteligencia artificial, y su utilización en el contexto del sistema judicial; tomando como basamento la ley internacional de Derechos humanos.

Al ser de autoría conjunta, por miembros de un organismo que agrupa el esfuerzo de los gobiernos de varios países de la región europea le he clasificado el tipo de autor como “Organismo Intergubernamental”. Asimismo, atendiendo al objetivo que persigue la carta y al tipo de principios que propone he clasificado el documento como “Políticas de Uso”. Ambas clasificaciones me permitirán realizar contrastes futuros entre documentos y autores de un mismo tipo; enriqueciendo el análisis que tengo como objetivo a presentar en esta serie de posts.

Los principios que propone la carta son los siguientes:

      1. Principio de respeto por los Derechos fundamentales: asegurar que el diseño e implementación de herramientas y servicios de inteligencia artificial son compatibles con los Derechos fundamentales,
      2. Principio de no discriminación: prevenir el desarrollo e intensificación de cualquier tipo de discriminación entre individuos o entre grupos de individuos,
      3. Principio de calidad y seguridad: utilizar fuentes certificadas y datos intangibles con modelos elaborados de manera multidisciplinar en un entorno tecnológico seguro para el procesamiento de datos y decisiones judiciales,
      4. Principio de transparencia, imparcialidad, y justicia: hacer accesibles y entendibles los métodos de procesamientos de datos, y autorizar auditorías externas, y
      5. Principio de “bajo control del usuario”: excluir un enfoque prescriptivo, y asegurar que los usuarios sean actores informados que se encuentran en control de las decisiones que toman.

Desde mi formación como ingeniero en ciencias informáticas encuentro dificultades para adoptar estos principios como referente metodológico sin que los mismos sean sujetos a capas adicionales de interpretación e integración en herramientas como estándares o listas de chequeo, por mencionar algunas. Por un lado, los estándares apoyarían el aseguramiento del resultado esperado en etapas tempranas del desarrollo de soluciones de inteligencia artificial acorde con el marco delimitado por los principios propuestos; y, por otro lado, las listas de chequeo constituyen una herramienta efectiva en las etapas de verificación para asegurar la correspondencia de la solución con los principios propuestos – por utilizar los mismos ejemplos-.

En esta misma línea de pensamiento, desde mi experiencia en la definición de listas de chequeo y como miembro de grupos de trabajo en la conformación de estándares internacionales para el desarrollo de software se me hace posible destacar los elementos siguientes:

      • La operacionalización de las variables sobre las que se sustentan los Derechos fundamentales con las que se espera que las soluciones de inteligencia artificial cumplan en el entorno descrito por la carta que se revisa,
      • La definición del entorno que enmarca las posibles discriminaciones a las que un individuo o grupos de individuos pueden estar expuestos dado los atributos que se consideran para el arribo de cada decisión; finitas en su tipología de acuerdo con el entorno que cubre la carta,
      • La definición de los entornos vecinos a las actuales variables causales de discriminación a las que un individuo o grupos de individuos pueden estar sujetos según los atributos que se consideran para el arribo de cada decisión; dado que la discriminación es un fenómeno variable, con dimensiones: temporal, geográfica, cultural, etc.,
      • La definición de variables que puedan utilizarse en el diseño de métricas para evaluar los distintos niveles de intensidad en decisiones potencialmente discriminatorias a las que puedan estar expuestos individuos o grupos de individuos,
      • La determinación de una autoridad certificadora que avale la idoneidad de las fuentes de los datos utilizados por los impartidores de justicia como apoyo a su proceso de toma de decisiones,
      • La determinación de una autoridad certificadora que avale la idoneidad de sus miembros, y la completitud de los equipos multidisciplinarios empleados en diseñar los modelos para el procesamiento de los datos que serán usados por los impartidores de justicia como apoyo a su proceso de toma de decisiones,
      • La operacionalización de “accesibilidad” y “entendimiento” como variables dependientes a la comprensión de los métodos utilizados para el procesamiento de los datos, que puedan utilizarse en la definición de una métrica que evalúe los niveles en los que se pueda expresar la comprensión sobre los métodos, por parte de potenciales interesados y auditores,
      • La determinación de una autoridad competente auditora que certifique la adherencia del equipo de diseño – de soluciones de inteligencia artificial para el uso de los impartidores de justicia en el entorno delimitado en la carta – con los principios que en esta se proponen,
      • La determinación de los parámetros que puedan utilizarse en la conformación de restricciones que sean integradas al modelo de razonamiento de la solución de inteligencia artificial, en etapas de diseño, para evitar recomendar decisiones que representen un enfoque prescriptivo en el entorno delimitado por la carta, y
      • La determinación de los parámetros que puedan utilizarse en la conformación de métricas que evalúen el carácter prescriptivo del enfoque descrito por las decisiones recomendadas por las soluciones de inteligencia artificial en el entorno delimitado por la carta.

Como capas intermedias necesarias para la adopción de los principios como referente metodológico en el diseño de soluciones de inteligencia artificial en el entorno de impartición de justicia.

Tras un análisis del lenguaje utilizado en el documento, en el cual utilicé la librería NLTK y el entorno de desarrollo para Python, extrayendo los 50 n-gramas más frecuentes en el texto de la carta resulta que:

      • Los uni-gramas con frecuencias relativas mayores al .50 unidades describen el entorno que se delimita en la carta y no el objetivo que se pretende con la propuesta de los principios, o las variables en que se expresan los mismos: Judicial (.87), Decisions (.82), Law (.72), Processing (.63), Legal (.62), Case (.56), Public/ Tools/ Judges/ Use (.53), y Justice (.52),
      • Los bi-gramas, sin embargo, si comienzan a delimitar el campo de acción de la carta en el contexto descrito por los uni-gramas, exhibiendo con frecuencias relativas más altas los términos: Machine Learning (.31), Judicial Decisions (.28), Artificial Intelligence/ Open Data (.27), Judicial Systems (.20) y Personal Data (.19). Aunque, otras variables como Data Protection y Fair Trial exhiben valores menores, .6 y .5 unidades de frecuencia relativa respectivamente.
      • Los tri-gramas, por su parte, ayudan a conectar ambos, el entorno y campo de acción mediante las siguientes composiciones de texto: Protection Personal Data (.09), Artificial Intelligence Tools/ Processing Judicial Decisions/ Judicial Decisions Data (.06), y
      • Es interesante como, a través de los tri-gramas identificados: Use Artificial Intelligence/ Intelligence Tool Services/ Predictive Justice Tools y CheckList Evaluating Processing/ Evaluating Processing Methods, todos con .05 de frecuencia relativa; la propia carta señala la necesidad de herramientas como las que mencionaba antes en este post.

Me gustaría concluir diciendo que tanto la carta que abordo en este post, como otros documentos sobre los que iré escribiendo en esta serie; constituyen un esfuerzo por resolver algunos de los problemas éticos enraizados en el diseño y uso de soluciones de inteligencia artificial. En este caso específicamente en el contexto de la administración de justicia; el resto de los documentos incluirán otros tantos escenarios. Además, con este ejercicio de lectura busco llamar la atención sobre la oportunidad que se presenta para que juntos, diseñadores de políticas públicas y diseñadores de soluciones de inteligencia artificial colaboremos en la consecución de un fin común: que es el diseño responsable de inteligencia artificial.

Si te interesa este tema y tienes alguna idea que complemente esta revisión de la carta ética europea sobre el uso de la Inteligencia Artificial en los sistemas judiciales y su entorno déjamelo saber con un comentario.

Imagen tomada de pixabay

Please follow and like us:

Leave a Reply

Your email address will not be published. Required fields are marked *