
El documento “Recomendaciones del consejo sobre Inteligencia Artificial” tiene como autor a la Organización para la Cooperación Económica y el Desarrollo (OECD, por sus siglas en inglés), y fue publicado en Francia en mayo de 2019. Persigue como objetivo alinear los esfuerzos por definir un conjunto de principios para el uso y desarrollo de soluciones de Inteligencia Artificial desde la innovación y la confiabilidad; cuya adherencia sería ratificada por los países miembros de la organización, y algunos no miembros como: Argentina, Brasil, Colombia, Costa Rica, Malta, Perú, Rumanía, y Ucrania. Las recomendaciones que el documento exhibe tienen como basamento el aseguramiento del respeto por los Derechos humanos y los valores democráticos.
Al ser de autoría conjunta, por miembros de un organismo que agrupa el esfuerzo de los gobiernos de varios países de América, Europa, Medio Oriente, y Australia: le he clasificado el tipo de autor como “Organismo Intergubernamental”. Asimismo, atendiendo al objetivo que persigue con las recomendaciones y al tipo de principios que se proponen he clasificado el documento como “Políticas sobre principios”. Ambas clasificaciones me permitirán realizar contrastes futuros entre documentos y autores de un mismo tipo; enriqueciendo el análisis que tengo como objetivo a presentar en esta serie de posts.
Los principios que se proponen para el diseño responsable de soluciones de Inteligencia Artificial confiable son los siguientes:
- Crecimiento inclusivo, desarrollo sostenible y bienestar: participar proactivamente en una administración responsable de la inteligencia artificial confiable en la búsqueda de beneficios para las personas y el planeta, aumentar las capacidades humanas y mejorar la creatividad, avanzar en la inclusión de poblaciones subrepresentadas reduciendo los aspectos económicos, sociales, de género y otras desigualdades, y en la protección de los entornos naturales,
- Valores centrados en el ser humano y Equidad: respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida de la solución de inteligencia artificial – libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y trabajo -; implementando mecanismos y salvaguardas, como la capacidad humana para la autodeterminación, que sean apropiadas al contexto y consistentes con el estado del arte,
- Transparencia y Explicabilidad: proporcionar información relevante, adecuada al contexto y coherente con el estado del arte: (a) para fomentar una comprensión general del funcionamiento de los sistemas de IA, (b) para que las partes interesadas sean conscientes de sus interacciones con los sistemas de IA, (c) para permitir que los afectados por un sistema de inteligencia artificial entiendan el resultado, y (d). para permitir que aquellos afectados adversamente por un sistema de IA desafíen su resultado basado en información fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, o recomendación,
- Robustez, Seguridad, y Protección: desarrollar sistemas de IA robustos y seguros, y protegerlos durante todo su ciclo de vida para que – en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas – funcionen adecuadamente y no constituyan riesgos de seguridad; garantizando la trazabilidad hacia los conjuntos de datos, procesos y decisiones tomadas, y aplicando un enfoque sistémico para la gestión de riesgos en cada fase del ciclo de vida del sistema de IA que incluya factores como: la privacidad, la seguridad digital, la seguridad y el sesgo, y
- Responsabilidad: responsabilizar a los actores de IA por el adecuado funcionamiento de los sistemas de IA y su correspondencia con los principios propuestos, acorde a sus roles, el contexto y consistentes del estado del arte.
Además, se hacen un conjunto de recomendaciones, que se listan a continuación, para la definición de políticas nacionales y la cooperación internacional entre los países adherentes en favor de la Inteligencia Artificial confiable:
- Invertir en investigación y desarrollo de inteligencia artificial,
- Fomentar un ecosistema digital para la inteligencia artificial,
- Delinear un entorno político propicio para la inteligencia artificial,
- Desarrollar el capital humano y prepararse para la transformación del mercado laboral, y
- Cooperar en favor de una inteligencia artificial confiable.
En esta ocasión me limitaré a comentar solamente sobre los principios. Dado que las recomendaciones están dirigidas a diseñadores de políticas públicas; y es un contexto con el que no tengo suficiente experiencia.
Desde mi formación como ingeniero en ciencias informáticas, con experiencia práctica en la gestión de proyectos de software encuentro dificultades para adoptar estos principios como referente metodológico sin que los mismos sean sujetos a capas adicionales de interpretación e integración en herramientas como estándares o listas de chequeo, por mencionar algunas. Como he especificado en otros posts; por un lado, los estándares apoyarían el aseguramiento del resultado esperado en etapas tempranas del desarrollo de soluciones de inteligencia artificial acorde con el marco delimitado por los principios propuestos; y, por otro lado, las listas de chequeo constituyen una herramienta efectiva en las etapas de verificación para asegurar la correspondencia de la solución con los principios propuestos – por utilizar los mismos ejemplos-.
En esta misma línea de pensamiento, desde mi experiencia en la definición de listas de chequeo y como miembro de grupos de trabajo en la conformación de estándares internacionales para el desarrollo de software se me hace posible destacar los elementos siguientes:
- La delimitación del vecindario de variables relacionadas a conceptos como: discriminación, sesgo, justicia, y equidad, en el contexto de inteligencia artificial; que puedan servir como marco de referencia al desarrollador de software en cada etapa – incluida la de mantenimiento – del proceso de desarrollo,
- La operacionalización del concepto de bienestar como variable dependiente del carácter discriminatorio o no de las decisiones basadas en: decisiones, predicciones, y/o recomendaciones propuestas por sistemas de IA,
- La operacionalización del concepto de amigabilidad con el entorno natural como variable dependiente del carácter agresivo o no de las decisiones basadas en: decisiones, predicciones, y/o recomendaciones propuestas por sistemas de IA,
- La formalización de métricas orientadas a evaluar: cuan discriminatoria o agresiva con el entorno natural es una decisión, predicción, y/o recomendación propuesta por sistemas de IA,
- La definición de listas de chequeo que sirvan como guía al desarrollador de sistemas de IA durante las tareas de verificación y medición de estas variables en cada etapa del proceso de desarrollo,
- La determinación de qué valores resultantes de las mediciones y de qué factores dentro de las listas de chequeo constituyen un factor detonante de una revisión de la línea base de arquitectura de la versión actual del sistema de IA que se está desarrollando,
- La determinación de qué valores resultantes de las mediciones y de qué factores dentro de las listas de chequeo constituyen un factor detonante de una petición formal de cambio en el caso de proyectos de mediano y gran tamaño; de media y alta complejidad,
- La creación de una autoridad competente que continuamente evalúe la adecuación de la formalización de las mediciones al correspondiente contexto social, comprendiendo que los elementos causales de discriminación y otros términos afines son variables en el tiempo,
- La operacionalización de las variables sobre las que se sustentan los Derechos humanos y los valores democráticos con las que se espera que cumplan las soluciones de inteligencia artificial,
- La operacionalización de “transparencia” y “entendimiento” como variables dependientes a la comprensión de los métodos utilizados para el procesamiento de los datos, que puedan utilizarse en la definición de una métrica que evalúe los niveles en los que se pueda expresar la comprensión sobre los métodos, y resultados del sistema de IA por parte de potenciales interesados y auditores, y
- La definición de flujos de gestión de la información asociada al uso de los sistemas de IA que incluyan, los elementos necesarios (permisos de acceso a qué pieza de información, tiempos de disponibilidad de la información, por ejemplo) y guíen la comunicación entre el interesado y el decisor(con independencia de este) para su incorporación – por oficio – en módulos de reportes; ayudando a aquellos afectados adversamente por un sistema de IA a obtener información pertinente a los detalles de la decisión.
Como capas intermedias necesarias para la adopción de los principios como referente metodológico en el diseño de soluciones de inteligencia artificial.
Tras un análisis del lenguaje utilizado en el documento, en el cual utilicé la librería NLTK y el entorno de desarrollo para Python, extrayendo los 50 n-gramas más frecuentes en el texto de la carta resulta que:
- Los uni-gramas con frecuencias relativas mayores al .50 unidades describen directamente el objetivo que se pretende con la propuesta de los principios y recomendaciones, o las variables en que se expresan los mismos: policy (1.10), international (1.02), legal/ trustworthy/ development (.98), council/ principles/ work (.78), digital (.69), human (.65), operations/ stakeholders/ systems (.61), y responsible/ implementation/ systems (.57); en contraste con: stewardship/ rights/ inclusive/ sustainable/ recommedations (.33) que siendo igualmente elementos que se encuentran entre los objetivos que se persiguen con el documento presentan menor representados en el cuerpo del mismo.
- Los bi-gramas, por su parte, si comienzan a delimitar el campo de acción del documento en el contexto descrito por los uni-gramas, exhibiendo con frecuencias relativas más altas los términos: trustworthy ai (.90), ai actors (.53), legal instruments/ international co-operation (.45), y responsible stewardship/ stewardship trustworthy (.33). Aunque, otras variables como risk management/ growth sustainable/ security safety/ digital ecosystem/ privacy data/ y ai government exhiben valores mínimos de frecuencia relativa con 0.16 unidades cada uno.
- Los tri-gramas, igualmente, exhiben una mayor representación de los términos ligados al macro-objetivo del documento con términos como: international co-operation instruments (.45), responsible stewardship trustworthy/ ai systems lifecycle (.33); mientras que los objetivos que se persiguen están menos representados: human centred values/ centred values fairness/ robustness security safety/ investing ai research/ fostering digital ecosystem/ building human capacity, preparing labor market/ practical guidance recommendations (.12) y ,artificial intelligence first/ first intergubernamental standard (.08).
Me gustaría concluir diciendo que tanto las recomendaciones del consejo sobre IA que abordo en este post, como otros documentos que incluyo en esta serie; constituyen un esfuerzo por resolver algunos de los problemas éticos enraizados en el diseño y uso de soluciones de inteligencia artificial. En este caso específicamente en el área de políticas públicas; el resto de los documentos incluirán otros tantos escenarios. Además, con este ejercicio de lectura busco llamar la atención sobre la oportunidad que se presenta para que juntos, diseñadores de políticas públicas y diseñadores de soluciones de inteligencia artificial colaboremos en la consecución de un fin común: que es el diseño responsable de inteligencia artificial.
Si te interesa este tema y tienes alguna idea que complemente esta revisión de las recomendaciones del consejo sobre Inteligencia Artificial déjamelo saber con un comentario.