Principios rectores del diseño de soluciones de inteligencia artificial: Análisis de “Declaración Ministerial del G20 sobre Comercio y Economía Digital”

El documento “Declaración Ministerial del G20 sobre Comercio y Economía Digital” tiene como autor al Grupo de los 20(G20), y fue publicado en Japón en junio de 2019. Persigue como objetivo alinear los esfuerzos, entre los estados miembros y algunos invitados, para definir un conjunto de lineamientos coherentes con sus principios para el uso y desarrollo de soluciones de Inteligencia Artificial como oportunidad para profundizar en su entendimiento de la interfaz entre el comercio y la economía digital en la construcción de una sociedad global sostenible e innovadora; considerando sus necesidades nacionales, prioridades y circunstancias.

Al ser de autoría conjunta, por miembros de un organismo que agrupa el esfuerzo de los gobiernos de varios países: le he clasificado el tipo de autor como “Organismo Intergubernamental”. Asimismo, atendiendo al objetivo que persigue con las recomendaciones y al tipo de principios que se proponen he clasificado el documento como “Políticas sobre principios”. Ambas clasificaciones me permitirán realizar contrastes futuros entre documentos y autores de un mismo tipo; enriqueciendo el análisis que tengo como objetivo a presentar en esta serie de posts.

El grupo adopta los principios declarados por OECD, los cuales anexa íntegramente en su declaración sin cambio alguno como puede contrastarse al ver los siguientes, y compararlos con t.ly/pASq:

  • Crecimiento inclusivo, desarrollo sostenible y bienestar: participar proactivamente en una administración responsable de la inteligencia artificial confiable en la búsqueda de beneficios para las personas y el planeta, aumentar las capacidades humanas y mejorar la creatividad, avanzar en la inclusión de poblaciones subrepresentadas reduciendo los aspectos económicos, sociales, de género y otras desigualdades, y en la protección de los entornos naturales,
  • Valores centrados en el ser humano y Equidad: respetar el estado de derecho, los derechos humanos y los valores democráticos durante todo el ciclo de vida de la solución de inteligencia artificial – libertad, dignidad y autonomía, privacidad y protección de datos, no discriminación e igualdad, diversidad, equidad, justicia social y trabajo -; implementando mecanismos y salvaguardas, como la capacidad humana para la autodeterminación, que sean apropiadas al contexto y consistentes con el estado del arte,
  • Transparencia y Explicabilidad: proporcionar información relevante, adecuada al contexto y coherente con el estado del arte: (a) para fomentar una comprensión general del funcionamiento de los sistemas de IA, (b) para que las partes interesadas sean conscientes de sus interacciones con los sistemas de IA, (c) para permitir que los afectados por un sistema de inteligencia artificial entiendan el resultado, y (d). para permitir que aquellos afectados adversamente por un sistema de IA desafíen su resultado basado en información fácil de entender sobre los factores y la lógica que sirvió de base para la predicción, o recomendación,
  • Robustez, Seguridad, y Protección: desarrollar sistemas de IA robustos y seguros, y protegerlos durante todo su ciclo de vida para que – en condiciones de uso normal, uso previsible o mal uso, u otras condiciones adversas – funcionen adecuadamente y no constituyan riesgos de seguridad; garantizando la trazabilidad hacia los conjuntos de datos, procesos y decisiones tomadas, y aplicando un enfoque sistémico para la gestión de riesgos en cada fase del ciclo de vida del sistema de IA que incluya factores como: la privacidad, la seguridad digital, la seguridad y el sesgo, y
  • Responsabilidad: responsabilizar a los actores de IA por el adecuado funcionamiento de los sistemas de IA y su correspondencia con los principios propuestos, acorde a sus roles, el contexto y consistentes del estado del arte.

Del mismo modo, se hacen eco de las políticas de cooperación de OECD en la definición de sus políticas nacionales y la cooperación internacional entre los países adherentes en favor de la Inteligencia Artificial confiable:

  1. Invertir en investigación y desarrollo de inteligencia artificial,
  2. Fomentar un ecosistema digital para la inteligencia artificial,
  3. Delinear un entorno político propicio para la inteligencia artificial,
  4. Desarrollar el capital humano y prepararse para la transformación del mercado laboral, y
  5. Cooperar en favor de una inteligencia artificial confiable.

Consecuentemente reitero el análisis sobre los principios propuestos por OECD y que pueden leerse en t.ly/pASq.  y que apunto como capas intermedias necesarias para la adopción de los principios como referente metodológico en el diseño de soluciones de inteligencia artificial.

Tras un análisis del lenguaje utilizado en el documento, en el cual utilicé la librería NLTK y el entorno de desarrollo para Python, extrayendo los 50 n-gramas más frecuentes en el texto de la carta resulta que:

  • Los uni-gramas con frecuencias relativas mayores a 1.00 unidades describen directamente el objetivo que se pretende con la propuesta de los principios y recomendaciones, o las variables en que se expresan los mismos: digital (2.99), ai (1.89), economy (1.58), trade (1.31), y development (1.19). Mientras que los uni-gramas entre .50 y 1.00 unidades representan el entorno de acción: society (.76), international (.73), growth/ investment (.70), policy (.64), global/ sustainable/ use (.58), e innovation/ technologies (.55).
  • Los bi-gramas, por su parte, resfuerzan el campo de acción del documento en el contexto descrito por los uni-gramas, exhibiendo con frecuencias relativas más altas los términos: digital economy (1.40), trade investment (.37), trustworthy ai (.34), y human centered (.24). Aunque, otras variables como responsible stewardship y stewardship trustworthy exhiben valores mínimos de frecuencia relativa con 0.12 unidades cada uno.
  • Los tri-gramas, igualmente, exhiben una mayor representación de los términos ligados al macro-objetivo del documento con términos como: trade y security digital economy (.24); mientras que los objetivos que se persiguen están menos representados: Sustainable development goals/ human-centred future society/ competitive non discriminatory/ countries underrepresented populations/ human centred future/ y centred future society/ con .06 unidades cada uno.

Me gustaría concluir diciendo que tanto las recomendaciones del consejo sobre IA que abordo en este post, como otros documentos que incluyo en esta serie; constituyen un esfuerzo por resolver algunos de los problemas éticos enraizados en el diseño y uso de soluciones de inteligencia artificial. En este caso específicamente en el área de políticas públicas; el resto de los documentos incluirán otros tantos escenarios. Además, con este ejercicio de lectura busco llamar la atención sobre la oportunidad que se presenta para que juntos, diseñadores de políticas públicas y diseñadores de soluciones de inteligencia artificial colaboremos en la consecución de un fin común: que es el diseño responsable de inteligencia artificial.

Si te interesa este tema y tienes alguna idea que complemente esta revisión de las recomendaciones del consejo sobre Inteligencia Artificial déjamelo saber con un comentario.

Artificial Intelligence design guiding principles: Review of “Ministerial Statement on Trade and Digital Economy of G20”

(Image taken from Pixabay)
(Image taken from Pixabay)

The document “Ministerial Statement on Trade and Digital Economy of G20” was authored by the Group of 20 (G20) and was published in Japan in June 2019. It aims to align efforts, among state members and some guests, in defining a set of consistent guidelines with their principles for the use and development of Artificial Intelligence solutions as an opportunity to deepen their understanding of the interface between trade and the digital economy in building a sustainable and innovative global society; considering their national needs, priorities, and circumstances.

Being joint authored, by members of a body that groups the efforts of the governments of several countries: I have classified the author type as “Intergovernmental Organization”. Also, in the light of the objective pursued by the recommendations and the type of principles proposed, I have classified the document as “Policies Principles”. Both classifications will allow me to make future contrasts between documents and authors of the same type; enriching the analysis that I aim to present in this series of posts.

The group adopts the principles stated by OECD, which are annexed in its entirety statement without any change as can be contrasted by viewing the following, and comparing them with t.ly/e2Wq:

  1. Inclusive Growth, Sustainable Development, and Well-being: proactively engage in a responsible management of trustworthy artificial intelligence searching for benefits for people and the planet, increase human capacities and improve creativity, advance toward the inclusion of underrepresented populations by reducing economic, social, gender, and other inequalities; and in the protection of the natural environments,
  2. Human-Centred Values, and Fairness: respect the rule of law, human rights and democratic values during all the life cycle of the artificial intelligence solution –  freedom, dignity and autonomy, privacy and data protection, non-discrimination and equality, diversity, equity, social justice and work -; implementing mechanisms and safeguards, such as human capacity for self-determination, that are appropriate to context and consistent with the state of art,
  3. Transparency and Explainability: provide relevant information, appropriate to context and consistent with state of the art: (a) to  promote a general understanding of the operation of  AI systems,  (b) to enable stakeholders to be aware of their interactions with AI systems,  (c) to allow those affected by an artificial intelligence system to understand the outcome, and  (d) to allow those adversely affected by an AI system to challenge their outcome based on easy-to-understand information about the factors and logic that served as the basis for the prediction,  or  recommendation,
  4. Robustness, Security, and Safety: develop robust and  safe AI systems, and protect them  throughout their life cycle so that  –  under normal use, foreseeable use or misuse, or other adverse conditions  – the keep functioning properly without becoming a security risks; ensuring  traceability  towards  data sets, processes and decisions made, and  applying a systemic approach to risk management at every stage of the AI system lifecycle that includes factors such as:  privacy, digital security, security and bias; and,
  5. Accountability: make the AI actors accountable for the proper functioning of AI systems and its correspondence with the proposed principles, according to their roles, the context and consistent state of the art.

Similarly, they echo OECD’s cooperation policies in defining its national policies and international cooperation among the acceding countries in favor of reliable Artificial Intelligence:

  1. Investing in AI research and development,
  2. Fostering a digital ecosystem for AI,
  3. Shaping an enabling policy environment for AI,
  4. Building human capacity and preparing for labor market transformation, and
  5. International co-operation for trustworthy AI.

Consequently, I emphasize the analysis of the principles proposed by OECD and which can be read in t.ly/e2Wq.  and that I pointed as necessary intermediate layers for the adoption of these principles as a methodological reference in the design of artificial intelligence solutions.

After an analysis of the language used in the document, in which I used the NLTK library and the development environment for Python, extracting the 50 most frequent n-grams in statement turns out that:

  • The uni-grams with relative frequencies greater than 1.00 units described the objective intended with the principles and recommendation proposal, or the variables in which they are expressed: digital (2.99), ai (1.89), economy (1.58), trade (1.31), and development (1.19). While the uni-grams relative frequencies between .05 and 1.00 units represent the action environment: society (.76), international (.73), growth/ investment (.70), policy (.64), global/ sustainable/ use (.58), and innovation/ technologies (.55).
  • The bi-grams, from their part, delimited the document´s field of action in the context described by the unigrams, exhibiting with higher relative frequencies the terms: digital economy (1.40), trade investment (.37), trustworthy ai (.34), and human centered (.24). Although, other variables such as responsible stewardship and stewardship trustworthy exhibit minimum relative frequency values with 0.12 units each.
  • The tri-grams, similarly, exhibit a greater representation of the terms linked to the macro-objective of the document with terms like: trade and security digital economy (.24); while the pursued objectives are less represented: Sustainable development goals/ human-centred future society/ competitive non discriminatory/ countries underrepresented populations/ human centred future/ and centred future society/ con .06 unit each.

I would like to conclude by saying that the recommendations of the council on AI addressed in this post, along with other documents I am including in this series; constitutes an effort to solve some of the ethical problems rooted in the design and use of artificial intelligence solutions. In this case, specifically in the context of public policy; the remaining documents will include other scenarios. Also, I would like to add that, with this reading exercise I seek to draw attention to the opportunity of public policy designers and designers of artificial intelligence solutions to collaborate in the achievement of a common goal: what is the responsible design of artificial intelligence.

If you are interested about this topic and have any idea that complements this review of the Recommendations of the Council on Artificial Intelligence let me know with a comment.