Newsletter DPT Nro. 65

ISSN 2618-236X

Octubre / 2021

CUESTIONES DE INTERES

Inteligencia artificial aplicada en cuestiones de salud

Cocrear, monitorear y auditar resultados e impactos

Imagen: Organización Panamericana de la Salud La inteligencia artificial en la salud pública

La presente reseña comprende dos (2) artículos. El primero (1) se refiere al uso de la inteligencia artificial (IA) en cuestiones de salud pública El segundo (2) trata sobre la responsabilidad por los resultados e impactos de los “algoritmos” de apoyo a las decisiones.

1.- Primer artículo: El uso de la inteligencia artificial en cuestiones de salud pública (1.1.) (1.2)

El informe especial reseñado, desarrollado por la Organización Panamericana de la Salud: (OPS/OMS), tiene como objetivo dar a conocer los principios rectores, componentes, subcampos y usos de la inteligencia artificial (IA) en salud pública.

Se destaca que el uso de la IA en salud pública debe guiarse por consideraciones técnicas y éticas que se reflejan en los siguientes principios rectores:

Centrada en las personas: Las acciones y soluciones de IA deben estar centradas en las personas y respetar –sobre todo- sus derechos (dignidad. respeto de la vida, libertad, salud, autodeterminación, equidad, justicia, privacidad, la propiedad)

Fundamentada en la ética: Los debates, el desarrollo y las aplicaciones de IA deben basarse en los principios éticos -acordados a escala mundial- de dignidad humana, beneficencia, no maleficencia, autonomía y justicia.

Transparente: Al desarrollar algoritmos de IA siempre deben usarse y comunicarse enfoques transparentes.

Protección de los datos: Toda aplicación de IA debe preservar la privacidad, la confidencialidad y la seguridad en el uso de datos

Integridad científica: Las intervenciones de IA deben ceñirse a prácticas confiables, reproducibles, justas, honestas y posibilitar la rendición de cuentas.

Abierta y compartible: Toda aplicación de IA debe ser lo más abierta y compartible posible. La apertura se refiere a acceso abierto, datos abiertos, normas abiertas, código abierto, gobierno abierto, ciencia abierta, mapas abiertos, conocimiento abierto y contenido abierto.

No discriminatoria: Toda iniciativa de IA para la salud pública debe sustentarse en la justicia, la igualdad y la inclusión.

Controlada por seres humanos: Las decisiones automatizadas deben estar sujetas a procesos formales de supervisión, control y revisión por parte de seres humanos.

Seguridad del paciente y calidad de la atención: La consideración central de la persona (por ejemplo: seguridad, calidad de atención) en el desarrollo, despliegue y uso de IA para la salud pública debe estar siempre respaldada por pruebas.

 

2.-Segundo artículo: Inteligencia artificial: La responsabilidad algorítmica (2.1.) (2.2,)

El concepto de “algoritmo” tiene distintos significados: (a) programa de computación, (b) conjunto de reglas basadas en pruebas objetivas, (c) diagrama orientador para la adopción de decisiones diagnósticas o terapéuticas, (d) conjunto de reglas y operaciones claramente definidas para resolver un determinado tipo de problemas, (e) sistema de decisión (o de apoyo a la decisión) sustentado en inteligencia artificial (IA) o aprendizaje automático (AA).

En IA y AA un algoritmo es el conjunto de instrucciones que ejecuta un sistema para aprender y aplicar lo aprendido, lo cual depende de: (a) el modelo que lo sustenta, (b) los datos con los que aprende, (c) los datos con los que se aplica, y (d) el contexto de aprendizaje y aplicación.

En 2019, el Congreso de EE.UU. sancionó la Ley de Responsabilidad Algorítmica (HR2291), que utiliza el término “sistema automatizado de toma de decisiones” y lo define como “un proceso computacional, incluido el que se deriva del aprendizaje automático u otras técnicas de procesamiento de datos o inteligencia artificial, que toma decisiones o facilita la toma de decisiones por parte de las personas, que impacta a los consumidores”. De manera similar, la ciudad de Nueva York (EE.UU.) está considerando la ley Int 1894, que introduciría auditorías obligatorias para las “herramientas automatizadas de toma de decisiones”.

Con relación a los responsables de definir los estándares para auditar algoritmos de decisión (en ámbitos públicos y privados) se recomienda que, en vez de intentar acordar una definición común de “algoritmo” o una técnica de auditoría específica, evalúen los sistemas en función de sus resultados e impactos. Si el análisis se concentra en el “potencial de causar daño” se evitan debates innecesarios. Se sugiere a los evaluadores cuantificar a los potenciales afectados por cada vulnerabilidad identificada en el sistema evaluado.

Concluye señalando que el término “algoritmo”, independientemente de cómo se lo defina, no debería ser un escudo para absolver de responsabilidad -por las consecuencias- a las personas que diseñaron y desarrollaron el sistema en cuestión.

Referencias:

(1.1.) ““La inteligencia artificial en la salud pública: Colaborar | Cocrear | Monitorear”. Transformación Digital: Cápsula de Conocimiento N° 1. Organización Panamericana de la Salud (OPS)/ Organización Mundial de la Salud (OMS) 2021.

(1.2.) La inteligencia artificial en la salud pública” Intramed. 14/07/2021

(2.1.) Inteligencia Artificial: Cómo fijar la responsabilidad algorítmica sin saber qué es un algoritmo. Por Kristian Lum (traducido por Ana Milutinovic). MIT Technology Review. 03 Marzo, 2021

(2.2.) USA – Congress.gov: HR2231 – Ley de responsabilidad algorítmica de 2019. 116° Congreso (2019-2020)