Newsletter DPT Nro. 95/97 - Abril/Junio

ISSN 2618-236X

Abril-Junio / 2024

NOTICIA DESTACADA

Pautas Regulatorias para Sistemas con Inteligencia Artificial

Relevantes experiencias pioneras

Frente a los riesgos y amenazas derivados de los sistemas con Inteligencia artificial (IA), su regulación ha sido reclamada por diversas instituciones intergubernamentales, académicas, cívicas, tecnológicas y empresariales. Esta reseña comprende ocho artículos referidos a recientes iniciativas de regulación en la materia. En el primero (1) se sintetiza la resolución adoptada el 21/03/2024 por la Asamblea General de la ONU sobre promoción de sistemas de IA seguros y fiables que contribuyan al desarrollo sostenible para todos. El segundo (2) trata sobre la aprobación de la Ley de Inteligencia Artificial por parte del Parlamento Europeo, el 13/03/2024. El tercero (3) se refiere a las pautas propuestas por la Academia Nacional de Medicina de EE.UU. para un Código de Conducta y Compromisos sobre IA en Salud y Ciencias Biomédicas. En el cuarto (4) se aborda la regulación de la IA en América Latina. El quinto (5) trata sobre los actuales debates sobre la Inteligencia Artificial General (IAG) y la viabilidad de su regulación. En el sexto (6) se informa sobre el compromiso, de un conjunto de empresas, de priorizar la seguridad, la innovación y la inclusión en materia de IA para proteger el bienestar y la democracia de las sociedades. El séptimo (7) es una síntesis del informe AI Index Report 2024 del HAI (Human-Centered Artificial Intelligence) de la Universidad de Stanford. El octavo (8) trata sobre la posibilidad de que los sistemas con IA adquieran “conciencia” de sí mismos.

 

1.- Primer artículo: Resolución adoptada por la Asamblea General de la ONU (21/03/2024) sobre promoción de sistemas de IA seguros y fiables que contribuyan al desarrollo sostenible para todos (1)

La Asamblea General de la ONU adoptó por aclamación, el 21/03/2024, una resolución histórica sobre la promoción de sistemas de inteligencia artificial (IA) “seguros y fiables” que contribuyan al desarrollo sostenible para todos. Fue la primera vez que la Asamblea adoptó una resolución para regular el campo de la IA. También reconoció el potencial de los sistemas de IA para acelerar y permitir el progreso hacia la consecución de los 17 Objetivos de Desarrollo Sostenible. La Asamblea pidió a todos los Estados miembros y partes interesadas que “se abstengan de utilizar sistemas de IA que no puedan funcionar de conformidad con las normas internacionales de derechos humanos o que planteen riesgos indebidos para el disfrute de los derechos humanos”. “Los mismos derechos que tienen las personas fuera de línea deben protegerse también en línea, incluso durante todo el ciclo de vida de los sistemas de IA”, afirmó. La Asamblea también instó a todos los Estados, al sector privado, a la sociedad civil, a las organizaciones de investigación y a los medios de comunicación a desarrollar y apoyar enfoques y marcos normativos y de gobernanza relacionados con el uso seguro y fiable de la IA. Reconoció además los “diferentes niveles” de desarrollo tecnológico entre los países y dentro de ellos, y que las naciones en desarrollo se enfrentan a retos únicos para seguir el rápido ritmo de la innovación. También instó a los Estados miembros y a las partes interesadas a cooperar y apoyar a los países en desarrollo para que puedan beneficiarse de un acceso inclusivo y equitativo, cerrar la brecha digital y aumentar la alfabetización digital.

Antes de la adopción, Linda Thomas-Greenfield, embajadora y representante permanente de EE.UU. ante la ONU, presentó el proyecto de resolución. Expresó su esperanza de que “el diálogo inclusivo y constructivo que ha conducido a esta resolución sirva de modelo para futuras conversaciones sobre los retos de la IA en otros ámbitos, por ejemplo, con respecto a la paz y la seguridad y el uso militar responsable de la autonomía de la IA”. También destacó la oportunidad y la responsabilidad de la comunidad internacional de “gobernar esta tecnología en lugar de dejar que nos gobierne”. “Así pues, reafirmemos que la IA se creará y desplegará bajo el prisma de la humanidad y la dignidad, la seguridad y la protección, los derechos humanos y las libertades fundamentales”, afirmó. Concluyó señalando: “Comprometámonos a cerrar la brecha digital dentro de las naciones y entre ellas, y a utilizar esta tecnología para avanzar en las prioridades compartidas en torno al desarrollo sostenible”

 

2.- Segundo artículo: El Parlamento Europeo aprueba la Ley de Inteligencia Artificial (2)

La Eurocámara ratificó, el 13 de marzo, la ley de inteligencia artificial (IA) que pactaron en diciembre de 2023 (*) las tres instituciones europeas y dio así un paso importante para su aprobación definitiva en la Unión Europea, aunque recién entrará en vigor en 2026. La presidente de la Comisión Europea, Ursula Von der Leyen destacó que se trata de “un marco pionero en Europa para la IA innovadora, con límites claros”. Agregó que “beneficiará a la cantera de talentos de Europa y sentará las bases de una IA fiable en todo el mundo”.

Protección de los ciudadanos: La normativa permite o prohíbe el uso de la IA en función del riesgo que suponga para los ciudadanos. La UE pretende dar ejemplo al resto del mundo e impulsar a la industria europea frente a EE.UU. y China. En líneas generales, la ley de IA prohíbe la vigilancia masiva en espacios públicos, pero permite que las fuerzas del orden puedan emplear la identificación biométrica, con previa autorización judicial, para prevenir una amenaza terrorista inminente. También para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o crimen medioambiental, así como para buscar a las víctimas de estos delitos.

Obligaciones de los sistemas de IA: El reglamento establece una serie de obligaciones para los sistemas de IA generativa. En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de IA y garantizar que los datos que se han empleado para entrenar a los sistemas respeten los derechos de autor. Además, se identifica una serie de sistemas de IA de alto riesgo que sólo se podrán comercializar si sus desarrolladores garantizan que respetan los derechos fundamentales. Por ejemplo, los que empleen las entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes. La norma prevé también la creación de la Oficina Europea de IA, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil.

 

3.- Tercer artículo: La Academia Nacional de Medicina de EE.UU. propone pautas para un Código de Conducta y Compromisos sobre Inteligencia Artificial en Salud y Ciencias Biomédicas (3)

La inteligencia artificial (IA) presenta oportunidades sin precedentes para la salud humana, pero también grandes riesgos potenciales. Los resultados de la IA se basan en conjuntos de modelos y datos creados e influenciados por humanos; por tanto, podrían exacerbar desigualdades existentes y crear otras nuevas, así como inducir diagnósticos erróneos, uso excesivo de recursos, violaciones de la privacidad y desplazamiento laboral. Para promover una IA confiable en salud, atención médica y ciencias biomédicas, y con un espíritu de cocreación y creación de consenso, el marco del Código de Conducta de IA se compone de un conjunto armonizado de: (a) principios basados ​​en trabajos anteriores, y (b) reglas simples (compromisos) para una amplia adopción por parte de las partes involucradas en el ciclo de vida de la IA (desarrolladores, investigadores, sistemas de salud, pagadores, pacientes y agencias federales). Al aplicar reglas aceptables e incontrovertibles (Compromisos del Código), las partes involucradas dispondrán de la conciencia y la orientación necesarias para tomar decisiones responsables -en tiempo real- en un entorno cambiante. Durante los próximos meses, el proyecto focalizará en: (a) Solicitar comentarios de las partes involucradas y del público sobre el borrador de los Principios y Compromisos del Marco del Código de Conducta para su incorporación en una publicación final, y (b) Convocar a grupos de trabajo que representen a las partes para garantizar una IA responsable en salud, atención médica y ciencias biomédicas. Los grupos de trabajo considerarán cómo abordar los cambios generales necesarios en el sistema de salud para cumplir los Compromisos del Código. Concluye señalando que la participación de todas las partes involucradas en este marco es esencial para garantizar el diseño intencional del futuro de la salud, la atención sanitaria y las ciencias biomédicas con aprovechamiento -seguro, efectivo, ético, equitativo, confiable y responsable- de las posibilidades de la IA.

 

4.- Cuarto artículo: Hacia una regulación de la IA en América Latina (4)

Informe regional de políticas públicas sobre IA basado en investigaciones realizadas por firmas jurídicas coordinadas por Trust Law. Es responsable del contenido el programa global de probono legal de la Thomson Reuters Foundation. El temario es el siguiente: Introducción; Metodología; Glosario; Recomendaciones del Consejo de la OCDE sobre IA; Recomendación de la UNESCO sobre la ética de la IA; Declaración de Montevideo y otras iniciativas relevantes; Estrategias nacionales en América Latina: Aspectos generales: Argentina. Brasil, Chile, Colombia, Costa Rica, Perú, México, Uruguay. Proyectos de Gobernanza, BID (fAIr LAC), Universidad Adolfo Ibáñez, Órgano Asesor sobre IA de la ONU; Proceso regulatorio en la Unión Europea y EE.UU. Consideraciones para una regulación centrada en derechos humanos. Palabras finales. Concluye señalando que la agenda para avanzar en una regulación de IA en América Latina está en marcha y que seguramente los esfuerzos se intensificarán en los próximos años. Quienes se encarguen de la toma de decisiones en diferentes ámbitos, tanto públicos como privados, deben incorporar una perspectiva centrada en el cumplimiento del marco internacional, regional y local de los derechos humanos, más allá de las consideraciones éticas pertinentes.

 

5.- Quinto artículo: Debates sobre la “Inteligencia Artificial General” (IAG) y la viabilidad de su regulación (5)

En materia de IA, la expresión “Inteligencia Artificial General” (IAG) (“Artificial General Intelligence” (AGI)) está presente en el discurso actual de empresas, gobiernos y medios de comunicación. Por ejemplo, la IAG se destaca particularmente tanto en la Estrategia Nacional de IA del gobierno del Reino Unido como en los documentos de IA del gobierno de EE.UU. En otro orden, la empresa OpenAI señala que “la IAG tiene el potencial de impulsar una de las mayores transformaciones de la historia”, y afirma que su misión es “garantizar que la IAG beneficie a toda la humanidad”. Sin embargo, un análisis profundo de las especulaciones sobre la IAG revela que muchos especialistas tienen puntos de vista marcadamente diferentes sobre su naturaleza, alcances y perspectivas. El término “IAG” se acuñó a principios de la década de 2000 para recuperar las elevadas aspiraciones originales de los pioneros de la IA, buscando un enfoque renovado para “estudiar y reproducir la inteligencia en su conjunto de manera independiente del dominio”.  El cofundador de DeepMind, Demis Hassabis, define a la IAG como un sistema que “debería ser capaz de realizar prácticamente cualquier tarea cognitiva que los humanos puedan realizar”, y OpenAI la describe como “sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos”. Esta visión lleva a otra especulación sostenida por algunos investigadores de IA: una vez que un sistema de IA alcance la IAG, alcanzará rápidamente una inteligencia sobrehumana aplicando su poder de optimización a su propio software, y podrá desarrollar rápidamente una inteligencia muy superior a la de los humanos. Este enfoque provoca preocupación por el riesgo existencial -para la humanidad- de una IAG “no alineada” que podría disentir de los objetivos de su creador. Por ejemplo, “Podríamos pedirle a una IAG que resuelva la problemática del cambio climático y la IAG podría proponer diezmar a la población humana, dado que ésta es el principal obstáculo para solucionar la crisis climática”.

La evidencia empírica muestra que la inteligencia individual depende profundamente de la participación en entornos sociales y culturales. Las habilidades para comprender, coordinar y aprender de otras personas son mucho más importantes para el éxito que el “poder de optimización”. Si la inteligencia humana requiere una integración compleja de diferentes capacidades cognitivas, así como un andamiaje en la sociedad y la cultura, es probable que el nivel de “inteligencia” de un sistema no tenga un acceso fluido al nivel de “software” necesario. El artículo concluye señalando que -al final- el significado y las consecuencias de la “IAG” no se resolverán mediante debates mediáticos, demandas judiciales, ni con intuiciones ni especulaciones, sino mediante una investigación rigurosa de sus principios, alcances y estrategias de mediano y largo plazo.

 

6.- Sexto artículo: Un grupo de 16 empresas se compromete a desarrollar la Inteligencia Artificial de forma segura (6)

De cara a la segunda cumbre mundial de Inteligencia Artificial (IA), celebrada en Corea del Sur entre el 21 y 22 de mayo, 16 empresas se comprometieron a priorizar la seguridad, la innovación y la inclusión en materia de IA para proteger el bienestar y la democracia de las sociedades. Entre las compañías se destacan Google, Meta, Microsoft, OpenAI, Zhipu.ai (respaldada por la china Alibaba), Tencent; Meituan; Xiaomi; Amazon y Samsung, entre otras. Dicho compromiso fue respaldado por una declaración más amplia del G7, la UE, Singapur, Australia y Corea del Sur en una reunión virtual organizada por el primer ministro británico, Rishi Sunak, y el presidente surcoreano, Yoon Suk Yeol. Los participantes también señalaron la importancia de la interoperabilidad entre los marcos de gobernanza, los planes para una red de institutos de seguridad y el compromiso con los organismos internacionales para abordar los riesgos, de evitar desarrollar modelos en los que los riesgos no pudieran mitigarse suficientemente y a garantizar la gobernanza y la transparencia.

 

7.- Séptimo artículo: Nueva versión del AI Index 2024 – Stanford University (7)

La última versión del AI Index Report del HAI (Human-Centered Artificial Intelligence) de la Universidad de Stanford, contiene un análisis pormenorizado del desarrollo de la Inteligencia Artificial (IA) en distintas áreas y a nivel mundial. Está integrado por nueve secciones: (1) Investigación y desarrollo, (2) Desempeño técnico de las diferentes herramientas, (3) IA responsable, (4) Aspectos económicos del desarrollo de la IA, (5) Ciencia y Medicina, (6) Educación, (7) Gobernanza y políticas públicas, (8) Diversidad, y (9) Opinión pública.

Los principales hallazgos registrados en el informe son los siguientes: (a) La IA supera a los humanos en algunas tareas, pero no en todas: La IA ha superado al rendimiento humano en varias pruebas de referencia, como la clasificación de imágenes, el razonamiento visual y la comprensión de idiomas. Pero queda atrás en tareas más complejas, como las competencias de matemáticas, el sentido común y la planificación; (b) La Investigación se centra en la industria: La industria sigue dominando la investigación de vanguardia en IA. En 2023, la industria produjo 51 modelos de IA, mientras que el mundo académico sólo produjo 15. Por otra parte, hubo 21 modelos resultantes de proyectos colaborativos entre la industria y el mundo académico: (c) Crecimiento exponencial de los costos: Los modelos de vanguardia son cada vez más caros. Los costos de entrenamiento de los modelos de IA más avanzados alcanzan niveles sin precedentes; (d) Liderazgos: EE.UU. se sitúa por delante de China, la UE y el Reino Unido como principal fuente de modelos líderes en IA. En 2023, 61 modelos destacados de IA procedieron de instituciones con sede en EE.UU., muy por delante de los 21 de la UE y los 15 de China; (e) Carencia de evaluaciones estandarizadas: Se verificó una notoria carencia de estandarización en los informes sobre IA responsable. Los principales desarrolladores, incluidos OpenAI, Google y Anthropic, prueban sus modelos con diferentes referentes de IA responsable. Esta práctica complica los esfuerzos para comparar las posibilidades, riesgos y limitaciones de distintos modelos de IA; (f) La IA Generativa atrae la mayor parte de la inversión: La inversión en IA Generativa se multiplicó por 8 desde 2022 hasta alcanzar los actuales 25.200 millones de dólares; (g) Impacto de la IA en tareas por sector: La IA conduce hacia una mayor productividad y calidad en la producción, así como a reducir las diferencias de cualificación entre los trabajadores; (h) En EE.UU. aumentan drásticamente las normativas sobre IA: El número de normativas relacionadas con la IA en EE.UU. aumentó significativamente en los últimos 5 años. Sólo el año pasado, el número total de normativas relacionadas con la IA creció un 56,3%; (i) Impacto de la IA: En EE.UU. los datos de Pew sugieren que el 52 % de los estadounidenses afirman sentirse más preocupados que entusiasmados con la IA, lo que supone un aumento con respecto al 37 % de 2022.

 

8.- Octavo artículo: Inteligencia Artificial: ¿Puede adquirir “conciencia” de sí misma y de su entorno? (8.1.) (8.2.)

Dado que los programas de inteligencia artificial (IA), especialmente los modelos generativos, son entrenados con grandes cantidades de datos para imitar respuestas humanas, nuevamente se discute acerca de la posibilidad de que la IA pueda alcanzar “conciencia” de sí misma y de su inserción en los entornos pertinentes. En el artículo aquí reseñado se caracteriza una lista de verificación integrada por 14 criterios que, en conjunto, podrían sugerir -pero no probar- que una IA exhibe “conciencia”. La lista fue plasmada por un grupo de informáticos, neurocientíficos y filósofos con base en teorías de la conciencia humana. Dichos criterios, junto con los resultados de su aplicación a las arquitecturas de IA existentes, se presentan en un documento de 120 páginas publicado como preimpresión para debate. Si bien ninguno de los modelos generativos existentes cumplió con el conjunto de criterios, el trabajo ofrece un marco conceptual y una metodología sistemática para la evaluación.

Una de las primeras tareas del grupo fue definir la “conciencia”. Para ello se centraron en lo que Ned Block (filósofo de la Universidad de Nueva York) denominó “conciencia fenoménica”, o cualidad subjetiva o reflexiva de una experiencia asociada a una percepción. Por ejemplo, qué experimentamos cuando vemos, escuchamos, tocamos, olemos o saboreamos. También cubre la conciencia corporal, por ejemplo, cómo experimentamos nuestra propia temperatura corporal, nuestra postura o las posiciones de nuestras extremidades. Pero ¿Cómo se puede investigar la “conciencia fenoménica” de un algoritmo? Los investigadores adoptaron un enfoque basado en teorías: primero exploraron las teorías actuales sobre la conciencia humana para obtener los indicadores centrales de un estado consciente, y luego buscaron indicios de los mismos en la arquitectura subyacente de distintos algoritmos de IA. Los autores señalan que su lista de verificación es un “trabajo en progreso”, y que no es el único esfuerzo en marcha de este tipo. Algunos miembros del grupo forman parte de un proyecto financiado por el Canadian Institute for Advanced Research (CIFAR) para diseñar una prueba de “conciencia” más amplia que también pueda aplicarse a organoides, animales y recién nacidos.

El mayor problema de estos proyectos reside en que las teorías existentes se basan en nuestra comprensión -actual o histórica- de la conciencia humana. Sin embargo, la conciencia puede adoptar otras formas, incluso en los demás mamíferos. Por ejemplo: “Realmente no tenemos idea de lo que es ser y sentirse un murciélago y ello constituye una limitación que no podemos ignorar”.

(1) “La Asamblea General adopta una resolución histórica sobre Inteligencia Artificial” Noticias ONU. Organización de las Naciones Unidas. Derechos humanos. 21 Marzo 2024

(2)La Eurocámara aprueba una ley ‘histórica’ para regular la inteligencia artificial: El Parlamento Europeo dio luz verde a la norma, la primera que regula esta tecnología en el mundo. Su objetivo es garantizar la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación” Boletín SINC. Fuente: EFE Innovación. 13/3/2024

(3) “Artificial Intelligence in Health, Health Care, and Biomedical Science: An AI Code of Conduct Principles and Commitments – Discussion Draft” By Laura Adams, Elaine Fontaine, Steven Lin, Trevor Crowell, Vincent C. H. Chung, and Andrew A. Gonzalez, editors. National Academy of Medicine. April 8, 2024 |

(4) “Radiografía normativa: ¿Dónde, qué y cómo se está regulando la inteligencia artificial en América Latina? Por Franco Giandana Gigena, con la colaboración de Gaspar Pisanu, Ángela Alarcón, Agneris Sampieri, Yamlek Mojica, Daniel Leufer y Willmary Escoto. Access Now. Febrero de 2024

(5) “Debates on the Nature of Artificial General Intelligence” Melanie Mitchell Science. Vol. 383, No. 6689. Free Access. Expert Voices. 21 Mar 2024. DOI: 10.1126/science.ado7069

(6) “Un grupo de 16 empresas se compromete a desarrollar la Inteligencia Artificial de forma segura” Por Redaccion -Espaciotech. Tecnología e Innovación, Inteligencia Artificial. 22 mayo, 2024

(7) “The AI Index Report: Measuring trends in AI: Artificial Intelligence Index 2024”. Stanford Institute for Human-Centered Artificial Intelligence. Stanford University. Stanford, CA 94305. May 2024.

(8.1.) Fuente primaria: “Consciousness in Artificial Intelligence: Insights from the Science of Consciousness”. Patrick Butlin, Robert Long, Eric Elmoznino, Yoshua Bengio, Jonathan Birch, Axel Constant, George Deane, Stephen M. Fleming, Chris Frith, Xu Ji, Ryota Kanai, Colin Klein, Grace Lindsay, Matthias Michel, Liad Mudrik, Megan A.K. Peters, Eric Schwitzgebel, Jonathan Simon, Rufin VanRullen. Arxiv. 22 Aug 2023. Cornell University. DOI: 10.48550/arXiv.2308.08708

(8.2.) Fuente secundaria: “If AI becomes conscious, how will we know?: Scientists and philosophers are proposing a checklist based on theories of human consciousness” By Elizabeth Finkel. Science. 22 Aug 2023. DOI: 10.1126/science.adk4451