Newsletter DPT Nro. 83
ISSN 2618-236X
Abril / 2023
NOTICIAS DE INTERES GENERAL
Inteligencia Artificial (IA) en el sector Salud: Propuestas de la Organización Panamericana de la Salud (OPS)
Y otras cuestiones candentes en IA
Dado que la Inteligencia Artificial (IA) está penetrando en múltiples sectores de actividad, resulta oportuno focalizar en tres cuestiones de actualidad: (a) la IA en el sector Salud, (b) el potencial y las limitaciones de los actuales “chatbots inteligentes”, y (c) los factores político-culturales que condicionan el desempeño de los países en innovación en materia de IA.
La presente reseña comprende nueve artículos referidos a las temáticas enunciadas. En el primero (1) se sintetizan las propuestas de la Organización Panamericana de la Salud (OPS) en materia de IA en el sector Salud. El segundo (2) se refiere a un Atlas de AI, donde se representan -mediante un conjunto de diagramas- los factores, actores, dinámicas de poder, políticas y costos planetarios de la IA. El tercero (3) trata sobre la reciente profusión de los “chatbots inteligentes” y su potencial. El cuarto (4) aborda las debilidades exhibidas por los actuales “chatbots inteligentes”. En el quinto (5) se presenta el debate acerca de la eventual adjudicación de la autoría de artículos científico-tecnológicos a algoritmos de IA. En el sexto (6) se presentan los resultados de una encuesta a líderes empresarios acerca del uso de “chatbots inteligentes” y sus efectos previsibles sobre el empleo. En el séptimo (7) se reseña una nota de blog del Banco Interamericano de Desarrollo (BID) sobre los riesgos de la IA y propuestas para afrontarlos. En el octavo (8) se pronostica cómo la IA transformará el trabajo de las personas. En el noveno (9) se resumen 3 artículos acerca de la posición y el rol de China en la carrera por el liderazgo global en IA y otras tecnologías innovadoras
1.- Primer artículo: Inteligencia Artificial (IA) en el sector Salud: Propuestas de la Organización Panamericana de la Salud (OPS) (1)
La Inteligencia Artificial (IA) es uno de los 8 principios rectores promovidos por la Organización Panamericana de la Salud (OPS) para la transformación digital del sector Salud. El documento aquí reseñado es una sinopsis de conceptos clave, líneas de acción recomendadas e indicadores para su monitoreo, con el objetivo de avanzar en el uso de la IA en el sector Salud. Es el resultado de un trabajo con expertos, colegas de países y centros colaboradores, y forma parte de la “caja de herramientas” para apoyo a la transformación digital del sector salud.
Según la OPS, “La cooperación mundial en IA implica comprender la dimensión individual y social en una realidad globalizada e interconectada que pertenece a la condición humana. Dicha cooperación, así como el trabajo en redes multisectoriales e interdisciplinarias, es vital a la hora de diseñar y adoptar soluciones de IA que promuevan los enfoques de equidad, género y diversidad cultural con algoritmos seguros, confiables y abiertos”.
En salud existen numerosos ejemplos de utilización IA en investigación, procesos de cuidado, soluciones para pacientes y optimización de operaciones. A su vez, la IA puede ayudar a superar los crecientes desafíos en el sector salud, incluidos el aumento de los costos, los cambios demográficos y epidemiológicos, las necesidades relacionadas con las enfermedades infecciosas y no transmisibles, así como una significativa escasez de profesionales capacitados.
El desarrollo de estrategias de IA en Salud plantea grandes desafíos técnicos, éticos, políticos, regulatorios y de recursos humanos. En la Región de las Américas existen desafíos difíciles de sortear; entre ellos la elaboración de políticas de Estado sostenidas y la creación de ecosistemas de innovación que atraigan inversiones para desarrollar estas tecnologías.
En el documento aquí reseñado se explora el principio rector 6: “La IA y su aplicación dentro de los sistemas de salud”. Se comienza con una definición conceptual de la IA y de su situación actual. Luego se profundiza en los obstáculos para su implementación y en las recomendaciones para superarlos. Por último, se proponen indicadores para monitorear el progreso en la implementación y unas recomendaciones generales.
1.- Introducción
La IA facilita la transición hacia sistemas de salud más proactivos, predictivos y preventivos. Clásicamente, se la ha definido como “la ciencia que desarrolla máquinas para hacer tareas que requerirían inteligencia humana”. Esta definición engloba tanto los métodos para representar el conocimiento humano (IA simbólica) como los que utilizan datos para generar conocimiento (IA basada en aprendizaje automático). A su vez, la definición incluye múltiples áreas de aplicación, como el procesamiento del lenguaje natural, la visión artificial, la robótica o el procesamiento de la voz, entre otras.
Varios aspectos fomentan y retroalimentan las medidas de transformación digital en el sector Salud; por ejemplo: el aumento de la capacidad de cómputo, el creciente volumen de datos disponibles y los grandes avances logrados en algoritmos de IA. Los países de ingresos bajos y medianos (PIBM) son los más propensos a ganar o perder con la implementación de estrategias basadas en la IA. Si logran alinear las estrategias sanitarias con procesos de transformación digital e IA, pueden obtener importantes mejoras en los procesos de cuidado de la salud. Pero si no logran aprovechar estas nuevas herramientas, profundizarán aún más la brecha existente con los países de ingresos altos.
2.- Estado actual de la IA e identificación de brechas
En los PIBM, la escasez de recursos y la falta de un ecosistema integrado de financiación se constituyen en una barrera para la adquisición de herramientas de IA, y esto se ve agravado por la complejidad de los procesos de adquisición y compra por parte de los gobiernos. Además, existen desafíos para establecer políticas regulatorias abarcativas, persistentes y coherentes que permitan que el uso de la IA escale en los distintos entornos jurisdiccionales. La falta de transparencia en los procesos de adquisición, transformación y explotación de datos y la necesidad de establecer normativas para el uso clínico y extrahospitalario de la información, son retos complejos que deben abordarse para garantizar una IA en materia de salud que respete los derechos de las personas. A su vez, es necesario fomentar la cooperación entre el sector privado y las oportunidades de formación, así como la retroalimentación de iniciativas entre el sector público y privado.
3.- Líneas de acción
A continuación se presentan las líneas de acción propuestas por la OPS en su documento “Ocho principios rectores de la transformación digital del sector de la salud”, con una serie de recomendaciones para concretar ese llamado a la acción. También se incluyen recomendaciones provistas por expertos consultados.
3.1.- A la hora de desplegar la IA en el campo de la salud, asegurar el doble papel del Estado como garante de los derechos humanos y promotor del goce de esos derechos. Para ello, se recomienda fomentar políticas y regulaciones para el uso y el avance de las TIC en salud que garanticen la seguridad y privacidad de las personas. Esto suele ser una limitación importante, sobre todo en sistemas en los que el desarrollo de legislaciones y regulaciones requiere tiempos prolongados.
3.2.- Establecer mecanismos de coordinación formal que promuevan y aseguren el entendimiento cooperativo y constructivo entre segmentos públicos y privados, de gobernanza, universidad, industria y ciudadanía, a nivel regional y global. Para ello, se recomienda facilitar el acceso y la gobernanza de datos, de modo que permitan implementar estrategias de IA en el campo de la salud. Esto depende en gran medida del desarrollo de redes de sistemas de información en salud (SIS) sólidas, así como de políticas y regulaciones que faciliten la accesibilidad a los datos, garantizando su seguridad y privacidad.
3.3.- Promover fondos de inversión multinacionales para que los países en situaciones más vulnerables no se vean privados de los beneficios de las tecnologías emergentes y la IA en el campo de la salud pública. Para ello, se recomienda: (a) Estimular y respaldar la búsqueda de financiamiento multinacional basado en propuestas colaborativas de interés regional y escalables a otras regiones, (b) Focalizar el financiamiento en estrategias sustentables que potencien el desarrollo de recursos humanos con capacidad de replicar conocimiento en el desarrollo de la infraestructura, arquitectura e implementación de estrategias de salud pública basadas en la IA, y (c) Fortalecer la relación con instituciones, organizaciones y expertos dedicados a la IA de la Región que puedan respaldar e involucrarse en los proyectos de estrategias basadas en IA potencialmente financiables.
3.4.- Construir un sistema de innovación en IA que sea abierto y cooperativo, promoviendo el desarrollo de códigos de acceso abierto a algoritmos y aplicaciones. Para ello, se recomienda: (a) Garantizar la privacidad y seguridad de la información, y (b) Crear conjuntos de datos abiertos que disminuyan la barrera de acceso a la información. En los últimos años se han consolidado conjuntos de datos que resultaron en hitos para el desarrollo de herramientas basadas en la IA como ImageNet, MS COCO Dataset y Google Open Images Dataset.
3.5.- Prevenir sesgos algorítmicos y garantizar la inclusión social desde el diseño de los sistemas de IA hasta su potencial aplicación en todos los niveles económicos, sociales y geopolíticos de los países de la región. Además de la digitalización de la información del sistema sanitario, debe existir interoperabilidad entre los distintos sistemas de información para asegurar tanto la cantidad como la calidad de los datos que se van a utilizar en el diseño de IA. El diseño de sistemas de información debe estar orientado, por un lado, a los datos, para poder identificar y corregir rápidamente errores o inconsistencias; y por otro, en establecer sistemas amigables para el usuario a fin de que la recolección de datos sea limpia y lo menos ruidosa posible. En este sentido, se recomienda: (a) Estimular el desarrollo de SIS integrados mediante políticas y regulaciones que faciliten la implementación de SIS de alta calidad en las redes nacionales de salud, (b) Fortalecer la calidad de datos, ya que esto dicta la precisión de los productos de IA. Los factores que determinan esta calidad del dato son su precisión, completitud, consistencia, integridad, oportunidad y unicidad. La calidad de los datos en salud depende en gran medida del desarrollo y madurez de los SIS.
3.6.- Acelerar los marcos ético-legales, la capacitación y el encuentro de talento de IA de alto nivel. Construir una disciplina académica de IA mediante la formación de equipos multidisciplinarios. Para ello, se recomienda: (a) Estimular la investigación de los problemas éticos que conlleva la implementación de estrategias basadas en la IA (uso de datos personales, sus costos para el sistema de salud, la equidad respecto a los potenciales beneficiarios y la replicación de sesgos presentes en los datos), (b) Fortalecer la educación y la formación de los recursos humanos especializados en IA en Salud.
3.7.- Generar evidencia sobre la aplicación de sistemas de IA: Para ello, se recomienda: (a) Promover el desarrollo de metodologías estándar de comunicación y evaluación del funcionamiento de las herramientas basadas en IA, (b) Fomentar la evaluación y el monitoreo del impacto de estas herramientas sobre la cadena de valor en Salud, (c) Impulsar la investigación del impacto de implementar estrategias basadas en la IA. Este es otro aspecto vital que se debe tener en cuenta, ya que son limitadas las evidencias y experiencias aptas para asistir la toma de decisiones en salud a diferentes niveles. Por otro lado, cada nuevo desarrollo de IA tiene que poder demostrar su eficacia y sus beneficios frente a otras estrategias.
4.- Indicadores de monitoreo
Con el objetivo de avanzar en el desarrollo y la implementación de la IA en Salud, se proponen los siguientes indicadores. No se trata de un listado exhaustivo, sino que cada país o región puede incorporar otros indicadores, así como definir el nivel de desagregación necesario y la frecuencia de medición.
4.1.- Indicadores transversales a los 8 principios rectores para la transformación digital en salud
4.1.1. Existencia de una estrategia nacional de salud digital establecida mediante un marco normativo.
4.1.2. Existencia de una estructura organizativa gubernamental que lidere la estrategia de transformación digital en salud.
4.1.3. Existencia de un presupuesto destinado a una agenda digital que contemple recursos humanos y tecnología necesaria.
4.2.- Indicadores específicos de IA
4.2.1. A la hora de desplegar la IA en el campo de la salud, asegurar el doble papel del Estado como garante de los derechos humanos y promotor del disfrute de esos derechos: Promover y modernizar las regulaciones y políticas para el uso y el avance de las TIC en salud que garanticen la seguridad y la privacidad de las personas.
4.2.2. Establecer mecanismos de coordinación formal que promuevan el entendimiento cooperativo público-privado de gobernanza, universidad, industria y ciudadanía, y a nivel regional y global: (a) Incluir las ciencias de datos y la IA en los planes de estudio de instituciones educativas nacionales y subnacionales, (b) Crear un comité público-privado y con funcionamiento regular para definir y monitorear el acceso y la gobernanza de datos para implementar estrategias de IA en salud.
4.2.3. Promover fondos de inversiones multinacionales para los países más vulnerables: (a) Definir una estrategia y un presupuesto nacional para el desarrollo de sistemas basados en la IA que tengan efecto en la salud de la población, (b) Implementar acuerdos nacionales público-privados para la implementación de proyectos de IA en salud, (c) Establecer acuerdos de colaboración con instituciones, organizaciones y expertos regionales dedicados a la IA.
4.2.4. Construir un sistema de innovación en IA que sea abierto y cooperativo, promoviendo el desarrollo de códigos de acceso abierto a algoritmos y aplicaciones: (a) Creación de conjuntos de datos abiertos, (b) Existencia de infraestructura y arquitectura para el manejo y análisis de datos.
4.2.5. Prevenir sesgos algorítmicos y garantizar la inclusión social: (a) Existencia de estrategias que promuevan la creación de conjuntos de datos inclusivos provenientes de diferentes instituciones gubernamentales y no gubernamentales. (b) Acelerar los marcos ético-legales, la capacitación y el encuentro de talento de alto nivel. (c) Construir una disciplina académica mediante la formación de equipos interdisciplinarios. (d) Existencia de expertos en bioética en los equipos de trabajo y comités relacionados con la IA y la salud. (e) Establecer acuerdos de intercambio de los equipos nacionales con expertos en IA y salud a nivel regional y mundial. (f) Número de espacios de formación para el desarrollo de habilidades técnicas sobre IA y salud.
4.2.6.- Construir una disciplina académica de IA mediante la formación de equipos multidisciplinarios: (a) Investigaciones sobre problemas éticos que conlleva la implementación de estrategias basadas en IA (uso de datos personales, sus costos para el sistema de salud, la equidad respecto a los potenciales beneficiarios y la replicación de sesgos presentes en los datos), (b) Actividades de educación y formación de recursos humanos especializados en IA en Salud.
4.2.7. Generar evidencia sobre la IA. (a) Número de investigaciones realizadas que analicen la efectividad y seguridad de la implementación de estrategias basadas en IA. (b) Número de publicaciones sobre los resultados de la implementación de proyectos o programas de IA en salud. (c) Número de eventos de divulgación sobre experiencias e impacto de la IA en la salud.
5.- Recomendaciones generales
Las herramientas y procesos basados en IA deben considerarse como cualquier otra herramienta disponible para el sistema de salud y su personal. Por lo tanto, deben desarrollarse, evaluarse, implementarse y monitorearse siguiendo los mismos estándares tecnológicos y éticos que para cualquier otra herramienta que utilice el sistema de salud. En particular, es importante hacer hincapié en las siguientes recomendaciones:
5.1. Asegurarse de que estas herramientas sean un medio para lograr mayor accesibilidad e inclusión, evitando la generación de nuevas brechas e inequidades. Salvaguardar los aspectos de privacidad, confidencialidad y seguridad de los datos de los pacientes y evitar que los sesgos propios de la sociedad, representados en los datos que son insumo para estas herramientas, terminen aumentando las brechas actuales y queden reflejadas en los algoritmos.
5.2. Evaluar la eficacia de estas herramientas siguiendo los mismos métodos de evaluación ya disponibles (ensayos clínicos aleatorizados, estudios observacionales, entre otros), asegurando que agreguen valor en los procesos del sistema de salud y que no pierdan de vista el impacto en el primer nivel de atención.
5.3. Fortalecer los SIS que son la base para el desarrollo de sistemas basados en IA.
5.4. Fomentar el desarrollo de un ecosistema sostenible para la innovación abierta en IA y sus aplicaciones en salud.
5.5. Adecuar los marcos jurídicos para una implementación segura y responsable de la IA en el ámbito de la salud pública.
5.6. El uso de la IA en la salud pública debe guiarse por consideraciones técnicas y éticas a fin de mitigar el riesgo ético en la salud pública y las intervenciones de política conexas. Esas consideraciones se reflejan en los siguientes principios: (a) Centrada en las personas: Las acciones y soluciones deben estar centradas en las personas y no usarse como un fin en sí mismas. Como una de las muchas tecnologías para facilitar el trabajo en el ámbito de la salud pública, la IA debe respetar los derechos de la persona; (b) Fundamentada en la ética: Los debates, el desarrollo y la aplicación deben basarse en los principios éticos acordados a escala mundial de dignidad humana, beneficencia, no maleficencia, autonomía y justicia; (c) Transparente: Siempre deben usarse enfoques transparentes, que deben comunicarse al desarrollar algoritmos de IA; (d) Protección de datos: La privacidad, la confidencialidad y la seguridad en el uso de datos deben ser fundamentales para toda IA que se desarrolle; (e) Integridad científica: Las intervenciones de IA deben ceñirse a prácticas científicas óptimas: deben ser confiables, reproducibles, justas y honestas y posibilitar la rendición de cuentas; (f) Abierta y compartible: Todo debe ser lo más abierto y compartible posible. Las herramientas y el concepto subyacente de apertura deben ser una característica y un factor de éxito crucial de toda IA que se desarrolle; (g) No discriminatoria: La justicia, la igualdad y la inclusión en el impacto y el diseño deben constituir siempre la base de toda iniciativa de IA para la salud pública; (h) Tecnología controlada por seres humanos: Es obligatorio que haya procesos formales de control y revisión por seres humanos.
2.- Segundo artículo: Atlas de IA: Poder, políticas, y costos planetarios de la Inteligencia Artificial (2.1.) (2.2) (2.3.) (2.4.)
Suele afirmarse que 2022 fue el año de la Inteligencia Artificial (IA), y hay varios sucesos que lo confirman, como la masificación de su uso en diversas industrias o el surgimiento de asombrosos productos y servicios como Dall-E y ChatGPT. Alejandro Barros señala que, con abstracción del momento “cool” que transita la IA, surgen diversas inquietudes al analizar los contenidos de la red de Kate Crawford, investigadora principal en Microsoft Research, profesora visitante en el centro MIT para Civic Media, miembro principal del Information Law Institute en NYU, y profesora asociada en el Centro de Investigación de Periodismo y Medios de la Universidad de Gales del Sur. Crawford viene investigando, desde hace ya varios años, los impactos de la IA en diferentes dimensiones, a través de una prolija disección de sus diversos componentes.
Anatomía de la IA
Con el propósito de describir cómo funciona la IA, Crawford y Vladan Joler desarrollaron -en 2018- una exposición denominada “Anatomía de la IA” en el Victoria & Albert Museum de Londres (2.2.). En la misma exhibieron el “Amazon Echo”, un diagrama que muestra los diversos componentes involucrados en los sistemas de IA, desde la fabricación hasta la operación. Dicho diagrama se exhibe en la imagen (2.3.)
Con base en la referida investigación Crawford profundizó sus análisis mediante la construcción del “Atlas de la IA”, donde muestra las diferentes dimensiones de la IA y como éstas impactan en diferentes aspectos de nuestras vidas. Entre las premisas del Atlas se destacan las siguientes: (a) “La Inteligencia Artificial no es ni inteligencia ni artificial”, (b) “Los sistemas de IA no son autónomos, racionales ni capaces de discernir nada, sino sistemas de procesamiento computacional intensivo, entrenados con inmensos conjuntos de datos y reglas predefinidas”
Crawford analiza la IA desde las siguientes dimensiones:
- (a) Tierra (“Earth”): El desarrollo de la IA implica el consumo y uso de gran cantidad de recursos naturales no renovables en la infraestructura TI que la soporta (tierras y minerales raros, litio y estaño entre otros). Las grandes compañías tecnológicas no admiten ni se hacen cargo de la huella de carbono que generan, proyectando la errónea impresión de que se trata de industrias “limpias”. Adicionalmente el procesamiento computacional asociado a la IA tiene un gran impacto en términos de consumo energético.
- (b) Trabajo (“Labor”): Incluye todo el trabajo humano asociado a la IA, desde mineros hasta personas trabajando en factorías tecnológicas produciendo las componentes que forman parte de la infraestructura TI, pasando por trabajadores en la modalidad de crowdworkers en India y otros -mal pagados y con exiguos derechos- en países del tercer mundo, para apoyar el procesamiento de los modelos IA.
- (c) Datos (“Data”): Las compañías tecnológicas capturan datos de múltiples fuentes -la mayoría de acceso abierto (públicos)-, sin asumir los costos asociados (“data for free”). Las frases como “los datos son el nuevo petróleo” ocultan que, en muchas ocasiones, se trata de datos sensibles, personales y sin control de sus propietarios, utilizados en forma gratuita. Por otra parte, diferentes fuentes de datos exhiben grandes sesgos en términos de países, contextos, e idiomas entre otros.
- (d) Clasificación (“Classification”): El proceso de etiquetado y clasificación está sujeto a relevantes sesgos (raciales, étnicos, religiosos, políticos y de género entre otros) lo cual induce o genera acciones y decisiones discriminatorias.
- (e) Emociones (“Affect”): Un ejemplo de sesgos es creer que con el análisis de expresiones faciales se pueden interpretar en forma universal las emociones de una persona. Incluso con la evidencia científica en contrario, la industria sigue desarrollando servicios basados en esta hipótesis, transformando a estos sistemas en determinísticos.
- (f) Estado (“State”): Las profundas y secretas relaciones entre el sector TI, las fuerzas armadas y las grandes agencias de seguridad, muchas veces sustentadas en productos y servicios de vigilancia masivos, incluso a nivel doméstico; por ejemplo, el uso de sistemas de reconocimiento facial, sin tratar adecuadamente los sesgos innatos en estos sistemas.
Tras un detallado análisis de cada una de las referidas dimensiones, Crawford, concluye señalando que los sistemas de IA se han transformado en herramientas de poder en manos de unos pocos (que exhiben una imagen “limpia y cool”) y que van a afectar a muchos millones de personas en su cotidiano vivir sin un adecuado entendimiento.
3.- Tercer artículo: La reciente profusión de los “chatbots inteligentes” y su potencial (3.1.) (3.2.)
Unos días después de que Google y Microsoft anunciaron que entregarían resultados generados por sus respectivos “chatbots inteligentes”, se difundió que, aun cuando esas herramientas podían producir una prosa asombrosamente “humanizada”, no podía confiarse en ellas. Los propios investigadores en IA de Google habían advertido a la empresa que esos chatbots serían “loros estocásticos” (probablemente “chillando respuestas incorrectas, estúpidas u ofensivas”) y “propensos a alucinar” ..
Los chatbots, basados en lo que se conoce como “estructuras generativas” sustentadas en “grandes modelos de lenguaje” (Large Language Models, LLM) “están entrenados para generar proposiciones, pero no para verificar confiablemente si las mismas son correctas”, escribió el año pasado un equipo de DeepMind, la compañía de inteligencia artificial propiedad de Alphabet, en una presentación sobre los riesgos de los LLM. En otras palabras, estos chatbots no son realmente “inteligentes”, sino unos “tontos mentirosos”. Unos días después, al difundirse que el chatbot “Bard” de Google respondió incorrectamente a ciertas preguntas, la valoración de las acciones de la empresa recibió un golpe multimillonario. Por otra parte, las respuestas del chatbot “Sydney” de Bing, en su demostración abierta, no resistieron siquiera verificaciones fácticas rudimentarias.
Esas evidencias indican una desfavorable regresión, ya que los actuales motores de búsqueda en línea –como los de Google- eran ya percibidos como herramientas confiables para ordenar el caótico espacio de datos en Internet. Los chatbots, en cambio, aparecen como “motores de excremento” (“bullshit”) creados para decir cosas con una certeza incontrovertible y una total carencia de experiencia. Pero ¿por qué se compra ese “excremento”? ¿Qué impulsa a usarlos masivamente aun sabiendo que padecen de profundas fallas? ¿Qué factores condicionan a los seres humanos para confiar en artefactos no confiables? El autor alega que “a los humanos nos atraen los estafadores astutos con credenciales relevantes”. Respecto de los “chatbots”, señala los siguientes factores de supuesta credibilidad:
- (a) Figuras de autoridad: Las personas creerán en un chatbot cuyas respuestas concuerdan con sus propias creencias y opiniones, sin interesar si son o no verdaderas. El empaque de esas respuestas en texto “humanizado” podría inclinar la balanza aún más hacia la credulidad. La respuesta de un chatbot en forma de prosa, a diferencia de una lista de enlaces, resulta peligrosa. Cuando las ideas se expresan bien (utilizando palabras, redacción y tono correctos) parecen más convincentes.
- (b) El poder de las “certezas”: Los humanos ansiamos cambiar incertidumbre por certeza. Las explicaciones con más poder son aquellas más simples y más ampliamente aplicables al propio contexto. En áreas emocionales, una dosis de narración aumenta la credibilidad.
- (c) Tendencia a la pereza: Como las personas son naturalmente perezosas, será suficiente que los chatbots den respuestas simples y correctas la mayor parte de las veces.
4.- Cuarto artículo: Las debilidades de los chatbots inteligentes para reemplazar a la “búsqueda en línea” (4.1.) (4.2.) (4.3.)
El 6/2/2023, Sundar Pichai, director ejecutivo de Google, anunció que el motor de búsqueda de su empresa estaba a punto de cambiar: “Ingresarás una consulta y obtendrás más que un conjunto de enlaces”… “Dispondrás de un sistema impulsado por IA que destilará información compleja y múltiples perspectivas en formatos fáciles de digerir, para que puedas comprender rápidamente el panorama general de la cuestión de tu interés y aprender más de la red”. “Un chatbot llamado Bard entregará resultados de búsqueda en oraciones completas, como lo haría un ser humano”.
Un día después, Satya Nadella, el CEO de Microsoft, anunció que el motor de búsqueda de su empresa –Bing– hará lo mismo, utilizando la tecnología del popular chatbot ChatGPT.
Estos nuevos chatbots no son realmente “inteligentes”. La tecnología que utilizan se denomina “estructuras generativas” sustentadas en “grandes modelos de lenguaje” (Large Language Models, LLM), un software que -con base en indicaciones mínimas- extrae palabras relacionadas entre sí de una enorme base de datos y produce un texto elaborado y una ilustración visual. Pero este enfoque provoca serios cuestionamientos en materia de adquisición, clasificación y recuperación de conocimiento: ¿Nos involucramos con la complejidad de la información, o dejamos que una autoridad reduzca todo a una respuesta simple?
Bard propone una respuesta simple a esa pregunta. En lugar de mostrar una docena de páginas web con instrucciones para, por ejemplo, abrir una lata de frijoles, los droides de aprendizaje automático proporcionan una única respuesta. Cuando emprendemos una “búsqueda fáctica” para hallar un dato específico, la respuesta simple es suficiente; por ejemplo, “¿Cuántos años tiene Madona?” El otro tipo de búsqueda, la “búsqueda exploratoria”, es más compleja y requiere mayor interacción e iteración para obtener una respuesta satisfactoria; por ejemplo: ¿Cuál es el lavarropas más adecuado para mí? En este último caso el proceso de respuesta podría estar sesgado por los intereses de los anunciantes y los juicios implícitos del proveedor, pero ello hizo posible hallar en línea “una aguja en un pajar”. Desde hace más de una década Google aspira a usar IA para proporcionar respuestas con calidad humana (en lenguaje natural) a las consultas (en lenguaje natural) de sus usuarios, en vez de ofrecer listas de enlaces.
Si bien los chatbots motorizados por LLM pueden proporcionar respuestas “humanizadas”, sus limitaciones residen en que esos modelos son meros “diletantes”, ya que carecen de una “comprensión del mundo” y no pueden justificar sus respuestas con referencias específicas del “corpus” en el que fueron entrenados. Los chatbots mienten, pero no “a propósito”, sino porque no entienden lo que están diciendo. Simplemente recapitulan contenidos que han absorbido en otros lugares, con cierta tendencia a “alucinar“, así como a regurgitar expresiones de racismo, misoginia, teorías de conspirativas y falsedades.
Los chatbots de búsqueda, tras una prosa que suena como casi humana, eluden las fuentes en las que se basan y los sesgos integrados en sus bases de datos. Como suenan bien por más equivocados que estén, no podremos saber si están alucinando. Al ocultar las fuentes bibliográficas, que constituyen el tejido conectivo de la investigación, no hay forma de saber cómo el chatbot “sabe lo que sabe”, ni de evaluar sus respuestas.
Por otra parte, las cuestiones complejas y multifacéticas no se prestan a respuestas únicas, sino que hay que dejar que las personas descubran sus propias respuestas. Es posible que esto no sea una prioridad para las empresas oferentes, cuyo negocio se basa en mantener sus chatbots con la mayor simplicidad posible para sus usuarios finales. Eso les permite entrelazar más anuncios en la misma pantalla y optimizar su desempeño.
El documento concluye señalando que los “chatbots inteligentes” deberían transformarse, superando su naturaleza “diletante” y convertirse en remedos razonables de “expertos en diversos dominios”. Para ello, deberían ser más transparentes, fundamentar sus respuestas e incorporar diversas perspectivas.
5.- Quinto artículo: ¿Puede adjudicarse la autoría de un artículo científico-tecnológico a un algoritmo de IA? (5)
El chatbot de inteligencia artificial (IA) ChatGPT fue lanzado por la empresa de tecnología OpenAI en San Francisco, California como una herramienta de uso gratuito en noviembre 2022. Desde entonces “arrasó” en todo el mundo e hizo su debut formal en la literatura científica, acumulando varios créditos de autoría en artículos publicados y preprints. Los editores de revistas, investigadores y editores debaten ahora el lugar de tales herramientas de IA en la literatura publicada, y si es apropiado citar a un chatbot como autor.
ChatGPT es una estructura generativa sustentada en un gran modelo de lenguaje (LLM), que genera oraciones convincentes al imitar los patrones estadísticos del lenguaje en una enorme base de datos de texto recopilado de Internet. El chatbot ya está revolucionando al ámbito académico planteando incógnitas sobre el futuro de los ensayos universitarios y la investigación.
Los editores contactados por Nature coinciden en que los chatbots como ChatGPT no cumplen con los criterios para ser autores de estudios, porque no pueden asumir responsabilidad alguna por el contenido y la integridad de los artículos que generan. Como los autores asumen la responsabilidad por el contenido de sus trabajos, sólo podrían ser personas. Sin embargo, el artículo aquí reseñado proporciona un conjunto de casos de artículos científico-tecnológicos, producidos por herramientas de IA generativas a las que se reconoció o se pretendió reconocer como autores o coautores.
Gran parte de las editoras ha establecido que los autores que utilizan LLM de cualquier manera para elaborar un artículo deben documentar su uso en las secciones de métodos (o de agradecimientos, si corresponde). (*).
(*) Ver también, en la sección Noticias Educativas-Pedagógicas Internacionales, la nota: “Cómo detectar contenidos generados por algoritmos de IA”
6.- Sexto artículo: Resultados de una encuesta a líderes empresarios sobre el uso de ChatGPT (6.1.) (6.2.)
Desde su debut en noviembre de 2022, ChatGPT atrajo un notable interés por su potencial para “optimizar” una variedad de tareas profesionales, incluida la creación de código de computación, redacción, asistencia al cliente y resúmenes de documentos. Pero también se plantearon inquietudes sobre la precisión de ChatGPT, así como posibles sesgos y trampas. Los críticos también expresaron su preocupación por los riesgos de confiar demasiado en la tecnología de IA, y el propio CEO de OpenAI, Sam Altman, desaconsejó el uso de ChatGPT para “cualquier cuestión importante”.
A pesar de estas reservas, los líderes empresariales parecen estar impresionados con el desempeño de ChatGPT, Una encuesta realizada por Resumebuilder.com, en la que participaron 1.000 líderes empresariales de EE.UU, reveló que: (a) El 49% de las empresas usa actualmente el ChatGPT, mientras que el 30% planean usarlo, (b) El 48% de las empresas que usan ChatGPT indican que han reemplazado trabajadores en determinadas tareas, (c) El 25% de las empresas que usan ChatGPT ya han verificado relevantes ahorros, (d) El 93% de los usuarios de ChatGPT indican que planean expandir su uso, (e) El 90% de los encuestados expresan que la experiencia chatGPT es beneficiosa para los solicitantes de empleo.
Stacie Haller, asesora principal de carrera en Resumebuilder señaló: “Dado que esta nueva tecnología transita aún sus primeras etapas en los lugares de trabajo, los trabajadores deben estar pensando en cómo puede afectar las responsabilidades de su trabajo actual” .., “Los resultados de esta encuesta muestran que los empleadores buscan simplificar algunas responsabilidades laborales mediante ChatGPT”.
Casi todas las empresas que usan ChatGPT informaron haber ahorrado dinero, con un 48% afirmando haber ahorrado “más de U$S 50,000 y un 11% diciendo que han ahorrado más de U$S 100,000”, según la encuesta.
El previsible impacto de los chatbots en el futuro
Queda por ver cómo el uso de ChatGPT y otras herramientas de IA por parte de las empresas afectará a la fuerza laboral y a los solicitantes de empleo a medida que continúan evolucionando.
El 93% de las empresas que usan ChatGPT planean expandir su uso, y el 90% de los ejecutivos creen que la experiencia de ChatGPT es beneficiosa para quienes buscan trabajo si aún no ha reemplazado sus trabajos.
Cuando se preguntó a los líderes empresarios si ChatGPT provocará el despido de algún trabajador para fines de 2023, el 33 % respondió ‘definitivamente’, mientras que el 26 % respondió ‘probablemente'”.
Si bien se desconoce el futuro de los chatbots como ChatGPT, está claro que las empresas están ampliando el uso de dicha tecnología.
7.- Séptimo artículo: Los riesgos de la inteligencia artificial y algunas propuestas para afrontarlos (7)
La adopción de la la inteligencia artificial (IA) continúa creciendo a un ritmo sin precedentes a nivel mundial. Algunos elocuentes indicadores se comparten en el reporte del 2022 de McKinsey sobre tendencias tecnológicas. Por ejemplo, en términos globales: (a) La adopción de IA aumentó en un 56% entre 2015 y 2021, (b) La velocidad de entrenamiento de los modelos de IA aumentó en 94.4% desde 2018, y (c) En comparación con el 2015, hay 30 veces más solicitudes de patentes presentadas referidas a tecnologías IA.
La revolución de la IA se extiende también a la esfera social, ya que sus aportes pueden inducir la generación de políticas más efectivas, igualitarias y eficientes para afrontar problemáticas en materia de empleo, servicios de salud, calidad educativa, etc.
Frente a este notorio potencial de la IA y su creciente presencia en la vida cotidiana, el análisis de sus riesgos resulta cada vez más recurrente y relevante. El artículo aquí reseñado focaliza en los riesgos sociales asociados a la IA y en los recursos para mitigarlos.
¿Cuáles son los riesgos de la IA?
El uso de sistemas de IA en procesos de toma de decisiones conlleva ciertos riesgos con potenciales impactos directos o indirectos. Entre tales riesgos pueden destacarse:
- (a) La filtración de datos personales que pueden comprometer el bienestar de las personas.
- (b) La extrema vigilancia y posterior manipulación por parte de las organizaciones privadas o gubernamentales que tienen acceso a la información que alimenta a las tecnologías de IA.
- (c) Las “cámaras de eco” o “filtros burbuja” que se presentan cuando sólo se está expuesto a ideas afines con las propias, lo que termina fortaleciendo sesgos preconcebidos. Esto es específicamente peligroso entre los tomadores de decisiones y más aun más entre quienes deben formular políticas públicas.
- (d) La subrepresentación de ciertos grupos en los modelos creados por la IA, especialmente en cuestiones relacionadas con el acceso a la salud y a la educación.
- (e) Tener la información y no disponer de un plan de acción. Tan importante es contar con la información necesaria para abordar una problemática social, como disponer de una hoja de ruta para solucionarla.
Los referidos tipos de riesgos pueden anticiparse y mitigarse si los implicados en el desarrollo y uso de estas tecnologías cuentan con protocolos claros para cada etapa del ciclo vital. Dada la naturaleza iterativa de la IA, este enfoque facilita la organización del debate y la identificación de los riesgos específicos asociados a cada etapa.
Propuestas para afrontar los riesgos de la IA
El Banco Interamericano de Desarrollo (BID), a través de su iniciativa fAIr LAC, ha colaborado con los gobiernos de América Latina y el Caribe (ALC) para promover el uso y la adopción responsable de la IA. También ha centrado esfuerzos en el desarrollo de recursos (documentos generales y herramientas específicas) para generar conciencia sobre los beneficios potenciales y también sobre los grandes riesgos que conlleva la IA. El recurso más reciente es “fAIr LAC a la mano”, con 5 herramientas abiertas y disponibles para quienes lideren proyectos que usan IA y para equipos que directamente desarrollen soluciones y quieran cumplir con principios éticos y de reducción de riesgos: (a) Una autoevaluación ética para sistemas desarrollados en agencias de gobierno. Es un cuestionario que revisa los aspectos por tener en cuenta para mitigar potenciales riesgos éticos, tanto en la fase de diseño como en el desarrollo de una solución de IA, (b) Como espejo, una autoevaluación para el ecosistema emprendedor dirigido tanto a empresas que usan IA en sus servicios como a las que lo desarrollan, (c) Un manual-guía que acompaña a los responsables de formular proyectos con IA en las diferentes etapas de decisión, y también los alerta sobre los posibles riesgos éticos que deben tener en cuenta durante el diseño, desarrollo y validación del modelo, así como en su posterior despliegue y monitoreo, (d) Un manual para el equipo técnico encargado del desarrollo del modelo. Utilizando el ciclo de vida de los sistemas de IA como marco de análisis, el manual ofrece orientación técnica a los directores de proyecto, así como a los equipos desarrolladores del modelo (equipo técnico), para mejorar sus procesos de toma de decisiones y sus resultados en la construcción de soluciones de IA, y (e) Guía de auditoría algorítmica, donde se resaltan las implicaciones y consecuencias que tiene el uso de sistemas automatizados en la toma o soporte de las decisiones que afectan a las personas, con el fin de entender la necesidad de implementar una auditoría y el proceso que esta conlleva. Todo ello se complementa con el curso en línea “¿Cómo hacer uso responsable de la inteligencia artificial?”, dirigido a funcionarios públicos que utilizan por primera vez estas tecnologías para responder a problemas de política pública. Las herramientas siguen un proceso vivo de iteración y calibración a través de la práctica, y tienen siempre al ser humano en el centro, ya que sólo así puede asegurarse que efectivamente estamos promoviendo el uso ético de la IA para mejorar vidas humanas.
8.- Octavo artículo: Cómo la IA transformará el trabajo de las personas (8)
Un maestro de educación especial deseaba que sus alumnos jugaran al baloncesto, pero tenía varias preguntas: ¿Cómo adaptar el juego para un niño con parálisis cerebral? ¿Cómo ayudar a integrarse en un equipo a sus alumnos con manifestaciones de síndrome de espectro autista? Suponía que un “chatbot inteligente” habría reunido –dentro de un inmenso caudal de datos- gran cantidad de información sobre “discapacidades y baloncesto”. Si bien podría haber encontrado dicha información a través de una simple búsqueda en Google, recurrió a ChatGPT para obtener un texto completo en lugar de un listado de enlaces que él mismo debía analizar y sistematizar. La respuesta del chatbot lo ayudó a formular rápidamente planes, apoyos y tácticas de juego para cada uno de sus alumnos. Lo que antes le hubiera insumido varias horas, le había tomado unos pocos minutos. Más allá de la fascinación que generan, las posibilidades de la tecnología impulsan a muchas personas a preguntar si serán desplazadas en sus trabajos. Pero esta inquietud pasa por alto una cuestión más inmediata: las plataformas de IA están cambiando la forma en que las personas trabajan en este momento.
Cómo los trabajadores usan la IA
Si bien la IA ya impregna nuestras interacciones con sistemas digitales, ChatGPT le dio a millones de personas la oportunidad de probar e interactuar con una versión de la tecnología llamada IA generativa, que puede producir textos de diverso tipo, crear gráficos e imágenes y componer música.
Muchos trabajadores ya están utilizando la herramienta en sus puestos de trabajo. Por ejemplo, el chatbot escribe descripciones de viviendas para agentes inmobiliarios, descripciones de puestos para gerentes de contratación y argumentos de venta para equipos de vendedores. Sobresale en tareas de escritura porque imita el texto que ya existe en línea y ayuda así a disponer de un primer borrador. Pero los chatbots a menudo cometen errores, como el que provocó una notoria caída en el valor de mercado de Google cuando se difundió un error.
Para el futuro puede preverse que la tecnología mejorará, ya que los sistemas de IA están diseñados para aprender y las empresas están invirtiendo miles de millones para desarrollar versiones más potentes de las herramientas. Antes de reemplazarnos, las herramientas de IA van a liberar más tiempo en nuestros trabajos para ocuparnos de cuestiones más complejas y rendidoras.
9.- Noveno artículo (colectivo): Posición y rol de China en la carrera por la supremacía global en IA y otras tecnologías innovadoras (9.1.) (9.2.) (9.3.)
Este resumen comprende 3 artículos acerca de la posición de China en la carrera por el liderazgo global en IA y otras tecnologías críticas innovadoras. En el primero (9.a.) se procura explicar el actual rezago percibido de China en matera de IA. En el segundo (9.b.) se plantean diversas inquietudes con relación al programa de IA de China. En el tercero (9.c.) se destaca el liderazgo global de China en la mayor parte de las tecnologías críticas con perspectiva estratégica y geopolítica, abogándose por una mayor colaboración entre los “países democráticos” para prevenir una riesgosa hegemonía de China en el futuro devenir.
9.a.- ¿Por qué China está rezagada en Inteligencia Artificial? (9.1.)
Hasta hace una década China estaba en camino de desafiar el dominio de EE.UU en Inteligencia Artificial (IA). El equilibrio se inclinaba a favor de China porque reunía: (a) superabundancia de datos, (b) empresarios interesados y proactivos, (c) investigadores capacitados, (d) liderazgo mundial en solicitudes de patentes relacionadas con IA, y (e) políticas gubernamentales de apoyo.
Durante la década de 1990, las mayores empresas tecnológicas de China eran privadas y financiadas con capitales foráneos, sin mayores interferencias gubernamentales. A mediados de la década de 2010, China podía rivalizar con EE.UU.; sus principales empresas de Internet alcanzaban valuaciones prácticamente similares a las de sus contrapartes estadounidenses. Muchos de los productos chinos, como la aplicación de mensajería WeChat y el servicio de pago Alipay, funcionaban igual o mejor que los productos estadounidenses similares. China aparecía como inundada por capital de riesgo proveniente de todo el mundo. Durante un tiempo, el país produjo tantos unicornios (nuevas empresas valoradas en más de U$S 1.000 millones) como Silicon Valley.
Pero toda esa pujanza pareció quebrarse durante los últimos años, cuando Beijing exhibió actitudes persecutorias con algunas de las mayores empresas tecnológicas del país y sus directivos. El objetivo era garantizar que ninguna institución o individuo pudiera ejercer una influencia en la sociedad china comparable con la del Partido Comunista. Para obtener un control efectivo, el gobierno tomó participaciones minoritarias y puestos en los directorios de varias de esas empresas. A través de esos procesos, Beijing inhibió la ambición de la industria y debilitó sus ventajas para el emprendimiento tecnológico y la innovación. “El desarrollo de cualquier producto tecnológico importante es inseparable del sistema y el entorno en el que opera”, dijo Xu Chenggang, investigador principal del Centro Stanford sobre la Economía y las Instituciones de China.
Pero además, incluso antes de que el gobierno chino comenzara a imponerles interferencias, los líderes tecnológicos estaban concentrados en obtener dinero y reacios a invertir en proyectos de investigación que probablemente no generarían ingresos a corto plazo. Por supuesto, tras la embestida del gobierno durante los últimos años, los ejecutivos están aun menos inclinados a invertir en proyectos de largo plazo. Pero la mayor barrera para la IA estuvo dada por la obsesión del gobierno chino por la censura. La disponibilidad de una amplia gama de datos es crucial para desarrollar tecnología como ChatGPT, y ello es cada vez más difícil en un entorno de censura. Beijing ha castigado a las empresas, a veces severamente, para hacer cumplir sus protocolos de censura y ello sofoca la innovación. Según los empresarios: “En este entorno necesitamos enseñar a las máquinas no sólo a hablar, sino también a no hablar”.
Según expertos, en materia de IA se prevé una sucesiva ampliación de la brecha entre EE.UU. y China. Un factor será el limitado acceso de las empresas chinas a los algoritmos de IA. Como muchos de ellos no están disponibles en el mercado, las empresas chinas deberán desarrollarlos por sí mismas. Respecto del poder de cómputo, preocupa la posibilidad de que el gobierno de EE.UU. imponga prohibiciones para la exportación de chips clave. Durante años, China se jactó de presentar más solicitudes de patentes de IA que EE.UU. Pero entre 2020 y 2021, esas solicitudes –como indicador de originalidad e importancia de los inventos- quedaron rezagadas con relación a EE.UU. y otros países desarrollados.
El gobierno chino ha gastado mucho en financiar la investigación de IA, con resultados poco claros. La Academia de Inteligencia Artificial de Beijing, establecida en 2018, presentó hace 2 años a “Wu Dao”, un producto similar a ChatGPT, y lo describió como “el primer dispositivo de IA de China y el más grande del mundo”. Pero en realidad nunca se difundió. La influencia del Partido Comunista está impresa en la industria. El 13/2/2023, el gobierno municipal de Beijing se comprometió a apoyar a las empresas tecnológicas que desarrollan grandes modelos de lenguaje (LLM) para competir con ChatGPT. Los comentarios en las redes sociales sobre la noticia fueron en gran medida sarcásticos: “Es hora de volver a tomar los subsidios del gobierno”.
El gobierno central estableció el Laboratorio Pengcheng para mejorar la infraestructura informática nacional de China. En la página inicial del laboratorio, sus eventos incluyen una sesión para que sus más de 400 miembros del Partido Comunista estudien el espíritu del XX Congreso del Partido. Por otra parte, una convocatoria para contratar empleados de nivel medio especifica, como primer requisito, “que posean altas cualidades ideológicas y políticas y se adhieran a la guía de la nueva era del socialismo chino con las peculiaridades de Xi Jinping”.
Para Kuang Xu, investigador de Stanford, esto se percibe como un déjà vu. En 1986 analizó por qué la Unión Soviética y China iban a la zaga de EE.UU. y Japón en el desarrollo de computadoras. Para él estaba claro, ya entonces, que la innovación tenía lugar cuando las personas pueden pensar libremente y perseguir sus propios intereses. Señala que China podría terminar como una lección de advertencia sobre cómo el control central sofoca el crecimiento y la innovación tecnológica, tal como sucedió en la antigua Unión Soviética. “Los ejemplos históricos nos dicen que la movilización nacional no puede equipararse con el impulso de la libre iniciativa privada que surge, naturalmente, por sí solo”, dijo.
9.b.- Inquietudes por el programa de inteligencia artificial de China (9.2.) (9.3.)
El director del FBI (Washington DC, EE.UU.), Christopher Wray, manifestó recientemente que estaba “profundamente preocupado” por el programa de inteligencia artificial (IA) del gobierno chino, que según él “no está sujeto al estado de derecho”. En un panel en el Foro Económico Mundial en Davos, Suiza, Wray dijo que las ambiciones de Beijing en materia de IA “fueron construidas sobre acumulaciones masivas de violaciones a la propiedad intelectual y datos confidenciales que robaron a lo largo de los años”. Agregó que, si no se la controla, China podría utilizar los avances en IA para profundizar sus operaciones de ciberpiratería, robo de propiedad intelectual y represión de disidentes en su país y más allá. “Es algo que nos preocupa profundamente y creo que debería preocupar profundamente a todos”, dijo.
Diversos funcionarios estadounidenses vienen expresando esas inquietudes a lo largo de varios años. En octubre de 2001, agentes de contrainteligencia advirtieron -a empresarios, académicos y funcionarios estatales y municipales- sobre las ambiciones chinas en IA y sobre los riesgos de aceptar inversiones o aportes chinos en industrias clave. Ese año, una comisión de IA dirigida por el ex CEO de Google Eric Schmidt exhortó a EE.UU. a mejorar su capacitación para enfrentar a China, incluso mediante la creación de “armas activadas y operadas por IA”.
Por su parte, Beijing viene acusando reiteradamente a Washington de sembrar el miedo y a la inteligencia estadounidense por sus deplorables evaluaciones sobre los avances de China en materia de IA.
9.c.- La carrera global para el liderazgo en tecnologías críticas (9.4.) (9.5.)
En el informe aquí reseñado (“Critical Technology Tracker” del Australian Strategic Policy Institute (ASPI)) se identifican los países, universidades y empresas que están liderando –a escala global- los avances en investigación e innovación en “tecnologías críticas”, calificadas como claves en áreas estratégicas como defensa, exploración espacial, robótica, salud, biotecnología, computación cuántica e inteligencia artificial. La indagación se sustentó en los documentos más citados en cada una de las 44 tecnologías analizadas, con base en una muestra que incluyó un total de 2,2 millones de documentos.
Señala que China es el país líder en 37 de las 44 tecnologías evaluadas, y suele producir más investigación de alto impacto que EE.UU. Por su parte, EE.UU sólo lidera actualmente 7 de las 44 tecnologías analizadas, manteniendo sus fortalezas en investigación, diseño y desarrollo de dispositivos semiconductores avanzados, computación de alto rendimiento, circuitos integrados innovadores, computación cuántica y vacunas.
En la carrera por las siguientes posiciones de liderazgo en tecnologías claves compiten Reino Unido e India, los cuales ocupan un lugar entre los cinco países principales en 29 de las 44 tecnologías. Les siguen de cerca Corea del Sur y Alemania, que aparecen entre los cinco primeros países en 20 y 17 tecnologías, respectivamente. Australia se encuentra entre los 5 primeros en 9 tecnologías, seguida de cerca por Italia (7 tecnologías), Irán (6), Japón (4) y Canadá (4). Rusia, Singapur, Arabia Saudita, Francia, Malasia y Países Bajos están entre los 5 primeros en 1 o 2 tecnologías. Respecto de América Latina, Brasil y México aparecen mencionados en subcampos como biocombustible, manufactura biológica, minerales claves y analítica avanzada, mientras que Chile sólo en explosivos avanzados y materiales energéticos.
El informe destaca, asimismo, una variedad de organizaciones que lideran ciertas tecnologías críticas, incluido el sistema de la Universidad de California, la Academia China de Ciencias, el Instituto Indio de Tecnología, la Universidad Tecnológica de Nanyang (NTU, Singapur), la Universidad de Ciencia y Tecnología de China y una variedad de laboratorios nacionales en EE.UU.. La Academia China de Ciencias tiene un desempeño particularmente alto, clasificándose entre los 5 primeros en 27 de las 44 tecnologías rastreadas. Compuesta por 116 institutos, se destaca en tecnologías de energía y medio ambiente, materiales avanzados y en una gama de tecnologías cuánticas, de defensa y de IA que incluyen análisis de datos, aprendizaje automático, sensores cuánticos, robótica avanzada y pequeños satélites. Por su parte, las empresas tecnológicas de EE.UU. están bien representadas en ciertas áreas; destacándose, por ejemplo, Google, Microsoft, Facebook en procesamiento del lenguaje natural), y Hewlett Packard e IBM en computación de alto rendimiento.
El informe enfatiza que “El liderazgo de China significa, a largo plazo, que se ha posicionado no sólo para sobresalir en el desarrollo de tecnologías actuales en casi todas las áreas críticas, sino también en tecnologías de futuro que aún no existen”. Los autores del estudio abogan porque los “países democráticos” estrechen la colaboración y aumenten los estímulos a la investigación para evitar la hegemonía de China en las redes de suministro de tecnologías claves. En este sentido, afirman que “el Partido Comunista de China usa técnicas coercitivas –ajenas al orden normativo global- para castigar a gobiernos y empresas, incluyendo el bloqueo en el suministro de tecnologías clave”.
Referencias:
(1) Inteligencia Artificial: 8 Principios rectores de la transformación digital del sector salud: Caja de herramientas de transformación digital: Sinopsis de políticas: Organización, Coordinación y Desarrollo. Departamento de Evidencia e Inteligencia para la Acción de Salud de la Organización Panamericana de la Salud (OPS), en colaboración con el Centro de Implementación e Innovación en Políticas de Salud, parte del Instituto de Efectividad Clínica y Sanitaria, Centro Colaborador de la OPS.
(2.1.) Fuente primaria: “Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence” Kate Crawford. 2022f
(2.2.) Fuente secundaria y acceso al video de la autora: “Inteligencia Artificial: Atlas de la IA, no todo es tan “cool” Blog eL ABC. El Escritorio de Alejandro Barros. 24 Feb 2023
(2.3.) Acceso al gráfico “Anatomía de un sistema de IA” (“Anatomy of an AI system, Amazon Echo case study”
(2.4.) Portada del libro Atlas of AI – Kate Crawford
(3.1.) “ChatGPT is a robot con artist, and we’re suckers for trusting it: The new Google and Microsoft chatbots get stuff wrong and lie. So why do we fall for their shtick? By Adam Rogers.- Business Insider. Feb 16, 2023
(3.2.) “Microsoft considera implementar más límites para su nuevo chatbot de inteligencia artificial: La empresa sabía que la nueva tecnología tenía problemas, como problemas de precisión ocasionales. Pero los usuarios han provocado interacciones sorprendentes y desconcertantes. Por Karen Weise and Cade Metz. The NewYork Times/Infobae. 20 de Febrero de 2023
(4.1.) “Bard is going to destroy online search: Sure, Google’s answer to ChatGPT will save you time. But it’ll also lie to you” By Adam Rogers. Business Insider. Feb 9, 2023
(4.2.) “¿Por qué son mentirosos y errantes los chatbots? Mírate al espejo: Terry Sejnowski, uno de los pioneros de la inteligencia artificial, dice que las conversaciones y textos que produce la tecnología reflejan las palabras e intenciones de los usuarios” Por Cade Metz. The New York Times. 2 de marzo de 2023
(4.3.) “Noam Chomsky: The False Promise of ChatGPT” By Noam Chomsky, Ian Roberts and Jeffrey Watumull. The New York Times. Opinion. Guest Essay. March 8, 2023
(5) “¿Puede un robot ser autor de un artículo científico?: Polémica: ChatGPT aparece como co-autor en trabajos de investigación” Chris Stokel-Walker Fuente: “Nature ChatGPT listed as author on research papers: many scientists disapprove” IntraMed. Tecnología. 26 Enero 2023.
(6.1.) “ChatGPT shrinks human workforce in US amid tech layoffs, reveals survey: When asked if ChatGPT will lead to more layoffs by the end of 2023, “33% of business leaders say ‘definitely,’ while 26% say ‘probably.'”, By Baba Tamim. Interesting Engineering. Culture. Feb 26, 2023
(6.2.) Resultados de la encuesta: “1 in 4 companies have already replaced workers with ChatGPT” Resume Builder. Updated: February 21, 2023
(7) “Los riesgos de la inteligencia artificial y algunas soluciones” Por Cristina Pombo. Abierto al Público. Conocimiento Abierto. Blog del BID, Banco Interamericano Desarrollo. Diciembre 2022
(8) “Good morning. Artificial intelligence is changing how people work. That can be scary. But for now, most jobs are still safe” By Lauren Jackson. The New York Times. The Morning. March 2, 2023
(9.1.) “Why China Didn’t Invent ChatGPT: The state’s hardening censorship and heavier hand have held back its tech industry; so has entrepreneurs’ reluctance to invest for the long term. It wasn’t always that way” By Li Yuan. The New York Times. Feb. 17, 2023
(9.2.) Fuente secundaria: “En la guerra por la tecnología del futuro entre China y EEUU ya hay un ganador, y es China, según un informe” Agencia EFE.- 2 de marzo de 2023
(9.3.) Fuente secundaria: “FBI está “profundamente preocupada” por el programa de inteligencia artificial china” Por Ericv Tucker. Associated Press. Los Angeles Times. Enero 19, 2023
(9.4.) Fuente primaria: “ASPI’s Critical Technology Tracker: The global race for future power: Who is leading the critical technology race” Jamie Gaida, Jennifer Wong-Leung, Stephan Robin and Danielle Cave. The Australian Strategic Policy Institute (ASPI). ASPI’s International Cyber Policy Centre (ICPC)
(9.5.) “Relevante posición de China en la investigación científico-tecnológica global: Análisis cuantitativo y consideraciones cualitativas”. Newsletter DPT74. Julio 2022