Newsletter DPT Nro. 85

ISSN 2618-236X

Junio / 2023

NOTICIAS DE INTERES GENERAL

Los avances -vertiginosos e incontrolables- en Inteligencia Artificial

Provocan inquietudes, consultas y acuerdos

Esta reseña comprende seis artículos relativos a inquietudes, manifestadas por investigadores, actores de la industria y diversos expertos, acerca de los riesgos que implican los avances -vertiginosos e incontrolables- en materia de Inteligencia Artificial (IA). Cabe señalar que tales inquietudes se vienen manifestando – desde los albores de la IA- con variable intensidad, énfasis y confianza en los valores éticos de los actores involucrados (*) (**).

El primer artículo (1) trata sobre la “carta abierta”, de un relevante conjunto de actores vinculados con la IA, reclamando una suspensión de las investigaciones relativas a IA hasta tanto se disponga de respuestas a un conjunto de cuestiones críticas en la materia. El segundo (2) comprende 2 artículos sobre riesgos de la IA. El primero (2.1.) hace referencia a los riesgos existenciales, constitucionales e institucionales que subyacen a los avances en IA. El segundo (2.2.) trata sobre los riesgos de la IA en el sector salud, según la OMS. En el tercero (3) se procura mostrar que el debate de la ética de la IA no es tecnológico, sino social. El cuarto (4) trata sobre las habilidades humanas que la IA no podrá reemplazar. El quinto (5) aborda las oportunidades y los riesgos que hoy exhibe la Inteligencia Artificial General. El sexto (6) trata sobre un financiamiento gubernamental estadounidense para impulsar y promover la “innovación responsable” en IA.

(*) Ver, por ejemplo: Eduardo D. Sontag y José Luis Tesoro (1972): Temas de inteligencia artificial, Buenos Aires, Prolam.

(**) El actual auge de la temática de la IA fue previsto en: “Una renovada eclosión de la Inteligencia Artificial”. Newsletter DPT N° 34 de Febrero de 2019

1.- Primer artículo: Piden una pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA) (1)

Una carta abierta ante la Oficina del Alto Comisionado de la ONU para los Derechos Humanos, difundida a fines de marzo, que pide una pausa en el desarrollo de sistemas avanzados de inteligencia artificial (IA), ha dividido a los actores involucrados en la materia. La carta, firmada por personajes como el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak, aboga por una moratoria de 6 meses para dar tiempo -a las empresas de IA y a los órganos reguladores- para proteger a la sociedad de los riesgos potenciales de dicha tecnología.

Hasta hoy parece poco probable que se concrete la pausa solicitada, la cual –de todos modos- no resolvería los desafíos previsibles. Hay quienes sostienen que los gobiernos deberán intervenir: “No podemos confiar en que los gigantes tecnológicos se autorregulen”. La administración Biden propuso una “Declaración de Derechos” de IA (*) diseñada para ayudar a las empresas a desarrollar sistemas de IA seguros que protejan los derechos de los ciudadanos estadounidenses, pero los principios son voluntarios y no vinculantes. La Ley de IA de la Unión Europea, que se espera que entre en vigor este año, aplicará diferentes niveles de regulación según el nivel de riesgo.

(*) “EE.UU.: Proteger al público frente a los riesgos de la Inteligencia Artificial: Una iniciativa de la Casa Blanca”. Newsletter DPT N° 79. Diciembre 2022

2.- Reseña de 2 artículos sobre riesgos: 2.1.- Riesgos existenciales, constitucionales e institucionales que subyacen a los avances en IA. 2.2.- Riesgos de la IA en el sector salud

 

2.1.- Riesgos existenciales, constitucionales e institucionales que subyacen a los avances en IA (2.1.)

El primer artículo aquí reseñado enuncia un conjunto de riesgos asociados con la Inteligencia Artificial (IA), los cuales pueden sintetizarse en los siguientes términos:

(a) La ubicuidad de los algoritmos

Mientras los algoritmos nos vigilan hoy de formas consentidas o inconsultas, los instruimos para que nos sigan escaneando con una profundidad que derogó hace años nuestro derecho a la intimidad. En definitiva, estamos condicionados por decisiones adoptadas bajo la influencia de algoritmos que nosotros ayudamos a desarrollar (lo sepamos o no) en cada click. Cuando los programas de IA incorporan capacidades de “aprendizaje profundo” se tornan impredecibles y en algún grado autónomos; con posibilidad de mutar dinámicamente con base en sus interacciones.

(b) Los peligros de repetir errores con la IA

El modelo de negocios de la tecnología implica la violación y suspensión de nuestros derechos humanos y una forma de vida que se reformula con su uso: un “estado de sitio corporativo”. Cedemos involuntariamente derechos a partir del cambio tecnológico, con creciente impotencia de la ley.

Los riesgos no fueron enfatizados ni discutidos, y los pocos que los advirtieron quedaron ignorados y tapados por el ruido de plataformas con notorio éxito comercial. Otros los usaron en su propio beneficio, con base en el narcisismo inducido por las plataformas. Nunca se hubiera aceptado el uso de los dispositivos en los ámbitos educativos si se hubiese previsto que iba a traer una generación que se quedó sin capacidad de concentración, de lectocomprensión básica y de discriminar una verdad contrastable de una noticia falsa. La educación es el entrenamiento de la atención. Sin atención no puede haber educación, ni pensamiento ni decisión; por tanto, la reacción, el ruido y la distracción dominarán todo.

Siempre estuvo presente, y quizás hoy está en su clímax, el riesgo de una crisis de salud mental global producto de las plataformas. Hoy esta crisis es más real que nunca: Vemos políticos profesionales, periodistas de medios gráficos, investigadores nacionales e internacionales plenos de irracionalidad, incapaces de discernir entre una evidente “fake new” y una noticia chequeable; vemos polarización y pasiones oscuras alimentando la frustración por derecha e izquierda. Vemos personas adictas a reafirmar sus sesgos, prejuicios y preferencias personales por encima de las evidencias de la realidad. Vemos una profusión de ataques de ansiedad, problemas de atención, depresión profunda, hedonismo depresivo, consumo y adicciones.

Por tanto, es una obligación constitucional, un deber republicano y una responsabilidad democrática aclarar, debatir y difundir los riesgos existenciales del uso de la tecnología. Eso se da en tiempos donde los diálogos son imposibles por miedo, autocensura y espirales de silencio. Asimismo, vivimos en los inicios de un feudalismo de la vigilancia que ejerce un constante fracking de datos personales. Todas las tecnologías, y específicamente la IA, proponen un ecosistema de fuerzas autónomas por fuera de las capacidades humanas de comprensión, seguimiento y sobre todo sin control republicano ni constitucional.

(c) La marcha del intelecto

La IA, como todo conjunto de reglas preestablecidas y programadas, puede contener disonancias, aporías, contradicciones, lagunas, ruidos, confusiones, interpretaciones incorrectas o insospechadas, puede absorber prejuicios manifiestos o inconscientes en sus propios programadores. Podría tomar decisiones racionales pero irrazonables y atroces. En última instancia, podría tener soberanía y capacidad creativa para no funcionar como fue preestablecida.

Los excesos de la delegación de soberanía -política, humana y social- en la tecnología, traen deshumanización y posibles colapsos destructivos. Lo que colapsó hace tiempo fueron los niveles de responsabilidad de una dirigencia pública y privada que ni siquiera observa el impacto de las tecnologías en la sociedad, sin querer o no poder regularlo. En definitiva, habrá que sumar esas fuerzas destructivas autónomas a la ya destructiva –y hoy potenciada de forma estructural– estupidez humana.

(d) Riesgos existenciales, debates constitucionales y peligros institucionales

Dado que no podemos controlar algo que no entendemos, deberemos confiar y delegar soberanía –una vez más- en los profesionales de la traducción de saberes. Como ya conocemos experiencias históricas acerca de las consecuencias de tal delegación de poder, a continuación se repasan algunos riesgos existenciales, debates constitucionales e institucionales:

  • Riesgos existenciales: ¿Cuáles son los riesgos existenciales cuando un algoritmo controla centrales nucleares, biotecnologías y armas de destrucción masiva? ¿Hay un riesgo de que haya una guerra de IAs que escalen conflictos armados y efectos cascada en contextos de tensión internacional? ¿Estamos aún a tiempo de eliminar o mitigar esos riesgos?

  • Debates constitucionales: ¿Qué sucede cuando las tecnologías derogan de facto derechos o limitan la libertad de expresión? ¿Qué sucede con los derechos que viola la IA cuando mantiene sesgos y criterios discriminatorios? ¿Se puede constitucionalmente delegar decisiones a procesos de IA sin una regulación previa, sin control político ni audiencias públicas? ¿Cómo impactan los algoritmos de maximización de atención en la polarización política o en la salud mental de comunidades que viven en pánico, miedo y teorías conspirativas? ¿Cuándo aceptamos la derogación de la intimidad, de la autonomía privada? ¿Cuándo se constitucionalizó la vigilancia total? ¿Cuándo se privatizó la esfera pública? Un nuevo rol de la tecnología quizás requiera un nuevo conjunto de relaciones con los derechos, lo que implicaría la posibilidad de ignorar, violar o reformular a la misma Constitución y los tratados de derechos humanos. A través del narcisismo exacerbado y la distracción masiva que fomentan las plataformas, la sociedad está perdiendo capacidad de concentración para poder proteger sus conquistas históricas y herramientas de construcción política y democrática hoy paralizadas.

  • Riesgos institucionales: Ante nuestras instituciones en crisis, una sociedad con ansiedad excesiva y debilidad estructural de los gobiernos: ¿Cómo van a incorporarse a un nuevo Estado -híbrido y mixto- las empresas que provean, controlen y sean propietarias de las tecnologías? ¿No es peligroso que se delegue en estos algoritmos autoridad política? ¿En ese nuevo Estado híbrido, vamos a tener una autoridad mixta con decisión humana y expandida por la IA? ¿Este proceso de delegación corporativa no termina privatizando al propio gobierno y al mismo Estado? ¿No vemos los peligros de nuevas formas de feudalismo con fragancias tecnológicas? ¿Qué sucederá cuando los funcionarios digan “la IA nos dijo que hiciéramos esto, nosotros lo hicimos y los resultados son los opuestos a los buscados”? ¿Quién se hará responsable?

Los procesos de toma de decisiones se privatizan, se hacen más autocráticos y tecnocráticos, y finalmente se deshumanizan. Por un lado, queremos que la IA ayude a la medicina en el combate contra el cáncer, pero se torna peligrosa cuando ayuda a maximizar la letalidad de bioarmas, nuevas formas de vigilancia o nanotecnología militar. Y a veces, esos campos se superponen.

Ya está próxima la aparición de IAs autónomas que se mejoran a sí mismas sin nuestra capacidad de alterar esos cursos ni de desconectarlas o desprogramarlas. El problema reside en la aceleración de los procesos sin nuestra capacidad de control y hasta en la posibilidad de niveles de resistencia. Por eso tiene claros fundamentos la carta pública de los expertos difundida en los medios (ver artículo anterior en esta misma reseña)

(e) Poder, controles y pasiones

Las actuales tecnologías, desde la energía nuclear hasta la IA, construyen inmensos poderes con capacidades inéditas: estar en todos lados al mismo tiempo, saberlo todo y poder destruirlo todo. Las corporaciones están construyendo ese poder sin controles institucionales ni democráticos y en un contexto de irracionalidad y crecientes pasiones. Reformulando la cita de McLuhan: “primero construimos las herramientas, luego ellas nos destruyen”.

La relación entre conocimiento/información y sabiduría exhibe una creciente inestabilidad. Disponer de información y conocimiento a niveles exponenciales no significa poseer sabiduría ni mucho menos ejercitarla, siendo esto último lo realmente importante. Como no podemos diseñar una “sabiduría artificial”, deberíamos cultivar una paciencia prudente, disciplinada y aguda ante la pretensión de delegar la misma supervivencia de la humanidad a procesos tecnológicos sin control.

 

2.2.- OMS: La adopción precipitada de sistemas de inteligencia artificial en la salud puede perjudicar a los pacientes (2.2.)

La Organización Mundial de la Salud (OMS) alertó, el 16 de mayo, que la adopción precipitada de sistemas no probados de inteligencia artificial (IA) en el campo de la salud puede dar lugar a errores y causar daños a los pacientes. Instó, asimismo, al uso ético y a una gobernanza adecuada de esas herramientas, destacando la necesidad de preservar la salud pública, así como proteger y promover el bienestar, la seguridad y la autonomía humanas al utilizar modelos de IA, llamando a examinarlos exhaustivamente antes de su aplicación y a vigilarlos una vez que se pongan en práctica. De otra manera, añadió el organismo, sus consecuencias negativas erosionarán la confianza en la IA y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.

La OMS reconoce las ventajas que supone el uso adecuado de la IA para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos; sin embargo, plantea con preocupación la falta de cautela que caracteriza su uso.

Al referirse a los principales riesgos del uso de esas herramientas, la OMS enuncia los siguientes:

  • Los datos que nutren la IA pueden estar sesgados y generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión.

  • Los modelos de lenguaje generados por IA producen respuestas que pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud.

  • Los modelos de lenguaje generados por IA pueden recibir datos cuyo uso no haya sido consentido previamente y, cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática.

  • Los modelos de lenguaje generados por IA podrían utilizarse indebidamente para generar y difundir información falsa sobre la salud, en forma difícil de diferenciar del contenido confiable.

Transparencia y supervisión experta

La OMS insiste en que el análisis de las herramientas de IA debe contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa. “Es imperativo que se examinen cuidadosamente los riesgos cuando se usen modelos de lenguaje generados por IA para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad”, recalcó la OMS en un comunicado. También propuso que se mida la evidencia clara del beneficio antes del uso generalizado de esas herramientas en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.

La OMS reiteró lo descrito en su Guía sobre Ética y Gobernanza de la IA en el campo de la Salud, que se debe proteger la autonomía; promover el bienestar humano, la seguridad humana y el interés público; garantizar la transparencia y la inteligibilidad; fomentar la responsabilidad y la rendición de cuentas; garantizar la inclusión y la equidad; y proteger la autonomía al diseñar, desarrollar y aplicar la IA con el fin de que su uso sea confiable y sostenible.


3.- Tercer artículo: El debate sobre la ética de la IA no es tecnológico sino social (3)

La directora general adjunta de la UNESCO para las Ciencias Sociales y Humanas, Gabriela Ramos (en adelante: GR), conversó con Noticias ONU (en adelante: NONU) sobre los beneficios y riesgos de la IA y sobre la necesidad de regulación y gobernanza del mundo digital. A continuación se presenta una breve reseña de la referida entrevista.

NONU: ¿Cómo define la UNESCO a la inteligencia artificial?

GR: La inteligencia artificial (IA) es la capacidad que están adquiriendo las computadoras -con base en una disponibilidad mayúscula de datos y de poderosos modelos computacionales- de realizar actividades que se acercan a la inteligencia humana. Pueden producir análisis, reconocer patrones de comportamiento, así como formular predicciones y recomendaciones. Estamos frente a una tecnología que afecta todos los rubros de nuestra vida; que permea en todos los sectores, en toda la economía, en toda la sociedad, y muy difundida en todo el mundo.

NONU: ¿Cuál es la importancia de la IA y cuáles son los beneficios que nos aporta?

GR: LA IA es un apoyo fundamental para los objetivos en las empresas y en los gobiernos. Por ejemplo, sin la IA nunca se hubiera podido elaborar 4 vacunas para Covid-19, porque la capacidad de las computadoras permitió hacer un análisis sumamente rápido del virus, al igual que la decodificación de los genes. Son tecnologías que permiten optimizar procesos. De allí que, por ejemplo, podamos tener grandes expectativas de que nos ayuden a manejar mejor el cambio climático, la alimentación mundial, el consumo energético o los desastres naturales. Es impresionante lo que nos han dado y lo que nos pueden dar dichas tecnologías.

NONU: Si bien la IA exhibe grandes beneficios; numerosos expertos y la propia UNESCO han advertido sobre los riesgos que supone…

GR: Lo que decimos en la UNESCO es que éste no es un debate tecnológico. La pregunta fundamental que deberíamos hacernos en un mundo altamente desigual es si estas tecnologías nos van a ayudar a reducir las desigualdades o si las van a aumentar. Con la información disponible, parecería que las están aumentando o al menos no están siendo utilizadas para reducir las brechas. Tenemos la mitad de la población del mundo que, o no está conectada a internet, o está conectada con baja calidad, o no tiene las competencias para utilizar adecuadamente las tecnologías. Ya solo con eso hay que hacer un esfuerzo enorme para que no sea una discusión entre países con un nivel socioeconómico alto o mediano alto, sino que sea una discusión para todos. La falta de diversidad y de inclusión en el desarrollo de las tecnologías arroja resultados discriminatorios. Si la mitad del mundo no está conectada, los datos disponibles corresponden a ciertos grupos que pueden estar representados y los algoritmos pueden ser opacos y sesgados. ¿Y por qué? Porque así se entrenó a los algoritmos. Para nosotros el tema no es la tecnología, sino la sociedad y la gobernanza de las tecnologías.

NONU: Precisamente, la UNESCO elaboró un marco ético para el uso de la IA (*) ¿Cuáles son las principales recomendaciones?

GR: La principal recomendación es que nos aseguremos que éste no sea un debate tecnológico sino social, y que las tecnologías tienen una dirección clara para apoyarnos a nosotros, a nuestras sociedades, a los seres humanos, a tener resultados inclusivos y a construir sociedades justas y pacíficas. Nuestra recomendación empieza con esa definición. El tema ético es como una brújula donde el imperativo moral nos dice cuándo hay daño y cuándo no, pero la definición más concreta de la recomendación es que las tecnologías deben promover y proteger los derechos humanos y la dignidad humana. Deben tener cuidado con su impacto carbónico, construir sociedades más justas y pacíficas y evitar la discriminación. Esto se tiene que regir por los valores más importantes que hemos desarrollado como seres humanos y con principios de transparencia. Nuestra recomendación reconoce que al final debe haber siempre un ser humano que responsable y por esto nuestra recomendación sostiene que no debe asignarse una personalidad jurídica o legal a los desarrollos tecnológicos. Si me han afectado en mis derechos humanos, tengo que saber quién fue, que me lo explique, buscar resarcimiento y establecer el estado de derecho en línea. Nuestra recomendación, elaborada por un grupo multidisciplinario, fue adoptada por 193 países. Se trata de reenmarcar el debate y transformarlo en un debate sobre resultados para nuestras sociedades y no geopolítico o comercial, o de otra índole.

NONU: La recomendación fue adoptada por 193 Estados, pero ¿Qué me dice de las empresas, que son las principales desarrolladoras de la IA y las que lucran con ella? ¿Qué respuesta tiene de ellas?

GR: Las empresas siempre van a aprovechar cualquier espacio de libertad que se les otorgue. Aquí la única cuestión es que los gobiernos adopten regulaciones sólidas que creen los incentivos para que las empresas hagan inversiones sustentables, y cambien su comportamiento porque no les queda otra posibilidad. También hay que invitar a las empresas a compartir sus puntos de vista, pero la responsabilidad es de los gobiernos. Es necesario invertir en las capacidades de los gobiernos y tener funcionarios que entiendan cómo funcionan las tecnologías y que puedan regularlas de una manera eficiente.

NONU: Hay Estados que utilizan la IA para espiar a sus ciudadanos. En este caso, ¿Dónde queda el marco regulatorio? ¿Hace falta un cuerpo internacional que lo regule o ante quién son responsables y dónde se les puede imputar?

GR: También esta es una cuestión de responsabilidades. La recomendación de la UNESCO prohibe claramente el marcaje social y el espionaje masivo a los ciudadanos. Las tecnologías disponibles tienen una gran capacidad de conocer quién somos, qué hacemos, qué nos gusta, a dónde vamos, con quiénes salimos; cuál es nuestro estado de salud; todo está registrado. Como podría ser muy peligroso que toda esa información caiga en manos autoritarias o dictatoriales, es necesario tener reglas que protejan los derechos humanos. Si un país usa esas tecnologías para hostigar a sus ciudadanos, lo vamos a llamar porque si firmaron nuestra recomendación (un acuerdo internacional), deben cumplirla.

NONU: Como ciudadanos: ¿Podemos ejercer algún tipo de presión o de vigilancia para que se respeten las normas y las recomendaciones sobre privacidad y derechos humanos?

GR: Yo les pediría a los ciudadanos de aquellos países que no tienen reglas muy claras o muy sólidas, que demanden a sus legisladores que desarrollen esas reglas y esas instituciones. Es fundamental que los ciudadanos demanden a sus gobiernos esa protección. Por otro lado, es muy importante que los ciudadanos sepan y que se informen de qué se trata. Nosotros vamos a lanzar un observatorio de la ética de la IA. Va a ser una plataforma junto con el Alan Turing Institute y vamos a estar trabajando con Thomson Reuters para informar a los periodistas y darles entrenamiento sobre la recomendación de la ética, porque tenemos que lograr que se adopten las regulaciones y las instituciones a nivel nacional, pero también para que los individuos estén más conscientes y sepan de qué se trata.

NONU: ¿Para cuándo podemos esperar ese observatorio?

GR: El observatorio estará accesible dentro de unos 2 o 3 meses, y allí van a tener una gran cantidad de análisis e información práctica respecto de qué hacer, qué no hacer y cómo entender estos desarrollos tecnológicos, cómo tener conciencia de lo que puede tener un impacto negativo.

NONU: Recientemente, un grupo de expertos y de empresarios del sector tecnológico, más de mil, fueron ante la Oficina del Alto Comisionado de la ONU para los Derechos Humanos, para solicitar una moratoria de seis meses en el desarrollo, venta y uso de IA ¿Esto puede tener algún impacto o es solamente retrasar un proceso que ya está en marcha? ¿Qué se puede conseguir en esos seis meses?

GR: A mí no me parece que ese pedido sea realista, pero evidentemente llamó la atención. La carta dice: necesitamos una pausa para construir los mecanismos de gobernanza que puedan asegurarnos que haya una utilización positiva de estas tecnologías. Esto puede verse de dos maneras: (a) realmente puede concederse esa pausa y habrá que apurar el desarrollo de las instituciones y los marcos regulatorios, o (b) se apura la creación de los marcos regulatorios, que es lo que la UNESCO ha estado diciendo durante dos años desde que se adoptó la recomendación.

Nosotros no pensamos que pueda haber una pausa, lo que sí puede haber es una aceleración en la construcción de instituciones. El lado positivo es que los países que ya estaban implementando la recomendación y trabajando con nosotros para desarrollar estos marcos éticos, los están acelerando y muchos países que ni siquiera se estaban acercando ya nos están hablando. Tenemos 40 países, al final de este año ya vamos a tener la evaluación del impacto ético y esperamos poder lograr nuestro objetivo, que es tener un marco de gobernanza de la IA.

NONU: ¿Y estos 40 países representan a todas las regiones del mundo?

GR: Sí, hay una gran masa crítica que además nos va a permitir caminar juntos, eso también es importante en el ámbito multilateral. Todo el mundo tiene una visión que puede aportar.

(*) Ver: “UNESCO: Relevantes declaraciones y recomendaciones: Recuperación de la Educación, Ética en Inteligencia Artificial, Ciencia Abierta” Newletter DPT N° 68. Enero 2022

4.- Cuarto artículo: Habilidades humanas que la IA no podrá reemplazar (4.1.) (4.2.) (4.3.) (4.4.)

Según el informe “El futuro del trabajo” del Foro Económico Mundial (WEF, por sus siglas en inglés), el mercado de empleo experimentará grandes cambios durante los próximos 5 años. Las principales fuerzas disruptivas asociadas con la irrupción de la inteligencia artificial (IA) son: (a) la destrucción de puestos de trabajo, (b) la creación de nuevos roles laborales hasta ahora inexistentes, y (c) a transición hacia una economía verde.

El informe concluye que casi una cuarta parte de todos los puestos de trabajo (23%) a escala mundial cambiarán en los próximos 5 años. En 45 economías, que abarcan 673 millones de trabajadores, se prevé la creación de 69 millones de nuevos puestos de trabajo y la supresión de 83 millones, lo que supone una disminución neta de 14 millones de empleos, es decir, el 2% del empleo actual.

“Las mayores pérdidas de empleo se esperan en las funciones administrativas y en las tradicionales de seguridad, fábrica y comercio”, dice el informe, señalando que la disminución de las funciones administrativas en particular será “impulsada principalmente por la digitalización y la automatización”.”

Sin embargo, las empresas encuestadas no ven los cambios tecnológicos como algo negativo en general para el empleo. “Se espera que el impacto de la mayoría de las tecnologías en el empleo sea positivo en términos netos en los próximos 5 años. El análisis de macrodatos, las tecnologías de gestión del cambio climático y el medio ambiente, y la encriptación y la ciberseguridad serán los principales motores del crecimiento del empleo”, dice el informe.

Las habilidades que necesitarán los trabajadores

Las empresas saben que deben dar prioridad a la formación y el desarrollo de sus empleados, pero ¿En qué habilidades deben centrarse?

Las dos principales capacidades necesarias son cognitivas: pensamiento analítico y creatividad. También son competencias básicas la resiliencia y la flexibilidad, al igual que la alfabetización tecnológica, el liderazgo y la curiosidad. Pero la habilidad laboral que más se demandará en los próximos cinco años será el pensamiento creativo (73%), seguida por el pensamiento analítico (73%) y los conocimientos tecnológicos (68%). Las mayores ganancias absolutas en términos de empleo se darán en los sectores de la educación (3 millones de empleos) y la agricultura (4 millones de empleos), impulsados en parte por la demografía y en parte por las aplicaciones de las nuevas tecnologías en estos campos.

En conclusión, la naturaleza del trabajo está evolucionando a un ritmo sin precedentes debido al auge de la tecnología. La automatización y la IA están creando nuevas oportunidades para trabajadores con habilidades de nivel superior (habilidades interpersonales, resolución de problemas, pensamiento crítico, y para aquellos que desarrollen nuevas habilidades para seguir siendo relevantes en un mercado laboral en constante cambio.


5.- Quinto artículo: La Inteligencia Artificial General: oportunidades y riesgos (5)

Según Demis Hassabis, director ejecutivo de DeepMind de Google, la “Inteligencia Artificial General” (Artificial general intelligence, AGI), que puede comprender el mundo tal como lo hacen los humanos, podría desarrollarse “dentro de una década”. Sin embargo, a los expertos les preocupa que la AGI pueda dañar seriamente a la sociedad si no está controlada y guiada por valores humanos.

En un estudio realizado por la Universidad de Stanford en abril, el 56% de los profesionales e investigadores de IA afirmaron que la AGI es ya una realidad. A diferencia de la IA generativa, la AGI es “consciente de lo que dice y hace”, lo que reduce la probabilidad de formular declaraciones incorrectas o ambiguas. En el estudio de Stanford, casi el 58% de los encuestados consideraron que la AGI provoca una “preocupación importante“, mientras que el 36% dijo que podría resultar en una “catástrofe de nivel nuclear”.

La reciente fusión del principal equipo de investigación de IA de Google con DeepMind y el nombramiento de Hassabis como director ejecutivo tienen como objetivo acelerar el progreso de la empresa hacia la AGI. El objetivo actual de la empresa es incorporar IA en más productos, lo que, en su opinión, sería tan revolucionario como el primer iPhone. Además, Hassabis declaró que Google crearía responsablemente AGI y aplicaría el “método científico para realizar experimentos controlados muy cuidadosos para comprender qué hace el sistema subyacente”.


6.- Sexto artículo: Crean un decodificador de interfaz cerebro-computador que puede traducir la actividad cerebral de una persona en un flujo de texto (6.1.) (6.2.) (6.3.) (6.4.)

En el artículo aquí reseñado –de investigadores de la Universidad de Texas en Austin- se presenta una interfaz cerebro-computador, denominada “decodificador semántico” que, mediante IA, traduce la actividad cerebral de una persona en un flujo continuo de texto. El sistema no es invasivo y no requiere implante quirúrgico.

El decodificador se entrena haciendo que el participante escuche podcasts mientras está en un resonador fMRI (resonancia magnética funcional), y luego –mediante un sistema de inteligencia artificial- se genera texto basado (exclusivamente) en la actividad cerebral. En un reciente entrenamiento intensivo 3 voluntarios permanecieron en un resonador fMRI durante 16 horas cada uno, escuchando podcasts utilizando un modelo IA de lenguaje. Posteriormente, los mismos participantes fueron escaneados mientras narraban el guion escuchado previamente y el decodificador IA generó texto a partir de la actividad cerebral de los voluntarios. El resultado fue que aproximadamente la mitad de las veces, el texto coincidió con bastante precisión, con la narración original. Si bien por el momento los resultados exhiben elevados márgenes de error, esta tecnología es prometedora para pacientes que no pueden comunicarse a través del habla.

Dado que este tipo de tecnología –“que podría llegar a leer nuestros pensamientos”- provoca cierta inquietud, el equipo asegura que sólo podrá usarse con consentimiento informado de los participantes. Por el momento se verificó que la decodificación requiere la cooperación del sujeto participante, tanto para entrenar como para aplicar el decodificador. Cabe señalar que los participantes pudieron “sabotear” los experimentos; por ejemplo, narrando guiones diferentes de los que habían escuchando.


7.- Séptimo artículo: EE.UU.: Financiamiento gubernamental para impulsar y promover la “innovación responsable” en Inteligencia Artificial (7)

La Casa Blanca anunció, a inicios de mayo, que EE.UU. invertirá U$S 140 millones para establecer 7 nuevos institutos de investigación de inteligencia artificial (IA) que impulsarán la innovación responsable y asegurarán que los avances en la tecnología sirvan al bien común. Los centros se unirán a los 18 institutos de investigación sobre IA que ya están funcionando en el país.

De esta forma, EE.UU. habrá invertido un total de U$S 500 millones para “apoyar una innovación responsable que impulse el bien común”, explicó la directora de la Oficina de Políticas Tecnológicas y Científicas de la Casa Blanca, Arati Prabhakar

La Casa Blanca anunció que las grandes empresas de IA aceptaron someterse a una evaluación pública de sus sistemas durante el evento de “hackers” DefCon 31, que se celebrará en Las Vegas a comienzos de agosto. Durante esta convención, miles de participantes analizarán si estos sistemas están alineados con la Carta de Derechos de la IA propuesta por el gobierno estadounidense (*), que incluye principios como la privacidad de los datos de los usuarios o la protección contra algoritmos discriminatorios.

El gobierno emitirá también nuevas directivas sobre el uso de la IA por parte de las agencias gubernamentales, para asegurar que respeten los derechos y la seguridad de los ciudadanos estadounidenses. “Nuestro objetivo es mantener una discusión franca sobre los riesgos actuales y a corto plazo que percibimos en los desarrollos de IA”, dice la Casa Blanca. El gobierno también busca discutir “pasos para reducir los riesgos, y otras maneras en que podemos trabajar juntos para asegurar que los estadounidenses se beneficien con los avances de la IA mientras están protegidos de los peligros”. Todo esto ocurre en un contexto de críticas -por parte de algunos investigadores y empresarios- sobre el desarrollo sin límites de la IA por parte de empresas como Google o Microsoft. El presidente Biden dijo que estas empresas “deben asegurar que sus productos sean seguros antes de ponerlos a disposición del público”.

Referencias:

(1) “Alarmed tech leaders call for AI research pause: As systems dazzle, researchers worry about lack of safeguards and regulation” By Laurie Clarke. Science, News Scientific Community. Vol 380, Issue 6641. 11 Apr 2023. DOI: 10.1126/science.adi2220

(2.1.) “La inteligencia artificial solucionará todos los problemas de la humanidad al exterminarla: Se ocultan irresponsablemente los riesgos existenciales, los debates constitucionales y los peligros institucionales de la inteligencia artificial” Por Lucas Arrimada. Perfil. Opinión Análisis. 11-04-2023

(2.2.) “La adopción precipitada de sistemas de inteligencia artificial en la salud puede perjudicar a los pacientes” Noticias ONU. Organización de las Naciones Unidas. Salud. 16 Mayo 2023.

(3) “El debate de la ética de la inteligencia artificial no es tecnológico sino social: La UNESCO llama a implementar sus recomendaciones sobre la ética de la inteligencia artificial para evitar su mal uso” Entrevista con Gabriela Ramos (directora general adjunta de la UNESCO para las Ciencias Sociales y Humanas) Noticias ONU. Cultura y educación. Organización de las Naciones Unidas. 3 Mayo 2023

(4.1.) Fuente primaria 1: “Future of Jobs Report” Insight Report. May 2023. World Economic Forum. CH-1223 Cologny/Geneva. Switzerland. ISBN-13: 978-2-940631-96-4

(4.2.) Fuente primaria 2: ¿Cómo puede la Inteligencia Artificial ayudar a atraer, cultivar y retener el talento? DAVOS 2023. World Economic Forum. 11 ene 2023

(4.3.) Fuente secundaria: “Preocupante pronóstico: la inteligencia artificial pondrá en jaque a casi el 25% de los puestos de trabajo en todo el mundo: El reporte sobre el “Futuro del Trabajo” del Foro Económico Mundial predice grandes cambios para el mercado laboral en los próximos cinco años, pero la tecnología creará más puestos de los que se perderán” Infobae. Economía.- 8 May, 2023

(4.4) 5 skills that AI will never replace: Here are some skills and professions that can’t be easily replaced by automation” By Ilgesim Yazıcı. Interesting Engineering. May 02, 2023

(5) “’Few years’ away from human-like AI, Google Chief makes startling revelation: Artificial general intelligence was deemed a “nuclear-level catastrophe” by almost 36% of AI professionals in a recent study” By Baba Tamim. Interesting Engineering. May 04, 2023

(6.1.) Fuente primaria: “Semantic reconstruction of continuous language from non-invasive brain recordings” Jerry Tang, Amanda LeBel, Shailee Jain, Alexander G Huth. 1 May 2023, Nature Neuroscience. volume 26, pages858–866 (2023) DOI: 10.1038/s41593-023-01304-9

(6.2.) Fuente secundaria: “Crean una inteligencia artificial capaz de leer la mente: No es ciencia ficción: esta nueva herramienta no invasiva puede traducir pensamientos en palabras escritas” Por Sarah Romero. Muy Interesante. 03.05.2023

(6.3.) “China logra que un mono controle un brazo robótico con su cerebro: Es la primera vez que se consigue este hito tecnológico” Por Sarah Romero. Muy Interesante. Actualidad. 14.05.2023

(6.4.) “El equipo de Nankai lideró la finalización del experimento intervencionista de la interfaz cerebro-máquina en primates no humanos: Primero en el mundo”. Red de noticias de la Universidad de Nankai, China. 2023-05-05. Idioma: chino

(7) “Estados Unidos invertirá 140 millones de dólares para investigación en inteligencia artificial: El gobierno busca apoyar una “innovación responsable”. La Casa Blanca invitó a directivos de empresas como Google, Microsoft, OpenAi y Anthropic para una “discusión sobre “los riesgos” asociados a esta tecnología” Infobae. Tecno. 5 May, 2023 (Con información de EFE y AFP)