Newsletter DPT Nro. 92/94 - Enero/Marzo

ISSN 2618-236X

Enero-Marzo / 2024

NOTICIAS CIENTIFICAS
NOTICIAS CIENTIFICAS INTERNACIONALES

Riesgos y amenazas de aprovechamiento maléfico de la apertura informativa en biotecnología

Nuevas prevenciones frente  a la evidencia empírica

Los investigadores en ciencias de la vida han promovido y exaltado una cultura de ciencia abierta, en la cual se comparten libremente formulaciones, herramientas, estudios y publicaciones de acceso abierto. Pero en los últimos años se demostró que dicha apertura también puede ser aprovechada por actores malignos para crear -desde cero- virus y otros patógenos peligrosos.

La presente reseña comprende dos artículos. El primero (1) focaliza en la reciente constitución de una organización internacional para: (a) difundir el conocimiento sobre tales riesgos y amenazas, y (b) desarrollar y proveer gratuitamente, a los actores de la industria, herramientas de prevención de los mismos. En el segundo (2)  se relata una experiencia –desarrollada en el ámbito académico- sobre posibles usos malignos de los chatbots inteligentes en la investigación.

1.- Primer artículo: una organización internacional para difundir, prevenir y evitar riesgos y amenazas de desarrollos biotecnológicos malignos (1.1.) (1.2.)

Expertos en bioseguridad lanzaron el 15/02/2024 una nueva organización internacional sin fines de lucro constituida para prevenir y evitar daños por uso maligno de desarrollos biotecnológicos. Conocida como International Biosecurity and Biosafety Initiative for Science (IBBIS) (Iniciativa Internacional de Bioseguridad y Bioprotección para la Ciencia), la Iniciativa tiene como objetivo desarrollar barreras tecnológicas y políticas para reducir el riesgo de que las herramientas biotecnológicas (como las de síntesis y edición de ADN) se utilicen -accidental o deliberadamente- para crear toxinas o patógenos perjudiciales o mortales.

Durante mucho tiempo los biólogos promovieron y exaltaron una cultura de ciencia abierta, en la cual se comparten libremente formulaciones, herramientas, estudios y publicaciones de acceso abierto. Pero en los últimos años se ha demostrado también que, aprovechando tal apertura, eventuales actores maléficos pueden crear -desde cero- virus y otros microbios peligrosos. La síntesis de patógenos resulta facilitada por numerosas empresas que, en todo el mundo, imprimen secuencias de ADN a pedido para experimentos biológicos. Este avance, junto con nuevas herramientas de edición genética, como CRISPR, y el fácil acceso a la inteligencia artificial (IA), generan preocupación por la posibilidad de que los bioterroristas puedan usarlas para crear armas biológicas, o que auténticos investigadores puedan crear -por error- nuevos agentes infecciosos.

EE.UU. y otros países regulan estrictamente a los laboratorios que trabajan con microbios o toxinas peligrosos para los humanos, los animales y las plantas. Pero los actores malignos podrían evadir esas reglas y crear patógenos peligrosos mediante el uso de herramientas de impresión de ADN, junto con protocolos de edición y empalme de genes, para ensamblar secuencias genéticas dañinas.

El primer proyecto de la Iniciativa consiste en distribuir gratuitamente una herramienta de software para ayudar a las empresas de síntesis de ADN a detectar pedidos y clientes con indicios presumiblemente maliciosos. Si el software detecta secuencias sospechosas o determina que un cliente no es genuino, la empresa puede optar por no completar el pedido o, en casos excepcionales, alertar a las autoridades de la jurisdicción del cliente. La IBBIS tiene la intención de colaborar con todas las empresas y gobiernos que deseen adoptar su software.

Piers Millett, director ejecutivo de IBBIS, señala que más allá del examen de ADN, la Iniciativa también procura desarrollar paquetes de software gratuitos para ayudar a investigadores, editores y agencias de financiamiento a examinar informes científicos para garantizar que no revelen métodos para producir patógenos y toxinas. Otro objetivo, afirma, es abordar las preocupaciones acerca de la posibilidad de que los sistemas de inteligencia artificial puedan proporcionar instrucciones detalladas para la construcción de agentes para uso en bioterrorismo.


2.- Segundo artículo: ¿Pueden los chatbots ayudar a desarrollar virus para desencadenar próximas pandemias?: Ejercicios en el ámbito académico: (2.1.) (2.2)

Los expertos en tecnología han estado advirtiendo acerca de los eventuales daños que podrٳa provocar el uso de la inteligencia artificial (IA). Ahora, Kevin Esvelt agrega otra preocupación: la IA podría ayudar a alguien sin conocimientos científicos y con malas intenciones a ordenar la generación de un virus capaz de desencadenar una nueva pandemia.

Esvelt, un experto en bioseguridad del Instituto Tecnológico de Massachusetts (MIT), pidió recientemente a grupos de estudiantes de posgrado que crearan un virus peligroso con la ayuda de ChatGPT u otros grandes modelos de lenguaje. Después de sólo una hora, los grupos entregaron listas de virus candidatos y compañías que podrían sintetizar su código genético y ensamblar sus componentes (ver abajo: Descripción del ejercicio).

Esvelt y otros señalan que el ejercicio muestra que los sistemas de IA pronto podrían permitir que personas ajenas al ámbito científico diseñen armas biológicas. Los expertos en bioseguridad ya estaban preocupados por el hecho de que la cultura de intercambiar abiertamente información biológica (incluyendo secuencias de virus) podría ser aprovechada por bioterroristas para obtener modelos para desarrollar nuevas armas biológicas. Pero, hasta ahora, ello hubiera requerido una experiencia considerable: el potencial terrorista necesitaría identificar un virus candidato, sintetizar el material genético viral y combinarlo con otros reactivos para “arrancar” un virus capaz de infectar células y reproducirse.

Pero todos esos pasos se están simplificando rápidamente. Por ejemplo, las nuevas impresoras de ADN permitirían a los interesados eludir la evaluación que la mayoría de las empresas de biología sintética realizan para garantizar que ningún pedido incluya material genético para posibles armas biológicas. Alguien con intenciones maliciosas podría enviar estos planos genéticos a una de las numerosas compañías de investigación contratistas para ensamblarlos en un virus objetivo. La IA podría reducir aún más las barreras.

Descripción del ejercicio

Para realizar el ejercicio Esvelt dividió a un grupo de estudiantes de posgrado (dentro del curso ‘Salvaguardar el futuro’ del MIT), sin conocimientos ni experiencia en ciencias de la vida, en tres subgrupos, cada uno con 3 o 4 miembros. Todos los subgrupos tenían acceso a GPT-4, Bard y otros chatbots de IA, y se les dio un plazo de 1 hora para diseñar y desarrollar –con apoyo de los chatbots- agentes capaces de causar una pandemia.

Al cabo de esa hora, los chatbots habían sugerido 4 virus: (a) el de la influenza H1N1 de 1918, (b) un virus de la influenza aviar H5N1 de 2012, (c) el virus de la viruela variola mayor, y (d) una cepa del virus Nipah. En algunos casos, los chatbots incluso señalaron mutaciones genéticas reportadas en la literatura para aumentar la trasmisión. También describieron técnicas para ensamblar un virus a partir de su secuencia genética, así como los suministros de laboratorio necesarios y las empresas que podrían proporcionarlos. Finalmente, los chatbots sugirieron también un conjunto de empresas que podrían imprimir material genético sin examinarlo y laboratorios que podrían ayudar a ensamblar los componentes.

Esvelt duda de que las sugerencias de estos chatbots representen –en lo inmediato- una gran amenaza de pandemia. Antes de asignar el ejercicio al curso, él mismo verificó que no surgieran sugerencias realmente amenazantes, y compartió su plan con otros expertos en bioseguridad y bioprotección. Sin embargo, cree que el experimento subraya cómo la IA y otras herramientas podrían facilitar a posibles terroristas desatar nuevas amenazas a medida que la creciente literatura sobre amenazas biológicas se incorpore a los datos de entrenamiento de la IA.

Esvelt señala la posibilidad de restringir la información disponible para chatbots y otros motores de IA, excluyendo de los conjuntos de entrenamiento los artículos en línea que describen recetas para crear y mejorar patógenos. El equipo de Esvelt estima que esos artículos representan menos del 1% de la base de datos de resúmenes de PubMed. El costo de dicha exclusión sería que los motores de IA no podrían usar esos documentos para hacer avanzar la biología de manera positiva, pero el beneficio de prevenir el mal uso sería “práctico e inmediato”.

Otras salvaguardas podrían exigir a todas las empresas de investigación por contrato (CRO) que verifiquen la seguridad de cualquier material genético que se les solicite sintetizar, editar o ensamblar.

(1.1.) “New biosecurity group aims to prevent biotech disasters: Organization hopes to safeguard technology advances from misuse and abuse Science”  By Robert  F. Service. Science Insider. Biology. 15 Feb 2024. DOI: 10.1126/science.zbgqqpm

(1.2.) International Biosecurity and Biosafety Initiative for Science (IBBIS)

(2.1.) Fuente primaria: “Can large language models democratize access to dual-use biotechnology?” Emily H. Soice, Rafael Rocha, Kimberlee Cordova, Michael Specter, Kevin M. Esvelt. arXiv Computer Science. Computers and Society. 6 Jun 2023. arXiv:2306.03809v1. DOI: 10.48550/arXiv.2306.03809

(2.2.) Fuente secundaria: “Could chatbots help devise the next pandemic virus?: An MIT class exercise suggests AI tools can be used to order a bioweapon, but some are skeptical” By Robert F. Service. Science. Scienceinsider. News. 14 Jun 2023. © 2023 American Association for the Advancement of Science. DOI: 10.1126/science.adj2463. A version of this story appeared in Science, Vol 380, Issue 6651.