Newsletter DPT Nro. 84

ISSN 2618-236X

Mayo / 2023

NOTICIAS EDUCATIVAS Y PEDAGOGICAS
NOTICIAS EDUCATIVAS Y PEDAGOGICAS INTERNACIONALES

La diferenciación por calidad y confiabilidad

Una tendencia manifiesta en publicaciones científico-tecnolóٴgicas

Entre los múltiples efectos de la pandemia de Covid-19, se registró -en materia de publicaciones científico-tecnológicas- cierta laxitud en los procesos de aceptación y revisión de artículos por publicar, así como una notable profusión de trabajos no revisados por expertos independientes. Debido a la ansiedad por difundir experiencias y hallazgos con la mayor celeridad posible: (a) las revistas multiplicaron sus “ediciones especiales”, (b) crecieron los portales de trabajos no revisados (“preprints”) y (c) las redes de Internet fueron inundadas por publicaciones cuestionables. Superadas ya las urgencias emergentes de la referida pandemia, recientemente surgió un nuevo factor de interferencia en la confiabilidad de trabajos científico-tecnológicos: el uso de algoritmos generativos con base en inteligencia artificial.

Frente a los referidos factores, hoy parece manifestarse cierta tendencia a volver a diferenciar entre publicaciones científico-tecnolóٴgicas en términos de calidad y confiabilidad. La presente reseña comprende tres artículos vinculados con dicha tendencia. El primero (1) trata sobre la reciente exclusión de relevantes revistas de la medición del “factor de impacto”. El segundo (2) aboga sobre la necesidad de clarificar el concepto de “preprint” y sus limitaciones. El tercero (3) enuncia un conjunto de buenas prácticas para usar inteligencia artificial en la elaboración de artículos científico-tecnológicos.

 

1.- Primer artículo: Excluyen a relevantes revistas de una métrica ampliamente difundida como indicador de calidad: el “factor de impacto” (1.1.) (1.2.)

Casi dos docenas de revistas de dos de las editoriales de acceso abierto con más rápido crecimiento, incluida una de las principales revistas del mundo por volumen, ya no serán calificadas por “factor de impacto” (el número promedio de citas por artículo durante los últimos 2 años (*)). El 20/3/2023, la base de datos Web of Science anunció que despojaría a esas revistas, junto con docenas de otras, de esa medida de calidad que, aunque controvertida, exhibe alta relevancia entre autores e instituciones.

Dicha exclusión es una clara manifestación de la confrontación entre dos modelos comerciales: (a) volúmenes regulares con artículos (supuestamente) seleccionados por su solidez científica más que por su novedad, y (b) la práctica de algunos editores de acceso abierto de reclutar grandes cantidades de artículos para volúmenes especiales, sobre cuestiones novedosas o candentes, coordinados por editores invitados.

El listado maestro de revistas de Web of Science, administrada por la empresa de análisis Clarivate, califica a las revistas en función de 24 medidas de calidad, incluida la efectiva revisión por pares, el cumplimiento de pautas y prácticas de ética, y verifica periódicamente que las revistas calificadas cumplan con los estándares. Clarivate calcula el “factor de impacto” para un subconjunto seleccionado de revistas de la lista. Durante este año la compañía amplió los controles de calidad debido a “las crecientes amenazas a la integridad del registro académico”, dice la editora en jefe de Web of Science, Nandita Quaderi. La compañía eliminó 50 revistas de la lista, un número inusualmente grande para un solo año, y Clarivate dijo que continúa revisando otras 450 revistas, con la ayuda de una herramienta de inteligencia artificial.

Las revistas que pierden su “factor de impacto” de la Web of Science se ven desfavorecidas ante el público y a los autores actuales y potenciales, ya que esa métrica se usa ampliamente -como indicador de calidad- en decisiones de contratación, permanencia y promoción.

Entre las revistas eliminadas figura, por ejemplo, el International Journal of Environmental Research and Public Health (editada por MDP). En 2022, tenía un factor de impacto de Web of Science de 4,614, en la mitad superior de todas las revistas en el campo de la salud pública.

(*) El “factor de impacto” se calcula con base en un periodo de 2 años. Por ejemplo, el factor de impacto en el año 2023 para una determinada publicación se calcula como sigue:

AC = Número de veces que los artículos publicados en la revista durante el periodo 2021-2022 fueron citados por las publicaciones a las que se da seguimiento durante el año 2023

AP = Número de artículos publicados en la revista durante el periodo 2021-2022.

 

Factor de impacto (FI) 2023 = AC / AP


2.- Segundo artículo: La necesidad de clarificar el concepto de “preprint” (2)

Los “preprints” son trabajos de investigación que no han sido revisados por pares; es decir: no transitaron el proceso mediante el cual los fundamentos, métodos y hallazgos de los estudios son revisados y evaluados por expertos que no participaron en la investigación. Tradicionalmente, los investigadores solían hacer circular sus “preprints” dentro de sus comunidades científicas, con la finalidad de compartir los fundamentos, métodos y hallazgos de sus investigaciones y recibir -de sus colegas- aportes, observaciones y sugerencias que pudieran contribuir a mejorar el trabajo antes de someterlo a la revisión formal para su publicación. Pero la pandemia de Covid-19 provocó –debido a la ansiedad por difundir hallazgos- un inmenso caudal de preprints que inundaron sitios y redes de Internet. El hecho de difundir evidencias preliminares (aun señalando explícitamente que al estudio no fue aún revisado por pares ni publicado) sentó un precedente problemático.

El artículo aquí reseñado se refiere a un estudio realizado por investigadores de la Universidad de Georgia, con adultos estadounidenses, para comprender cómo el público interpreta las referidas advertencias. Los resultados del estudio sugieren que: (a) La mayoría de las personas tienen poca o ninguna comprensión de lo que realmente es un “preprint” y no entienden sus diferencias con un artículo publicado en una revista académica, y (b) Ello podría conducir a una desconfianza pública en la ciencia, ya que los hallazgos y sus alcances podrían variar significativamente entre la fase de preprint y la publicación después de la revisión por pares.

“Con los preprints, todavía hay incertidumbres que no se han resuelto”, dijo Chelsea Ratcliff, autora principal del estudio. “Muchos preprints ni siquiera se publican. Realmente es importante que el público entienda eso”. “Si las personas basan sus actitudes o sus decisiones de salud en la evidencia exhibida en un preprint, por ejemplo, sobre un nuevo medicamento, deberían tener clara su naturaleza preliminar”.

Los investigadores asignaron a 415 personas la lectura de noticias sobre un estudio preliminar acerca de la relación entre la eficacia de la vacuna Covid-19 y sus efectos secundarios. Un grupo leyó noticias en las que el estudio se calificaba como “un estudio preliminar publicado recientemente en línea y aún no evaluado por expertos externos”, mientras que el otro grupo leyó noticias en las que simplemente se lo calificaba como “un estudio”.

Se verificó que las advertencias acerca del concepto de “preprint” y la mención expresa de que el estudio no se había sometido a revisión por pares, no habrían tenido ningún efecto manifiesto en los participantes del primer grupo. Ambos grupos calificaron de la misma manera la confiabilidad de la investigación. Cuando los investigadores pidieron a los participantes que describieran lo que creían que significa “preprint” en una noticia científica, el 75% enunció ideas que mostraron claramente que no entendían el concepto.

“Es evidente que necesitamos encontrar otras estrategias para referirnos a los preprints de manera efectiva”, agregó Alice Fleerackers, coautora del estudio. “El mero hecho de etiquetar a un trabajo como un ‘preprint’, incluso con una breve definición de ese concepto, no parece mover la aguja”. Los periodistas que informan sobre preprints deberían explicar brevemente la importancia del proceso de revisión por pares y advertir a los lectores que los hallazgos de los preprints están sujetos a cambios, dijeron los investigadores.

“Antes de la pandemia, el objetivo principal de un preprint era que los investigadores compartieran sus trabajos y hallazgos con otros investigadores”, dijo Ratcliff. “No estaban destinados a influir en las políticas públicas, ni en las actitudes o los comportamientos de las personas”.

Se concluye señalando que una contribución novedosa del estudio fue medir las respuestas del público a la mención explícita del estado de ”preprint” en la cobertura mediática de una investigación científica. Se verificó que: (a) el mero hecho de revelar el estado de “preprint” de un trabajo de investigación no tuvo efectos sobre la percepción del público acerca de su confiabilidad, y (b) en general, los participantes exhibieron una baja comprensión del concepto de “preprint” y de su diferencia con un artículo científico publicado tras haber sido revisado por pares.

Dada la alta probabilidad de que los preprints continúen siendo una herramienta básica para difundir investigaciones, es fundamental continuar examinando cómo percibe el público la confiabilidad de los preprints, particularmente en materia de salud.


3.- Tercer artículo: Buenas prácticas para usar inteligencia artificial en la elaboración de artículos científico-tecnológicos: Precaución, cuidado y consideración (3)

La incursión de chatbots con herramientas generativas de inteligencia artificial (IA), como ChatGPT, provoca preocupación en la comunidad académica por su manifiesta tendencia a producir textos engañosos, superficiales, plagados de errores, con referencias e inferencias falsas o carentes de sentido. Es que los actuales chatbots generan texto mediante conexiones lingüísticas, con sustento en sus bases de datos. Carecen totalmente de capacidad para comprender, analizar, proporcionar nueva información o generar conocimiento.

En el artículo aquí reseñado se traza un breve resumen de algunas de las fortalezas y debilidades de los actuales chatbots con IA, y se concluye enunciando un conjunto de recomendaciones a los investigadores para usar tales herramientas en cualquier etapa de su investigación, particularmente en la etapa de escritura del manuscrito.

Recomendaciones para el uso de chatbots con IA en comunicación científico-tecnológica

(a) Declare expresamente el uso de un chatbot IA para preparar su manuscrito. Indique claramente en qué partes del manuscrito se utilizó y trascriba las indicaciones, preguntas e información proporcionada al sistema.

(b) Tenga en cuenta que, en el mejor de los casos, el resultado de un chatbot es sólo un borrador sumamente inicial, y que puede contener información incorrecta. Por tanto, cada oración y declaración debe considerarse críticamente: “verificar, comprobar y volver a comprobar. Y luego…, verificar nuevamente”.

(c) No trascriba textualmente la salida de un chatbot, ya que las palabras del chatbot no son las suyas. Dado que es posible que el chatbot haya reutilizado texto de otras fuentes, su trascripción podría implicar un plagio involuntario.

(d) Verifique, con la literatura original, todas las referencias y citas proporcionadas por un chatbot de IA, dado que podrían ser erróneas.

(e) No incluya a ningún chatbot como coautor, dado que se trata simplemente de una herramienta para ayudar en la formulación y redacción de borradores de manuscritos.

(f) Los chatbots no ”asumen” responsabilidad alguna por ninguna de las declaraciones que generan ni por la ética de su operación. Quienes comparten esa responsabilidad son exclusivamente los autores humanos de un manuscrito.

(g) Y lo más importante, no permita nunca que un chatbot sofoque su creatividad y pensamiento profundo.

Referencias

(1.1.) “Fast-growing open-access journals stripped of coveted impact factors: Web of Science delists some 50 journals, including one of the world’s largest” Science. By Jeffrey Brainard. Science Insider Scientific Community. 28 March 2023. DOI: 10.1126/science.adi009

(1.2.) “Sanctioning of 50 journals raises concerns over special issues in ‘mega-journals” By Anthony King. Chemistry World. 24 April 2023

(2) “¿Qué es una “preimpresión” (preprint)?: Hay una baja comprensión del concepto”. IntraMed. Noticias médicas. 14 Mar 2023. Autores: Chelsea L. Ratcliff, Alice Fleerackers, Rebekah Wicke, Blue Harvill, Andy King y Jakob Jensen. Fuente: Health Communication Framing COVID-19 Preprint Research as Uncertain: A Mixed-Method Study of Public Reactions

 (3) “Best Practices for Using AI When Writing Scientific Manuscripts” Jillian M Buriak, Deji Akinwande, Natalie Artzi, C Jeffrey Brinker, Cynthia Burrows, Warren C W Chan, Chunying Chen, Xiaodong Chen, Manish Chhowalla, Lifeng Chi, William Chueh, Cathleen M Crudden, Dino Di Carlo, Sharon C Glotzer, Mark C Hersam, Dean Ho, Tony Y Hu, Jiaxing Huang, Ali Javey, Prashant V Kamat, Il-Doo Kim, Nicholas A Kotov, T Randall Lee, Young Hee Lee, Yan Li, Luis M Liz-Marzán, Paul Mulvaney, Prineha Narang, Peter Nordlander, Rahmi Oklu, Wolfgang J Parak, Andrey L Rogach, Mathieu Salanne, Paolo Samorì, Raymond E Schaak, Kirk S Schanze, Tsuyoshi Sekitani, Sara Skrabalak, Ajay K Sood, Ilja K Voets, Shu Wang, Shutao Wang, Andrew T S Wee, Jinhua Ye. ACS Nano. 2023 Mar 14; 17(5): pp. 4091-4093. DOI: 10.1021/acsnano.3c01544. Epub 2023 Feb 27. PMID: 36848601 DOI: 10.1021/acsnano.3c01544