En este momento estás viendo La IA se normaliza en la revisión académica, pero la gobernanza sigue rezagada, según Frontiers

La IA se normaliza en la revisión académica, pero la gobernanza sigue rezagada, según Frontiers

Por Jorge González Arocha

Un informe reciente de Frontiers revela que, pese a las dudas persistentes y a la ausencia de marcos normativos claros, los revisores de revistas académicas han ido incorporando el uso de la inteligencia artificial (IA) de manera discreta pero sostenida. Según el estudio, este proceso se inscribe en una etapa de «normalización y experimentación», aunque todavía marcada por un «enorme potencial no aprovechado».

Según la investigación, el 53 % de los revisores encuestados dice utilizar estas herramientas en sus tareas de evaluación. Además, casi uno de cada cuatro (24 %) reconoce haber aumentado su uso en el último año. Esto último indica una normalización progresiva en el ámbito de la revisión por pares. No obstante, el informe subraya que el avance no se traduce directamente en un uso sistemático: la adopción sigue siendo, en términos generales, limitada.

Cuando se analizan los usos concretos, el patrón es claro. La mayoría de los participantes (59 %) emplea la IA principalmente para redactar informes de revisión. En menor medida, un 29 % la utiliza para resumir resultados y un 28 % para señalar posibles conductas indebidas. Se trata, en su mayoría, de aplicaciones superficiales, orientadas a tareas operativas más que al análisis crítico del contenido científico.

Desde Frontiers se reconoce que estos usos ya muestran «un gran potencial de la IA para aliviar la fatiga de los revisores, mejorar la coherencia de las evaluaciones y reforzar los controles de integridad», lo que permitiría aprovechar mejor el tiempo y la experiencia de quienes participan en el proceso de revisión.

Desde una perspectiva geográfica, el documento muestra que China encabeza la adopción de IA en la revisión por pares con un 77 % de los participantes afirmando utilizarla en tareas de evaluación. Le sigue África, con un 66 %, donde aparece menos como una amenaza que como una herramienta de apoyo, especialmente en contextos marcados por limitaciones estructurales. A estas diferencias regionales se suman también brechas generacionales. Un 87 % de investigadores jóvenes declara emplearla, frente al 67 % de los investigadores sénior. Sin embargo, esta expansión no está exenta de desconfianza. Aunque muchos investigadores valoran positivamente la introducción progresiva de la IA, una proporción considerable (71 %) expresa preocupación por el modo en que estas herramientas están siendo utilizadas por otros investigadores. A ello se suma que un 45 % manifiesta inquietud por el uso que los editores y las casas editoriales hacen de la IA, y que un 53 % afirma haber observado personalmente prácticas incorrectas o problemáticas entre sus propios pares.

Esta ambivalencia se refleja con claridad cuando se pregunta a los revisores cómo influye el uso de la IA por parte de los autores en su percepción de los manuscritos. La mayoría reconoce mejoras en la calidad del texto (63 %), pero, al mismo tiempo, una proporción significativa señala que el uso de estas herramientas despierta dudas sobre la integridad del trabajo (52 %) o introduce errores que requieren mayor atención crítica (48 %).

El informe también revela un panorama preocupante en materia de formación. El 35 % de los investigadores declara ser completamente autodidacta en el uso de la IA; un 31 % afirma apoyarse en la orientación de sus instituciones, mientras que solo el 16 % confía en guías proporcionadas por las editoriales. Aún más significativo es que un 18 % reconoce no tomar ninguna medida para garantizar buenas prácticas en el uso de estas tecnologías.

Estas cifras ponen en evidencia una brecha clara entre el uso creciente de la IA y la debilidad de los marcos institucionales que deberían acompañarlo. La ausencia de estructuras sólidas de gobernanza, políticas claras o, en muchos casos, de una alfabetización básica genera no solo desigualdades en la adopción, sino también malentendidos profundos sobre sus alcances, riesgos y responsabilidades.

En este contexto, una de las conclusiones centrales del informe es la necesidad urgente de promover un uso verdaderamente responsable de estas herramientas, apoyado en mecanismos explícitos de transparencia y rendición de cuentas que permitan construir confianza y garantizar un uso efectivo y seguro.

Como subraya el propio documento, la alfabetización en inteligencia artificial no puede reducirse a la experimentación informal.

Alcanzar una auténtica educación en IA exige enseñanza estructurada y apoyo sostenido, precisamente porque sigue siendo una barrera real para muchos investigadores. Desde esta perspectiva, el informe interpela de manera directa a educadores, instituciones de investigación, editoriales, divulgadores, organismos financiadores, responsables de políticas públicas y desarrolladores de tecnología. A todos ellos se les atribuye un papel activo en la construcción de un enfoque que combine educación, transparencia y responsabilidad.

Así pues, el documento concluye presentando una guía para el uso responsable e innovador de la IA, actualmente en fase de participación comunitaria. No se trata de un conjunto cerrado de normas, sino de un marco vivo, pensado para ajustarse a prácticas concretas y necesidades diversas.

En ese marco se inscriben los seis pilares de gobernanza de IA propuestos por Frontiers:

  1. El primero es la transparencia y la responsabilidad: la obligación de revelar cuándo, dónde y cómo se utiliza la IA a lo largo de los flujos de trabajo, desde la evaluación inicial hasta la producción final.
  2. El segundo pilar es la alfabetización en IA y el desarrollo de capacidades en investigación. Aquí la apuesta no es una inversión abstracta, sino la consolidación de competencias académicas, desplazando el autoaprendizaje improvisado hacia programas formativos estructurados y certificables.
  3. El tercer pilar se centra en la ética y la integridad. Esto implica establecer estándares claros y públicos para el uso de IA tanto en la evaluación de la investigación como en la toma de decisiones editoriales.
  4. El cuarto pilar aborda la equidad y la gobernanza del acceso, incorporando criterios de justicia en todas las capas de la adopción de la IA.
  5. El quinto pilar enfatiza la participación de la comunidad académica. Involucrar a investigadores, editores e instituciones en la co-creación y revisión de las políticas de IA.
  6. Finalmente, el sexto pilar apunta al liderazgo y la incidencia en políticas públicas. Promover una gobernanza responsable de la IA en la investigación y la edición académica requiere utilizar evidencia proveniente de auditorías y evaluaciones de impacto para informar normas y estándares globales, compartiendo resultados de forma abierta para reforzar la confianza y la rendición de cuentas.

En conclusión, el informe pone en evidencia una brecha profunda en materia de formación y entrenamiento. La IA no es una herramienta aislada, sino un ecosistema complejo de modelos, plataformas, usos, políticas y decisiones humanas. Comprenderla exige algo más que familiaridad técnica: requiere criterios, tiempo y marcos de orientación claros.

En un contexto académico atravesado por la urgencia, la presión por publicar y la aceleración constante del trabajo intelectual, esa comprensión suele quedar relegada, dificultando una adopción verdaderamente crítica y responsable.


Este artículo ha sido publicado por Dialektika.