ArXiv vetará por un año a los investigadores que suban artículos con «slop» de IA

ArXiv, el servidor abierto de preprints, ha anunciado una nueva sanción para evitar la circulación de «AI slop» en artículos académicos. Los autores de artículos con contenido generado por IA que el autor no haya verificado de forma manifiesta no podrán subir trabajos a ArXiv durante un año. El mensaje principal de la política lo transmitió el presidente de la sección de informática, Thomas Dietterich, en una publicación en X.
El criterio central de la declaración de Dietterich es la «prueba incontestable» de que el autor no comprobó el resultado del LLM. Esa prueba incluye referencias alucinadas, citas que no corresponden a otros estudios y líneas de «metacomentario» dejadas por un modelo de IA sin la aprobación del autor. La presencia de un libro, artículo o nombre de autor ficticio en las citas puede ser un detonante directo de la sanción.
ArXiv ha publicado, desde 1991, alrededor de 2,3 millones de preprints en ciencias físicas, matemáticas, informática, biología cuantitativa y finanzas estadísticas. La plataforma se desarrolló como alternativa a los procesos de revisión previa a la publicación en el ámbito académico, pero en los últimos tres años la preocupación por la calidad del contenido ha crecido en paralelo a la difusión de las herramientas LLM. El equipo de moderación de ArXiv, operado desde la Universidad de Cornell, está compuesto por unos 200 voluntarios.
Dietterich indicó que el filtro posterior al envío había identificado, en las últimas semanas, artículos con «un marcador abierto de baja calidad». En su declaración del viernes señaló: «Incluso un error en las citas puede dañar directamente la investigación científica; la falta de verificación por el autor de las salidas de los LLM crea un riesgo sistémico.» Según la nueva regla, los envíos futuros deberán haber sido aceptados «en un lugar de revisión por pares reconocido».
El término «AI slop» se ha consolidado en el ecosistema web en los últimos dos años como un uso informal para describir contenido de baja calidad generado por IA y no revisado. En el ámbito académico el término ha adquirido una definición más estricta: un artículo cuya exactitud no se ha verificado porque contenido generado por un LLM ha entrado en el proceso de transferencia académica sin aprobación ni edición del autor.
La decisión ha suscitado reacciones variadas en el sector académico. El investigador de Hugging Face Yacine Jernite dijo en X: «Si ArXiv no hubiera dado este paso, todo el ciclo de revisión por pares habría quedado erosionado.» En contra, el investigador postdoctoral de la Universidad Carnegie Mellon Ryan Cotterell comentó: «Sigue existiendo un riesgo sustancial de falsos positivos al identificar escritura científica normal como portadora de una etiqueta de IA; la metodología de detección de ArXiv debería compartirse con el público.»
La metodología de detección de ArXiv no se ha detallado en las comunicaciones actuales. Dietterich señaló que el trabajo se basa en una revisión manual por parte del equipo de moderación y no en herramientas automatizadas de detección de IA. Los científicos han pedido reglas claras y un proceso de apelación transparente.
El debate estadounidense sobre la regulación de la IA también toca esta cuestión. Las National Academies of Sciences, Engineering, and Medicine (NASEM), en un informe publicado en enero de 2026, habían recomendado «adaptar el proceso de revisión por pares a la era de la IA de modo que se preserve la calidad de la transferencia académica». La decisión de ArXiv puede leerse como la primera respuesta significativa de la infraestructura académica tras el informe NASEM.
Los servidores alternativos de preprints no han indicado aún cómo reaccionarán a la política de exclusión de ArXiv. Al diferir las políticas de moderación entre SSRN (Social Sciences Research Network), BioRxiv y ChemRxiv, los autores vetados por ArXiv podrían acudir a otras plataformas. El Committee on Publication Ethics (COPE) anunció que prepararía este año un documento de política detallado sobre este asunto.
Dietterich indicó que la decisión se aplica a la sección de informática, pero que otras secciones de ArXiv podrían considerar la misma política. La sanción se anuncia como vigente desde el 1 de junio de 2026. La sección de informática de ArXiv publicó cerca de 95.000 preprints en 2025; el efecto de la nueva regla podrá medirse durante el próximo trimestre.