Un estudio de la Universidad de Granada detecta, gracias a la IA, que el 78% de los canales de editoriales científicas en Telegram son falsos

La investigación constata un ecosistema digital distorsionado por la suplantación y señala el potencial de los modelos de lenguaje ChatGPT y DeepSeek como herramientas de monitorización, aunque con limitaciones

Los investigadores de la UGR que han sacado a la luz la existencia de editoriales 'depredadoras'

Carlos Castro y Víctor Herrera. / R. G.

La plataforma de mensajería Telegram se ha consolidado como un espacio de difusión masiva donde conviven muchas fuentes legítimas, pero también una proliferación de canales falsos que suplantan la identidad de instituciones académicas y científicas. Los investigadores de la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la Universidad de Granada, Víctor Herrero Solana y Carlos Castro Castro, han realizado un estudio que ha analizado este fenómeno centrándose en las principales editoriales científicas internacionales, con un resultado alarmante: el 78,38% de los canales que utilizan sus nombres son fraudulentos.

Este estudio ha sido publicado por la revista BID: Textos Universitarios de Biblioteconomía y Documentación, en su número de diciembre de 2025, con el título Principales editores científicos en los canales de Telegram: una aproximación a la detección de fake channels con ChatGPT y DeepSeek.

La investigación, que ha empleado de forma pionera los modelos de lenguaje ChatGPT y DeepSeek como herramientas de análisis, examinó 37 canales asociables a trece editoriales líderes como Elsevier, Springer, Wiley-Blackwell, Nature y Cambridge University Press, seleccionadas por su volumen de títulos en el portal SCImago.

El estudio se basó en un diseño de caso múltiple, aplicando un prompt estandarizado a ambos modelos de lenguaje (LLM) para que evaluaran la autenticidad de cada canal, con la función de búsqueda web activada. Posteriormente, las clasificaciones generadas por la IA fueron contrastadas con una verificación manual realizada por los investigadores, estableciendo una verdad de referencia (ground truth).

"Extensa red" de canales no oficiales

Los datos confirmaron la existencia de una red extensa y organizada de canales no oficiales. De los 37 canales analizados, solo 8 (21,62%) eran reales, legítimamente afiliados a las editoriales. Los canales fraudulentos mostraron tácticas recurrentes, como la distribución no autorizada de libros, ofertas de servicios editoriales con plazos de publicación anómalamente rápidos y el uso de lenguaje promocional inconsistente con lo usual en el mundo de la edición científica, indica la UGR en un comunicado.

El análisis evidenció que ambos modelos de IA demostraron una alta efectividad para identificar canales claramente falsos, coincidiendo en la detección de patrones de suplantación. No obstante, el estudio también reveló limitaciones estructurales importantes: los modelos mostraron significativas dificultades para validar canales reales, especialmente aquellos que carecían de señales de verificación fuerte como el check azul de Telegram o enlaces web corporativos explícitos.

Los modelos mostraron enfoques distintos: DeepSeek evaluó la coherencia contextual del contenido, mientras que ChatGPT priorizó la verificación formal de afiliaciones institucionales. Al analizar las fuentes consultadas por ambos, se detectó un claro predominio de referencias occidentales y una mínima presencia de fuentes chinas, incluso en DeepSeek, lo que refleja la hegemonía del contenido en inglés en la web y en los datos de entrenamiento de estos sistemas.

Falta de verificación

El trabajo concluye que el ecosistema de Telegram referente a las editoriales científicas está estructuralmente distorsionado, lo que configura un entorno de alto riesgo para la integridad académica y la propiedad intelectual. Se subraya la paradoja de la desatención institucional: pese al potencial de Telegram como canal de divulgación robusta, la falta de verificación y presencia activa de las editoriales cede el espacio a actores fraudulentos.

La investigación demuestra que los LLMs son herramientas viables para el mapeo y la caracterización inicial a gran escala de este tipo de desinformación, aunque su fiabilidad como detectores autónomos al servicio de usuarios no experto es limitada. Los resultados refuerzan la necesidad de plantear sistemas híbridos donde la escala computacional de la IA se combine con el criterio experto humano.

En el plano aplicado, el enfoque buscará ampliarse a otros tipos de desinformación científica y política en Telegram, incluyendo la detección de fake news y narrativas conspirativas. La progresiva integración de capacidades de análisis masivo en los LLMs ofrece una oportunidad para diseñar herramientas de monitorización proactiva que ayuden a instituciones y plataformas a proteger la integridad de la comunicación científica.

Esta investigación supone una llamada a la acción dirigida a las propias editoriales científicas, para que desarrollen una presencia verificada y activa en estas plataformas, aprovechando las capacidades de difusión que atesoran, y cerrando el vacío que actualmente explotan los actores malintencionados.

No hay comentarios

Ver los Comentarios

También te puede interesar

Lo último