
La plataforma de mensajería Telegram se ha convertido en uno de los grandes escaparates para compartir artículos, libros y noticias científicas, pero también en un espacio donde proliferan las suplantaciones de editoriales académicas de primer nivel. Un trabajo desarrollado desde España ha puesto números muy claros a un problema que muchos sospechaban, pero que apenas se había cuantificado con rigor.
Según esta investigación, impulsada por la Universidad de Granada (UGR), casi ocho de cada diez canales de Telegram que operan bajo el nombre de grandes editoriales científicas internacionales no son oficiales. En concreto, se ha detectado que alrededor del 78% de los canales atribuidos a estas editoriales son falsos, un porcentaje que resulta especialmente preocupante en un contexto europeo marcado por la lucha contra la desinformación científica.
La proliferación de bulos y contenidos dudosos con apariencia académica no deja de crecer, y este trabajo aporta una posible explicación: Telegram alberga una red amplia y organizada de canales que se hacen pasar por editoriales científicas para distribuir material sin autorización, ofrecer supuestos servicios editoriales y aprovechar la reputación de instituciones de prestigio. España, como parte del ecosistema científico europeo, no es ajena a los efectos de este fenómeno.
Los autores del estudio sostienen que este entorno en Telegram no es un caso aislado, sino el síntoma de una falta de presencia oficial y verificada por parte de las propias editoriales. Ese vacío permite que actores malintencionados se coloquen en primera línea de la comunicación científica en la plataforma, condicionando la forma en que muchos usuarios acceden a libros y artículos.
Un mapa del fraude en los canales de editoriales científicas

El trabajo ha sido llevado a cabo por la Unidad de Humanidades y Ciencias Sociales Computacionales (U-CHASS) de la Universidad de Granada. Los investigadores Víctor Herrero Solana y Carlos Castro Castro se propusieron radiografiar el ecosistema de canales de Telegram que se presentan como vinculados a grandes editoriales académicas y medir hasta qué punto esa vinculación es real.
Para ello, seleccionaron 13 editoriales científicas líderes a escala internacional, entre las que se encuentran sellos tan conocidos como Elsevier, Springer, Wiley-Blackwell, Nature o Cambridge University Press. La selección se realizó tomando como referencia su peso en el portal SCImago, uno de los índices más utilizados para evaluar la producción científica mundial.
Una vez fijado el listado de editoriales, los investigadores localizaron en Telegram 37 canales que podían asociarse a estas marcas, ya fuera por el uso del nombre, del logotipo o de referencias directas a sus colecciones y publicaciones. El objetivo era doble: por un lado, comprobar si esos canales tenían relación oficial con las editoriales; por otro, identificar patrones de actuación entre los que resultaran ser fraudulentos.
Los resultados fueron claros. De los 37 canales analizados, solo 8 pudieron confirmarse como auténticos y directamente vinculados a las editoriales. Es decir, apenas un 21,62% de los canales resultó ser legítimo, frente a un 78,38% de canales falsos que usaban la identidad de estas instituciones sin autorización. En la práctica, el usuario que busca un canal “oficial” en Telegram tiene muchas más probabilidades de acabar en un espacio fraudulento que en uno real.
El estudio se ha publicado en la revista académica «BID: Textos Universitarios de Biblioteconomía y Documentación», en su número de diciembre de 2025, bajo el título «Principales editores científicos en los canales de Telegram: una aproximación a la detección de fake channels con ChatGPT y DeepSeek». Más allá de los números, la investigación describe un ecosistema profundamente distorsionado que genera riesgos tanto para la comunidad científica como para lectores y estudiantes.
Un estudio pionero con ChatGPT y DeepSeek

Uno de los aspectos más novedosos del trabajo es la metodología basada en inteligencia artificial. Los investigadores de la UGR han empleado de forma pionera modelos de lenguaje (LLM) como ChatGPT y DeepSeek para ayudar a determinar si los canales analizados eran oficiales o no, combinando su capacidad de análisis con una revisión humana posterior.
El diseño de la investigación se articuló como un estudio de caso múltiple. Para cada uno de los 37 canales identificados, se elaboró un prompt estandarizado que se envió tanto a ChatGPT como a DeepSeek, activando la función de búsqueda web de estos modelos. La idea era que la IA pudiera comprobar, en tiempo real, la existencia de vínculos con páginas corporativas, cuentas verificadas y otras señales de autenticidad.
La misión de los modelos consistía en evaluar la probabilidad de que cada canal fuese oficial, basándose en indicadores como la coherencia entre el contenido y la línea editorial de la marca, la presencia de enlaces fiables a sitios web institucionales, la existencia de logos y denominaciones correctas o la referencia a políticas editoriales reconocibles.
Una vez obtenidas las clasificaciones de ChatGPT y DeepSeek, el equipo de la UGR realizó una verificación manual independiente, que sirvió como verdad de referencia (ground truth). Es decir, la última palabra no la tenía la IA: los investigadores contrastaban sus propias búsquedas y comprobaciones con las respuestas de los modelos para determinar si cada canal era auténtico o falso.
Este enfoque permitió demostrar que los LLM pueden ser herramientas útiles para un primer cribado a gran escala, como lo demuestra también el cierre de canales por trailers falsos con IA, especialmente en plataformas con miles de canales y un volumen de información difícil de manejar de forma puramente manual. Sin embargo, también dejó claro que, a día de hoy, no pueden sustituir por completo al juicio experto cuando se trata de validar cuentas sensibles como las de editoriales científicas.
Cómo operan los canales falsos en Telegram
El análisis detallado de los 37 canales permitió reconstruir un patrón bastante homogéneo sobre cómo actúan quienes suplantan a las editoriales científicas en Telegram. La práctica más común es la distribución masiva de libros, manuales y artículos en formato digital sin autorización, bajo la promesa de acceso gratuito o descargas directas a títulos que, en realidad, están protegidos por derechos de autor.
Junto a esta circulación no autorizada de contenidos, muchos de los canales fraudulentos ofrecen servicios editoriales difícilmente creíbles, como publicar trabajos en revistas de alto impacto en tiempos muy reducidos o garantizar la aceptación de artículos sin un proceso de revisión por pares estándar. Este tipo de reclamos resulta especialmente peligroso para investigadores noveles, doctorandos y profesionales con poca experiencia en el circuito editorial académico.
Los investigadores detectaron también un uso recurrente de lenguaje extremadamente promocional, con mensajes que recuerdan más a campañas de marketing agresivo que a las comunicaciones sobrias habituales en las editoriales científicas. Abundan las promesas de descuentos, “ofertas especiales” y ventajas poco realistas, algo que chirría si se compara con cómo se expresa normalmente el sector académico.
En algunos casos, los canales falsos emplean logotipos de las editoriales, nombres de colecciones o enlaces acortados que dan una apariencia de legitimidad. A primera vista, para un usuario que no conozca bien el funcionamiento interno de estas instituciones, la presentación puede resultar convincente, sobre todo si el canal recopila noticias, convocatorias y documentos que mezclan material real con contenidos de origen dudoso.
Todo este entramado genera lo que el estudio describe como un ecosistema distorsionado dentro de Telegram, donde la presencia de canales no oficiales supera con creces a la de cuentas verdaderamente vinculadas a las editoriales. En la práctica, esto se traduce en riesgos serios para la integridad académica y la propiedad intelectual, tanto en España como en el conjunto de Europa, ya que facilita la circulación de obras pirateadas y ofertas engañosas que afectan a autores, instituciones y lectores.
Qué acierta y en qué falla la inteligencia artificial
En cuanto al rendimiento de los modelos, el trabajo señala que tanto ChatGPT como DeepSeek muestran una alta eficacia a la hora de detectar canales claramente falsos. Cuando la suplantación es evidente —ausencia total de enlaces oficiales, promesas inverosímiles, contenidos abiertamente pirateados—, ambos sistemas tienden a coincidir en su diagnóstico y clasifican los canales como no legítimos.
Sin embargo, la investigación también pone de manifiesto las limitaciones estructurales de estos modelos para confirmar la autenticidad de los canales reales. Los casos que generaron más dificultades fueron aquellos en los que el canal parecía estar relacionado con una editorial, pero carecía de señales fuertes de verificación, como el check azul de Telegram o vínculos claros a páginas institucionales fácilmente comprobables.
El comportamiento de los modelos no fue idéntico. Según el estudio, DeepSeek tendió a valorar con más peso la coherencia contextual del contenido, es decir, si el tipo de publicaciones, el tono de los mensajes y la estructura del canal encajaban con lo esperable en una editorial científica consolidada. Esta aproximación se centraba en cómo se comunicaba el canal en su día a día.
Por su parte, ChatGPT priorizó la verificación formal de las afiliaciones institucionales. En la práctica, esto se tradujo en dar más importancia a la presencia del canal en webs corporativas, a la existencia de menciones verificadas o a su vinculación con otras cuentas reconocidas. Cuando esos elementos no estaban claros, el modelo mostraba mayor cautela o dudas respecto a la autenticidad.
El estudio concluye que estos enfoques complementarios son valiosos para realizar un filtrado inicial en entornos saturados de información, pero subraya que la fiabilidad de la IA como detector autónomo para usuarios sin formación específica es todavía limitada. Los autores recomiendan emplear estos modelos como parte de sistemas híbridos en los que el análisis automático sirva de apoyo, pero la confirmación final recaiga en profesionales con experiencia en documentación y edición científica.
Sesgos en las fuentes y hegemonía del contenido en inglés
Además de medir el fraude, la investigación se detuvo en examinar qué fuentes consultan ChatGPT y DeepSeek a la hora de fundamentar sus respuestas. Uno de los hallazgos más llamativos fue la presencia dominante de referencias occidentales frente a otras áreas geográficas, incluso en el caso de DeepSeek, que podría suponerse más próximo a fuentes asiáticas.
Este desequilibrio refleja la hegemonía del contenido en inglés en la web, sobre todo cuando se trata de información científica y académica. Al estar entrenados principalmente con datos mayoritarios en ese idioma, los modelos tienden a reproducir esa distribución en sus búsquedas y argumentos, lo que genera un sesgo estructural cuando deben evaluar fuentes procedentes de otros contextos lingüísticos.
En la práctica, este sesgo puede complicar la evaluación de canales vinculados a editoriales no occidentales, cuyos sitios web, sistemas de verificación o estilos comunicativos quizá no se ajusten bien a los patrones predominantes en el entorno anglosajón. El resultado es que algunos canales legítimos pueden quedar envueltos en mayor incertidumbre o sospecha que sus equivalentes occidentales.
Los autores del trabajo sostienen que este aspecto debe tenerse en cuenta al diseñar herramientas de monitorización global basadas en IA, especialmente en el espacio europeo, donde conviven instituciones científicas de muy distintas procedencias. Si no se corrigen estos sesgos, existe el riesgo de reforzar desigualdades en visibilidad y reconocimiento entre editoriales según su país o idioma de origen.
Como línea futura, el estudio propone entrenar modelos con corpus más equilibrados y diversos, así como ajustar los criterios de evaluación para adaptarlos mejor a la pluralidad del sistema académico internacional. De lo contrario, la propia tecnología pensada para combatir la desinformación podría terminar reproduciendo patrones de exclusión involuntarios.
Un entorno de alto riesgo para la integridad académica
Con todos estos elementos, los investigadores describen el universo de canales de Telegram relacionados con editoriales científicas como un entorno de alto riesgo para la integridad académica y la propiedad intelectual. La amplia mayoría de canales falsos, frente al pequeño número de cuentas verídicas, dificulta que el usuario medio sea capaz de distinguir de un vistazo qué fuentes son fiables.
Entre los riesgos señalados destaca la difusión de material científico sin control, lo que no solo vulnera derechos de autor, sino que también puede propiciar la circulación de versiones antiguas, incompletas o modificadas de artículos y libros. Este tipo de circulación desordenada puede tener impacto en la forma en que estudiantes, docentes e investigadores en Europa consultan y citan la literatura científica.
Otro peligro relevante es el de los servicios editoriales fraudulentos, que erosionan la confianza en el sistema de publicación académica. Aquellos que caen en manos de estos canales pueden pagar por procesos inexistentes, ver sus trabajos asociados a prácticas poco éticas o comprometer su reputación profesional, algo especialmente delicado al inicio de la carrera investigadora.
El estudio habla de una auténtica paradoja institucional: mientras Telegram representa una herramienta con gran potencial para la difusión científica rigurosa, la escasa implicación directa de muchas editoriales en la plataforma deja un hueco que los suplantadores aprovechan sin demasiada resistencia. En ausencia de canales oficiales claramente identificables, los usuarios acaban recurriendo a alternativas que, en muchos casos, no son lo que parecen.
En el contexto europeo, donde la lucha contra la desinformación y los bulos científicos se ha convertido en una prioridad política y regulatoria, la situación descrita en Telegram constituye un reto adicional. La facilidad para crear y multiplicar canales hace que el problema pueda extenderse rápidamente, obligando a instituciones, bibliotecas y organismos reguladores a plantear nuevas estrategias de vigilancia y respuesta.
Hacia sistemas híbridos de vigilancia y nuevas líneas de investigación
Ante este panorama, los investigadores de la Universidad de Granada abogan por el desarrollo de sistemas híbridos de detección y monitorización que combinen las capacidades de la inteligencia artificial con la revisión humana especializada. La idea es aprovechar la escala de análisis de los modelos de lenguaje para rastrear grandes volúmenes de canales y mensajes, pero dejando la decisión final en manos de equipos expertos.
En este esquema, la IA actuaría como herramienta de mapeo inicial, identificando nuevos canales sospechosos, patrones repetidos de fraude o redes de cuentas que reutilizan nombres y logotipos de editoriales de prestigio. A partir de ahí, documentalistas, bibliotecarios y personal de las propias editoriales podrían revisar los casos señalados y tomar medidas, ya sea informando a la plataforma, advirtiendo a los usuarios o reforzando su propia presencia oficial.
El estudio también apunta a la posibilidad de ampliar esta metodología a otros ámbitos de la desinformación presentes en Telegram, como la circulación de fake news científicas, narrativas conspirativas sobre salud o contenidos políticos manipulados. Este tipo de líneas encajaría con las prioridades de muchas instituciones europeas, interesadas en contar con herramientas proactivas para detectar y frenar campañas de desinformación antes de que se vuelvan virales.
La progresiva integración de funciones avanzadas de análisis textual y contextual en los modelos de lenguaje abre la puerta a sistemas de monitorización proactiva capaces de emitir alertas tempranas sobre la aparición de nuevas redes de canales falsos. Estas alertas podrían resultar útiles para editoriales, universidades y organismos públicos que busquen proteger la comunicación científica y mantener estándares de calidad en la información que llega a la ciudadanía.
Al mismo tiempo, los autores subrayan la necesidad de que las propias editoriales científicas refuercen su presencia verificada en Telegram y en otras plataformas similares. Contar con canales oficiales claramente identificados, políticas de comunicación transparentes y mensajes consistentes ayudaría a los usuarios a distinguir con mayor facilidad las fuentes legítimas y reduciría el margen de maniobra de los suplantadores.
El trabajo desarrollado en la Universidad de Granada deja claro que el hecho de que más del 78% de los canales de editoriales científicas en Telegram sean falsos no es un problema marginal, sino un fenómeno estructural que afecta a la forma en que circula la información académica en la red. Afrontarlo exige combinar tecnología, criterio experto y mayor implicación institucional para recuperar terreno en un canal de comunicación donde, de momento, los actores fraudulentos se mueven con demasiada comodidad.