Telegram 上 78% 的科学出版商频道都是虚假的。

  • 十个使用科学出版商名称的 Telegram 频道中,近八个是欺诈性的。
  • 格拉纳达大学的这项研究分析了与 13 家主要国际出版商相关的 37 个频道。
  • ChatGPT 和 DeepSeek 被用于帮助检测虚假频道,尽管它们在验证真实频道方面存在局限性。
  • 研究人员呼吁加强对出版商的核实,并建立人工智能与人工审核相结合的混合监控系统。

Telegram 上虚假的科学出版商频道

Telegram 即时通讯平台已成为分享文章、书籍和科学新闻的主要平台之一,但同时也成为 [未指明的问题] 滋生的场所。 冒充顶级学术出版商西班牙的一项研究用非常明确的数字证实了许多人怀疑存在但几乎没有进行过严格量化的问题。

根据这项研究,由以下因素驱动: 格拉纳达大学 (UGR)大约十分之八的以国际知名科学出版商名义运营的Telegram频道并非官方频道。具体而言,已发现约有…… 这些发布商所关联的频道中,78%是虚假频道。在以打击科学虚假信息为特征的欧洲背景下,这一比例尤其令人担忧。

伪装成学术内容的骗局和可疑内容持续泛滥,而这项研究提供了一种可能的解释:Telegram 承载着…… 一个庞大且组织严密的渠道网络,伪装成科学出版商 散布未经授权的材料,提供所谓的出版服务,并利用知名机构的声誉牟利。西班牙作为欧洲科学生态系统的一部分,也未能幸免于这种现象的影响。

YouTube关闭了使用人工智能生成视频的频道
相关文章:
YouTube关闭了两个使用虚假AI生成预告片的主要频道

该研究的作者认为,Telegram上的这种环境并非个例,而是某种现象的征兆。 出版商自身缺乏官方认可和核实的存在这一漏洞使得恶意行为者能够占据该平台上科学交流的前沿,影响用户访问书籍和文章的数量。

科学出版商渠道欺诈地图

科学渠道欺诈行为研究

这项工作由……完成 计算人文与社会科学单元(U-CHASS) 来自格拉纳达大学的研究人员 维克多·埃雷罗·索拉纳和卡洛斯·卡斯特罗·卡斯特罗 他们着手分析那些自称与大型学术出版商有关联的 Telegram 频道生态系统,并衡量这种关联的真实程度。

为此,他们选择了 13家国际领先的科学出版社其中包括爱思唯尔、施普林格、威立-布莱克威尔、《自然》杂志和剑桥大学出版社等知名出版商。选择这些出版商时考虑了他们的因素。 SCImago门户网站的权重是评价全球科学产出最广泛使用的指标之一。

确定出版商名单后,研究人员在 Telegram 上找到了他们。 37 个可能与这些品牌相关的渠道无论是通过使用名称、标识,还是直接提及他们的藏品和出版物,都存在欺诈行为。此举的目的有两个:一方面,核实这些渠道是否与出版商存在官方关系;另一方面,识别那些最终被证实为欺诈行为的渠道的行为模式。

结果很明确。在分析的37个通道中,只有 其中八件被证实为真品,并与出版社直接相关。也就是说,只有 21,62% 的频道被证实是合法的,相比之下…… 78,38% 的虚假频道未经授权使用了这些机构的身份。实际上,用户寻找“官方”Telegram频道时,更有可能误入欺诈网站而不是找到真正的频道。

该研究已发表在学术期刊上。 “IDB:大学图书馆与信息科学教材”在2025年12月刊中,一篇题为“Telegram频道中的主要科学编辑:使用ChatGPT和DeepSeek检测虚假频道”的文章指出,除了数据之外,该研究还描述了…… 严重扭曲的生态系统 这会给科学界、读者和学生带来风险。

一项使用 ChatGPT 和 DeepSeek 的开创性研究

利用人工智能检测欺诈行为

这项工作最具创新性的方面之一是 基于人工智能的方法格拉纳达大学的研究人员率先使用了 语言模型(LLM),例如 ChatGPT 和 DeepSeek。 为了帮助确定所分析的频道是否为官方频道,将他们的分析能力与随后的人工审核相结合。

该研究设计结构如下: 多案例研究对于已识别的37个通道中的每一个, 标准化提示 该消息已同时发送给 ChatGPT 和 DeepSeek,从而激活了 网络搜索功能 这些模型的理念是,人工智能可以实时检查是否存在指向公司页面的链接、已验证的帐户以及其他真实性标志。

这些模特的任务是 评估每个频道为官方频道的概率根据内容与品牌编辑方针的一致性、与机构网站的可靠链接、正确的徽标和名称,或对可识别的编辑政策的引用等指标进行判断。

获得 ChatGPT 和 DeepSeek 排名后,UGR 团队开展了一项 独立人工验证这作为基准真值。换句话说,人工智能并非最终决策者:研究人员会将自己的搜索和核查结果与模型的响应进行比较,以确定每个频道是真实还是虚假。

这种方法使得证明LLMs可以成为可能 用于初步大规模筛选的实用工具这也证明了这一点 虚假人工智能预告片导致频道关闭尤其是在拥有成千上万个频道和海量信息的平台上,纯人工管理是十分困难的。然而,他也明确表示,截至目前, 它们无法完全取代专家判断。 在验证敏感账户(例如科学出版商的账户)时。

Telegram 上的虚假频道是如何运作的

对37个通道的详细分析使得能够重建出一个相当均匀的模式。 那些冒充科学出版商的人在 Telegram 上是如何运作的?最常见的做法是大规模分发 未经授权,以数字格式提供书籍、手册和文章。承诺提供免费访问或直接下载实际上受版权保护的作品。

除了这种未经授权的内容传播之外,许多欺诈渠道还提供 几乎没有可信度的编辑服务例如,在极短时间内于高影响力期刊上发表论文,或保证文章无需经过标准同行评审流程即可被接收。这类说法尤其危险,因为它可能涉及…… 新手研究人员、博士生和经验不足的专业人士 在学术出版界。

研究人员还发现了一种反复使用的现象: 极具宣传性的语言这些信息更像是咄咄逼人的营销活动,而非科学出版商通常冷静客观的沟通方式。折扣承诺、“特价优惠”和不切实际的优势比比皆是,这与学术界通常的沟通方式截然不同,令人感到突兀。

在某些情况下,虚假频道会使用 出版商标志、合集名称或短链接 这给人一种合法性的假象。乍一看,对于不熟悉这些机构内部运作的用户来说,这种呈现方式可能令人信服,尤其当该频道将新闻、公告和文件与真实材料和来源可疑的内容混杂在一起时。

所有这些框架都产生了该研究所描述的…… Telegram内部扭曲的生态系统非官方渠道的数量远远超过与发行商真正关联的账号数量。实际上,这意味着 对学术诚信和知识产权构成严重风险这在西班牙和整个欧洲都是一个问题,因为它助长了盗版作品和误导性信息的传播,从而影响了作者、机构和读者。

人工智能有哪些优点和缺点?

关于模型的性能,研究表明两者 ChatGPT 和 DeepSeek 在检测明显虚假的频道方面表现出很高的有效性。当冒充行为明显时——完全没有官方链接、做出不切实际的承诺、公开盗版内容——两个系统往往会在诊断上达成一致,并将这些频道归类为非法频道。

然而,研究也揭示了 这些模型在确认真实渠道的真实性方面存在结构性局限性最棘手的案例是那些渠道看似与出版商有关,但却缺乏……的情况。 强验证信号例如 Telegram 上的蓝色勾号或指向易于验证的机构页面的清晰链接。

这些模型的表现并不完全相同。根据这项研究, DeepSeek 更注重内容的上下文连贯性。换句话说,就是考察出版物的类型、信息的语气以及渠道结构是否符合一家成熟科学出版商的预期。这种方法侧重于该渠道的日常沟通方式。

就其本身而言, ChatGPT优先考虑对机构隶属关系进行正式验证。在实践中,这意味着要更加重视该渠道在企业网站上的存在、是否存在经过验证的提及,或者它与其他知名账号的关联。如果这些要素不明确,该模型就会对真实性表现出更大的谨慎或怀疑。

该研究得出结论,这些互补的方法对……很有价值 在信息饱和的环境中执行初始过滤但强调的是, 对于未经专门训练的用户而言,人工智能作为自主检测器的可靠性仍然有限。作者建议将这些模型作为混合系统的一部分使用,其中自动化分析提供支持,但最终确认取决于具有科学文档和编辑经验的专业人员。

信息来源的偏见和英语内容的霸权

除了衡量欺诈行为外,调查还重点审查了以下方面: ChatGPT 和 DeepSeek 在提供答案时会参考哪些信息来源?其中最引人注目的发现之一是……的普遍存在。 西方参照物与其他地理区域即使对于可能被认为与亚洲资源更接近的 DeepSeek 来说也是如此。

这种不平衡反映了 英语内容在网络上的霸权尤其是在处理科学和学术信息时。由于这些模型主要使用以该语言编写的数据进行训练,因此它们在搜索和推理过程中往往会重现这种分布,从而产生…… 结构性偏倚 当他们需要评估来自其他语言环境的资料时。

在实践中,这种偏见会使情况变得复杂。 对与非西方出版商相关的渠道进行评估它们的网站、验证系统或沟通方式可能与盎格鲁-撒克逊世界的主流模式不太一致。因此,一些合法渠道可能比西方渠道更容易受到质疑或怀疑。

论文作者认为,在考虑这一因素时应该将其纳入考量。 设计基于人工智能的全球监测工具在欧洲,这种情况尤为突出,因为那里汇聚了背景迥异的科研机构。如果不加以纠正,就有可能加剧出版商因其所属国家或语言而导致的知名度和认可度方面的不平等。

作为未来的研究方向,该研究提出: 使用更平衡、更多样化的语料库训练模型同时,还需要调整评估标准,以更好地反映国际学术体系的多样性。否则,旨在打击虚假信息的技术最终可能会无意中复制排斥模式。

学术诚信面临高风险环境

综合以上所有因素,研究人员将与科学出版商相关的 Telegram 频道集合描述为: 对学术诚信和知识产权构成高风险的环境与数量稀少的真假频道相比,数量庞大的虚假频道使得普通用户很难一眼分辨哪些信息来源是可靠的。

在已识别的风险中,以下几项尤为突出: 科学材料的无序传播这不仅侵犯了版权,还可能助长旧版本、不完整版本或篡改版本的文章和书籍的传播。这种不受监管的传播方式会影响欧洲学生、教师和研究人员查阅和引用科学文献的方式。

另一个相关的危险是…… 欺诈性出版服务这些做法会削弱人们对学术出版体系的信任。那些落入这些陷阱的人可能会为根本不存在的流程买单,他们的研究成果可能会被贴上不道德行为的标签,或者损害他们的职业声誉——这在科研生涯的初期尤为重要。

这项研究表明了一种真正的 制度悖论虽然 Telegram 代表了一种在严谨的科学传播方面具有巨大潜力的工具,但 许多出版商对平台的直接参与程度有限 这就留下了一个漏洞,不法分子可以轻易利用这个漏洞。由于缺乏明确可辨的官方渠道,用户最终只能求助于其他替代方案,而这些方案在很多情况下并非表面看起来那样。

在欧洲背景下,反对派的斗争 虚假信息和科学骗局 虽然这已成为政治和监管方面的优先事项,但Telegram上描述的情况带来了额外的挑战。频道创建和复制的便捷性意味着问题可能迅速蔓延,迫使机构、图书馆和监管机构制定新的监测和应对策略。

迈向混合监控系统和新的研究方向

鉴于这种情况,格拉纳达大学的研究人员倡导发展…… 混合检测和监测系统 它将人工智能的功能与专家人工审核相结合。其理念是利用…… 语言模型分析规模 跟踪大量渠道和消息,但将最终决定权留给专家团队。

在这个方案中,人工智能将扮演以下角色: 初始映射工具这包括识别新的可疑渠道、反复出现的欺诈模式,或盗用知名出版商名称和标识的账户网络。之后,文献工作者、图书馆员和出版商工作人员可以审查已识别的案例并采取行动,例如向平台举报、警告用户或加强自身的官方形象。

该研究还指出了以下可能性: 将这种方法推广到其他虚假信息领域 这些问题在Telegram上十分普遍,例如科学虚假新闻的传播、健康阴谋论的散布以及被操纵的政治内容。许多欧洲机构都希望拥有主动工具,以便在虚假信息传播开来之前就发现并阻止它们,因此这种方法与这些机构的优先事项不谋而合。

将先进的文本和语境分析功能逐步整合到语言模型中,为以下方面打开了大门: 主动监控系统 能够对新出现的虚假信息网络发出预警。这些预警信息对出版商、大学和公共机构等致力于保护科学传播、维护公众获取信息质量标准的机构来说非常有用。

与此同时,作者强调了以下方面的必要性: 科学出版商自身也应该加强其在 Telegram 上的认证影响力。 以及其他类似平台。明确标识官方渠道、制定透明的沟通政策并保持信息传递的一致性,将有助于用户更轻松地识别合法来源,并减少冒充者的活动空间。

格拉纳达大学开展的研究工作清楚地表明, Telegram 上超过 78% 的科学出版商频道都是虚假的。 这并非边缘问题,而是一个影响学术信息在线传播的结构性问题。要解决这个问题,需要结合技术、专家判断和更深入的机构参与,才能在这个目前被欺诈者轻易利用的传播渠道中重新夺回控制权。


电报锁
您可能会感兴趣:
关于Telegram中的所有块
在 Google 新闻上关注我们