Zertifizierte CME-Fortbildung für Ärztinnen und Ärzte. CME-Punkte sammeln. Kostenfrei. service@arztcme.de

MedicalLearning – Blog zur Zukunft der medizinischen Information

KI-Screening entlarvt fragwürdige Open-Access-Journale

08. September 2025

Eine neue Studie hat 15.000 Open-Access-Journale mit KI gescreent und über 1.000 Titel als potenziell fragwürdig markiert. Was heißt das für Ärzte, die veröffentlichen wollen?

Eine in Science Advances vorgestellte Untersuchung hat ein frei verfügbares KI-Tool eingesetzt, um in großem Maßstab Anzeichen für fragwürdige Praktiken im Open-Access-Publizieren zu identifizieren. Grundlage waren bibliografische Daten (u. a. Microsoft Academic Graph, Unpaywall) sowie Merkmale der Zeitschriften wie Redaktion und Richtlinien. In der Auswertung von mehr als 15.000 Journalen wurden über 1.000 Titel als potenziell problematisch gekennzeichnet—nicht als endgültiges Urteil, sondern als Signal für vertiefte Prüfung. Die Autoren integrierten zudem Qualitätsstandards des Directory of Open Access Journals (DOAJ), das seit Jahren Mindestanforderungen an Transparenz, Peer Review und Governance definiert.

Für klinische Autoren ist die zentrale Botschaft pragmatisch: Das KI-Screening hilft, die Spreu vom Weizen zu trennen, ersetzt aber nicht die eigene Qualitätsprüfung. Wer ein Manuskript platzieren will, sollte vorab klären, ob das Zieljournal im DOAJ gelistet ist, klare Peer-Review-Prozesse nachweist, in gängigen Datenbanken indexiert wird (z. B. MEDLINE/Scopus/Web of Science) und Gebühren sowie Herausgeberschaft transparent macht. Verdächtig sind unrealistisch kurze Begutachtungszeiten, aggressive Einladungen und unklare Impressen. Das neue Tool kann hier eine erste Ampel setzen; die Entscheidung bleibt beim Autor.

Wichtig ist auch, die Grenzen des Ansatzes zu kennen: Die Studie beschreibt nennenswerte Fehlklassifikationen—sowohl falsch positive als auch falsch negative Befunde. Deshalb sollten Autoren die KI-Ergebnisse immer als „Vorscreening“ verstehen und mit einfachen Gegenchecks kombinieren: DOAJ-Eintrag und -Historie prüfen, Richtlinien zum Peer Review lesen, Testsuche nach bereits publizierten Artikeln und deren Zitierungen durchführen und bei Unsicherheiten Bibliothek oder Forschungsservice ansprechen. Für Institutionen und Editoren entstehen zudem neue Möglichkeiten: Eine kommerzielle Variante („Journal Monitor“) wird von ReviewerZero angekündigt, die Integritätsprüfungen bündelt und perspektivisch in Redaktionsabläufe integrierbar ist.

Quelle:
Meredith Wadman. AI tool labels more than 1,000 journals as questionable, possibly shady practices. Science, 26. August 2025. science.org

Weiterführende Links:
– Studie/Code: „Estimating the predictability of questionable open-access journals“ (GitHub-Repo mit Datensätzen und Notebooks). GitHub
– Directory of Open Access Journals (DOAJ): Qualitätskriterien und Journalsuche. DOAJ
– ReviewerZero (Ankündigung „Journal Monitor“ für Redaktionen). ReviewerZero AI

Text: Redaktion arztCME

Bild:  ChatGPT, OpenAI, für arztCME

Weitere Beiträge …