Attitudes and Perceptions Toward the Use of Artificial Intelligence Chatbots for Peer Review in Medical Journals: A Large-Scale, International Cross-Sectional Survey

Eine große internationale Umfrage unter medizinischen Peer-Reviewern zeigt, dass trotz hoher Bekanntheit von KI-Chatbots deren Einsatz im Begutachtungsprozess noch begrenzt ist und vor einer breiteren Implementierung ethische Bedenken sowie der Mangel an Schulungen adressiert werden müssen.

Ng, J. Y., Bhavsar, D., Dhanvanthry, N., Bouter, L., Chan, T., Cramer, H., Flanagin, A., Iorio, A., Lokker, C., Maisonneuve, H., Marusic, A., Moher, D.

Veröffentlicht 2026-04-07
📖 3 Min. Lesezeit☕ Kaffeepausen-Lektüre
⚕️

Dies ist eine KI-generierte Erklärung eines Preprints, das nicht peer-reviewed wurde. Dies ist kein medizinischer Rat. Treffen Sie keine Gesundheitsentscheidungen auf Grundlage dieses Inhalts. Vollständigen Haftungsausschluss lesen

Each language version is independently generated for its own context, not a direct translation.

Titel: Wenn Roboter das Korrekturlesen übernehmen: Was Ärzte und Forscher dazu denken

Stell dir vor, du hast einen riesigen Stapel mit wissenschaftlichen Artikeln vor dir, die wie komplexe Bauanleitungen für neue Medikamente oder Heilmethoden sind. Bevor diese Anleitungen veröffentlicht werden können, müssen erfahrene Experten sie genau durchlesen und prüfen, ob alles stimmt. Das nennt man „Peer Review" (das ist wie ein Qualitäts-Check von Kollegen).

Heutzutage gibt es neue digitale Helfer: Künstliche Intelligenz (KI) und Chatbots. Diese sind wie super-schnelle, aber manchmal etwas verwirrte Praktikanten, die dir beim Lesen helfen können. Sie können Grammatikfehler finden, prüfen, ob die Zitate stimmen, oder sogar auf methodische Schwachstellen hinweisen.

Aber die Frage ist: Trauen sich die Experten, diesen digitalen Praktikanten auch wirklich zu vertrauen?

Was haben die Forscher untersucht?

Ein großes Team hat eine Umfrage unter fast 1.300 medizinischen Experten gemacht. Sie haben sich vorgestellt, wie ein großer Festsaal voller Wissenschaftler ist, und jeden gefragt: „Kennt ihr diese KI-Helfer? Nutzt ihr sie schon? Und würdet ihr ihnen vertrauen, wenn es um eure wichtigste Arbeit geht?"

Die wichtigsten Entdeckungen (in einfachen Worten):

  1. Die Bekanntheit ist riesig, die Nutzung aber klein:
    Fast alle Befragten (über 86 %) kennen diese KI-Tools und haben sie schon mal benutzt, um E-Mails zu schreiben oder Rezepte zu suchen. Aber wenn es darum geht, einen wissenschaftlichen Artikel zu prüfen? Da halten die meisten die Hände vor die Augen. Etwa 70 % haben die KI noch nie für die eigentliche Qualitätskontrolle eingesetzt. Es ist, als würde jeder einen Rasenmäher besitzen, aber niemand traut sich, damit den Rasen zu mähen, aus Angst, er könnte das Haus anfahren.

  2. Niemand hat eine Anleitung:
    Die meisten Experten (fast 70 %) sagen: „Niemand hat uns beigebracht, wie man diese KI im Job richtig benutzt." Es ist wie ein neues Auto ohne Fahrlehrer. Man sitzt am Steuer, aber man weiß nicht genau, welche Knöpfe man drücken darf und welche nicht. Trotzdem wollen viele (über 60 %) gerne lernen, wie es geht.

  3. Die Angst vor dem „Blindekuh-Spiel":
    Die größte Sorge ist die Fairness. Die Experten haben Angst, dass die KI Vorurteile hat (wie ein Richter, der nur bestimmte Leute mag). Fast 80 % befürchten, dass die KI Dinge falsch bewertet, weil sie auf verzerrten Daten trainiert wurde.
    Außerdem gibt es das Problem des Vertrauens: Wenn die KI einen Fehler findet, wie können wir sicher sein, dass sie nicht gerade halluziniert und etwas erfunden hat? Es ist wie bei einem Koch, der behauptet, er habe ein neues Rezept erfunden, aber niemand weiß, ob er wirklich gekocht hat oder nur die Zutatenliste vorgelesen hat.

  4. Datenschutz und Geheimhaltung:
    Viele haben Angst, dass sie ihre geheimen Forschungsdaten in die KI hineinstellen und diese Daten dann woanders landen könnten. Das wäre, als würde man sein Tagebuch in eine öffentliche Bibliothek legen, nur um eine Frage zu beantworten.

Das Fazit

Die Botschaft der Studie ist klar: Die Technologie ist da, und die Leute kennen sie. Aber sie sind noch nicht bereit, sie als vollwertigen Partner an der Seite zu haben.

Die Experten sagen im Grunde: „Wir sind offen für die Hilfe, aber bitte erst mal:

  1. Gebt uns eine gute Schulung (Fahrstunden!).
  2. Stellt sicher, dass die KI fair und ehrlich ist (kein Betrug!).
  3. Schützt unsere Daten (kein Einbruch in unser Tagebuch!).

Solange diese Fragen nicht geklärt sind, werden die KI-Chatbots eher wie ein nützliches Werkzeug im Werkzeugkasten bleiben, aber nicht als der Chef, der entscheidet, ob ein Artikel veröffentlicht wird oder nicht."

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →