September 19, 2024

Migrelo – Polacy w Niemczech

Finden Sie alle nationalen und internationalen Informationen zu Deutschland. Wählen Sie im City Stuff Magazin die Themen aus, über die Sie mehr erfahren möchten

Wie künstliche Intelligenz das wissenschaftliche Publizieren verändert

Wie künstliche Intelligenz das wissenschaftliche Publizieren verändert

Die Wissenschaftsforscherin Elizabeth Beck befürchtet, dass der Zustrom von KI-generierten Bildern und Texten in wissenschaftlichen Arbeiten das Vertrauen in die Wissenschaft untergraben wird.

Illustration einer Maus mit einem unglaublich großen Penis. Eine weitere Zeichnung zeigt menschliche Beine mit sehr vielen Knochen. Eine Einleitung, die mit „Klar, das ist eine mögliche Einleitung zu Ihrem Thema“ beginnt.

Dies sind einige der ungeheuerlichsten Beispiele für KI, die kürzlich Einzug in Fachzeitschriften gehalten haben und ein Licht auf die Welle von KI-generierten Texten und Bildern werfen, die die wissenschaftliche Verlagsbranche erfasst.

Mehrere Experten, die Probleme in Studien verfolgen, sagten gegenüber AFP, dass der Aufstieg der künstlichen Intelligenz die bestehenden Probleme in einem milliardenschweren Sektor verschärft habe.

Alle Experten betonten, dass KI-Software wie ChatGPT ein nützliches Werkzeug zum Verfassen oder Übersetzen von Forschungsarbeiten sein könnte – wenn sie sorgfältig geprüft und offengelegt wird.

Dies war jedoch bei mehreren aktuellen Fällen nicht der Fall, die irgendwie der Begutachtung durch Fachkollegen entgangen sind.

Anfang des Jahres wurde in den sozialen Medien ein anschaulich gezeichnetes KI-Bild einer Maus mit riesigen Genitalien weit verbreitet.

Die Studie wurde in einer riesigen Fachzeitschrift namens Frontiers veröffentlicht, die die Studie später zurückzog.

Eine weitere Studie wurde letzten Monat zurückgezogen, weil ein KI-Diagramm Beine mit mehrgelenkigen Knochen zeigte, die Händen ähneln.

Obwohl es sich bei diesen Beispielen um Bilder handelte, geht man davon aus, dass ChatGPT, ein im November 2022 gestarteter Chatbot, die Art und Weise, wie Forscher auf der ganzen Welt ihre Ergebnisse präsentieren, dramatisch verändert hat.

Eine von Elsevier im März veröffentlichte Studie ging wegen ihrer Einführung viral, bei der es sich eindeutig um eine ChatGPT-Eingabeaufforderung handelte, die lautete: „Klar, hier ist eine mögliche Einführung in Ihr Thema.“

Mehrere Experten sagten gegenüber AFP, dass solche peinlichen Beispiele selten seien und es wahrscheinlich nicht durch den Peer-Review-Prozess renommierterer Fachzeitschriften schaffen würden.

Kippen in Papierfabriken

Der Einsatz von KI ist nicht immer leicht zu erkennen. Ein Hinweis ist jedoch, dass ChatGPT dazu neigt, bestimmte Wörter zu bevorzugen.

Andrew Gray, Bibliothekar am University College London, durchforstete Millionen von Forschungsarbeiten nach übermäßigem Gebrauch von Wörtern wie „präzise“, „komplex“ oder „lobenswert“.

Es wurde ermittelt, dass im Jahr 2023 mindestens 60.000 Forschungsarbeiten den Einsatz von KI beinhalten werden, was mehr als einem Prozent der jährlichen Gesamtzahl entspricht.

„Im Jahr 2024 werden wir einen deutlichen Anstieg der Zahlen erleben“, sagte Gray gegenüber AFP.

Laut der in den USA ansässigen Gruppe Retraction Watch wurden im vergangenen Jahr mehr als 13.000 Papiere zurückgezogen, so viele wie noch nie in der Geschichte.

Ivan Oransky, Mitbegründer von Retraction Watch, sagte gegenüber AFP, dass künstliche Intelligenz es schlechten Akteuren im wissenschaftlichen Verlagswesen und in der akademischen Welt ermöglicht habe, „überschüssige“ Papiere zu produzieren.

Zu den schlechten Akteuren zählen sogenannte Papierfabriken.

Elisabeth Beck, eine niederländische Forscherin, die sich auf die Erkennung von Manipulationen an wissenschaftlichen Bildern spezialisiert hat, sagte, dass diese „Betrüger“ Urheberrechte an Forscher verkaufen und große Mengen an gestohlenen oder gefälschten Forschungsergebnissen von sehr schlechter Qualität veröffentlichen.

Es wird angenommen, dass zwei Prozent aller Studien von Papierfabriken veröffentlicht werden, aber die Quote steigt „dramatisch an“, da künstliche Intelligenz die Schleusen öffnet, sagte Beck gegenüber AFP.

Dieses Problem wurde deutlich, als der akademische Verlagsriese Wiley im Jahr 2021 den angeschlagenen Verlag Hindawi kaufte.

Seitdem hat das amerikanische Unternehmen mehr als 11.300 Artikel im Zusammenhang mit Sonderausgaben des Hindawi-Magazins zurückgezogen, sagte ein Wiley-Sprecher gegenüber AFP.

Wiley hat jetzt einen „Paper Mill Detection Service“ eingeführt, um KI-Missbrauch zu erkennen – der wiederum auf KI basiert.

„Teufelskreis“

Oransky betonte, dass das Problem nicht nur in den Papierfabriken liege, sondern in einer breiteren akademischen Kultur, die Forscher dazu dränge, „zu veröffentlichen oder unterzugehen“.

„Verleger haben durch die Entwicklung dieser Systeme, die ein hohes Volumen erfordern, Margen von 30 bis 40 Prozent und Gewinne in Milliardenhöhe erzielt“, sagte er.

Er sagte, die wachsende Nachfrage nach immer mehr Forschungsarbeiten übe Druck auf Akademiker aus, die durch ihre Produktion in eine Schublade gesteckt würden, was zu einem „Teufelskreis“ führe.

Viele Menschen haben sich an ChatGPT gewandt, um Zeit zu sparen, was nicht unbedingt eine schlechte Sache ist.

Da fast alle wissenschaftlichen Arbeiten auf Englisch veröffentlicht werden, könnten KI-gesteuerte Übersetzungstools für Forscher – darunter auch sie selbst – von unschätzbarem Wert sein, für die Englisch nicht ihre Muttersprache ist, sagte Beck.

Es gibt aber auch Bedenken, dass Fehler, Erfindungen und unbeabsichtigte Plagiate durch KI das Vertrauen der Gesellschaft in die Wissenschaft zunehmend untergraben könnten.

Letzte Woche kam ein weiteres Beispiel für KI-Missbrauch ans Licht, als ein Forscher etwas entdeckte, das offenbar eine umgeschriebene Version von ChatGPT für eine seiner eigenen Studien war, die in einer Fachzeitschrift veröffentlicht wurde.

Samuel Payne, Professor für Bioinformatik an der Brigham Young University in den USA, sagte gegenüber AFP, dass er im März gebeten worden sei, die Studie zu überprüfen.

Nachdem er erkannt hatte, dass es sich um ein „100-prozentiges Plagiat“ aus seiner eigenen Studie handelte – der Text jedoch offenbar von einem Programm für künstliche Intelligenz überarbeitet worden war –, lehnte er das Papier ab.

Payne sagte, er sei „schockiert“, als er herausfand, dass das gestohlene Werk einfach woanders veröffentlicht worden sei, in Wileys neuem Magazin namens Proteinanalyse.

Es wurde nicht rückgängig gemacht.

© 2024 Agence France-Presse

MartyriumEine Flut von „Müll“: Wie künstliche Intelligenz das wissenschaftliche Publizieren verändert (2024, 10. August) Abgerufen am 10. August 2024 von https://phys.org/news/2024-08-junk-ai-scientific-publishing.html

Dieses Dokument unterliegt dem Urheberrecht. Ungeachtet des fairen Umgangs zum Zweck des privaten Studiums oder der Forschung darf kein Teil davon ohne schriftliche Genehmigung reproduziert werden. Der Inhalt dient ausschließlich Informationszwecken.

Siehe auch  Der „AI Pin“ von Humane feierte sein Debüt auf dem Pariser Laufsteg