Zum Inhalt springen

Künstliche Intelligenz: Die Herausforderung, Maschinentext von Menschentext zu unterscheiden

c9797f4072e94104ad6192e5af649ecc Künstliche Intelligenz: Die Herausforderung, Maschinentext von Menschentext zu unterscheiden

Vor einem Jahr hat ChatGPT und damit ein sogenanntes großes Sprachmodell, auch bekannt als „Large Language Models“ (LLMs) eine Welle der Begeisterung ausgelöst. Diese Modelle können beeindruckend menschenähnlichen Text generieren, was sowohl spannende Möglichkeiten als auch Bedenken hinsichtlich ihrer möglichen Fehlanwendung mit sich bringt. Ein aktuelles Thema in diesem Bereich ist die Entwicklung von Detektoren, die automatisch generierte Texte von solchen unterscheiden können, die von Menschen verfasst wurden. Aber wie zuverlässig sind diese Detektoren?

Eine der zentralen Erkenntnisse aus aktuellen Studien ist die Anfälligkeit dieser Detektoren für Paraphrasierung. Vereinfacht ausgedrückt bedeutet das: Wenn ein von einer KI generierter Text geringfügig umgeschrieben oder paraphrasiert wird, können viele Detektoren diesen nicht mehr als maschinell erstellt erkennen. Paper wie Sadasivan et al. haben gezeigt, dass selbst einfache Neuschreibwerkzeuge, sogenannte „neurale Paraphraser“, die typischen Merkmale eines KI-generierten Textes so verändern können, dass dieser von Detektoren nicht mehr erkannt wird.

Ein wichtiger Punkt bei der Bewertung dieser Detektoren ist die sogenannte „AUROC“ (Area Under the Receiver Operating Characteristic Curve). Dieser Fachbegriff beschreibt eine Methode, um die Leistungsfähigkeit von Detektoren zu messen. Vereinfacht gesagt gibt die AUROC an, wie gut ein Detektor echte von falschen Ergebnissen unterscheiden kann. Ein perfekter Detektor hätte einen AUROC-Wert von 1, während ein zufällig agierender Detektor einen Wert von 0,5 hätte. Studien haben gezeigt, dass die Leistungsfähigkeit dieser Detektoren abnimmt, je ähnlicher der Text von Menschen und Maschinen wird und sie dadurch nicht besser als ein zufällig entscheidender Algorithmus sind.

Ein weiteres Problem ist die sogenannte „Wasserzeichenmethode“ zur Texterkennung. Forscher haben herausgefunden, dass es möglich ist, diese Wasserzeichen zu lernen und zu manipulieren, sodass menschlicher Text fälschlicherweise als maschinell generiert eingestuft wird.

Was bedeutet das alles für uns?

Während in der Forschung eifrig an verbesserten Detektoren gearbeitet wird, gibt es immer noch erhebliche Herausforderungen, um Methoden zu entwickeln, die wirklich zuverlässig sind. Es ist wichtig, dass wir uns bewusst sind, dass die Technologie, obwohl beeindruckend, immer noch ihre Grenzen hat. Bevor solche Detektoren weit verbreitet eingesetzt werden, müssen sie rigorosen Tests unterzogen werden.

Zusammenfassend lässt sich sagen: Wir stehen erst am Anfang eines spannenden Weges in der Welt der Künstlichen Intelligenz. Es ist wichtig, sowohl die beeindruckenden Möglichkeiten als auch die bestehenden Herausforderungen zu erkennen und dabei stets verantwortungsbewusst und ethisch zu handeln.

Eine aktuelle Analyse hierzu habe ich in meinem Blog bei SEARCH ONE veröffentlicht.

Kai Spriestersbach