KI-Texte: Spätestens seit der Veröffentlichung von ChatGPT ist das Interesse an der Künstlichen Intelligenz groß. Nicht nur der bekannteste Chatbot schafft es, verblüffend gute Texte zu erstellen, was dazu führt, dass diese Texte in immer mehr Bereichen zu finden sind. Doch wie erkennt man solche, von einer Künstlichen Intelligenz verfassten Texte?
Lassen sich KI-Texte erkennen?
Mittlerweile gibt es einige Tools auf dem Markt welche versprechen, zuverlässig KI-Texte von denen eines Menschen zu unterscheiden. Leider können die meisten ihr Versprechen nicht halten. Doch es gibt noch andere Möglichkeiten die Texte einer Künstlichen Intelligenz zu erkennen.
Verwendung von Metriken
Eine Möglichkeit, KI-Texte als solche zu entlarven, ist die Verwendungen von Metriken wie der Perplexität. Diese misst die Überraschung eines Modells bei der Vorhersage des nächsten Wortes.
Das Modell kann den Text gut generieren, wenn der Wert niedrig ist.
Turing Text
Eine der wohl komplizierten und länger dauernden Verfahren um einen KI-Text zu erkennen ist der sogenannte Turing Test. Hier prüft ein menschlicher Prüfer anhand eines Gesprächs (mit der vermeintlichen KI) herauszufinden, ob der Befragte ein Mensch oder eine Künstliche Intelligenz ist.
Machine-Learning-Modellen
Hierbei handelt es sich um Algorithmen, welche bestimmte Arten von Mustern erkennen können. Doch dabei ist fraglich, wie genau diese arbeiten. Google-Algorithmen etwa sind wohl nicht in der Lage, KI-Texte als solche zu erkennen.
So hat Beispielsweise das Online-Magazin CNET einen Finanzartikel von einer KI schreiben. Dieser Text erzielte gute Google-Ergebnisse, trotz Versprechen des US-Konzerns, KI-Content in seiner Suche zu bestrafen.
Etwas vielversprechender sieht es beim Model „Giant Language Model Test Room“, kurz GLTR aus. Dieses wurde von Forschern der Universität Harvard sowie des Technologie-Konzerns IBM entwickelt. Basierend auf ChatGPT-Trainingsdaten soll sie die Wahrscheinlichkeit ermitteln, ob Texte von dieser KI geschrieben wurde.
GPTZero soll ebenfalls in der Lage sein, die Texte einer KI von denen eines Menschen zu unterscheiden. Anfang 2023 wurde diese App vom Princteon-Studenten Edward Tian als Reaktion auf ChatGPT veröffentlicht.
Woran liegen die Gefahren der Künstlichen Intelligenz?
Neben einigen Positiven Aspekten, birgt die Verwendung von KI auch einige negative Aspekte. Und dies nicht nur bei der Erstellung von KI-Texten. Einige davon sind:
- Diskriminierung: Künstliche Intelligenz kann aufgrund von unvollständigen oder ungenauen Daten diskriminierend sein. Dies kann zu ungerechten Entscheidungen führen, wie vergangene Tests bewiesen haben.
- Fehlerhafte Entscheidungen: Durch Fehlerhafte Algorithmen und Daten können von einer KI gefällte Entscheidungen ungenau oder sogar falsch sein.
- Kriegsführung & Angriffe: Kriegsführung kann von KI-Systemen verändert werden, indem diese in Waffensystemen eingesetzt werden. Dies erleichtert den Einsatz von Waffengewalt.
- Verlust von Arbeitsplätzen: Durch die mittels KI beschleunigten Automatisierungsprozesse kann der Verlust von Arbeitsplätzen drohen.
- Ethische & moralische Fragen: In Bezug auf die Verantwortung für Entscheidungen & Handlungen der KI-Systeme können ethische und moralische Fragen aufkommen.
- Datenschutz & Datensicherheit: Künstliche Intelligenzen machen es erforderlich, eine große Menge an Daten zu speichern, welche möglicherweise persönlich & sensibel sind und somit zu Datenschutzproblemen führen.