(Head of Marketing)
09.12.2025
Anna Milena von Gersdorff leitet als Online-Marketing Expertin den GWriters Blog sowie alle Veröffentlichungen, Änderungen und Sonderaktionen auf unserer Webseite. Darüber hinaus ist Sie für gesamte Öffentlichkeitsarbeit und die Kommunikation mit unseren Medienpartnern zuständig.
Künstliche Intelligenz begeistert viele Nutzer durch schnelle Antworten und scheinbar zuverlässige Informationen – doch genau hier liegt das Problem. Aktuelle Studien zeigen deutlich, dass KI-Tools wie ChatGPT, Copilot, Gemini oder Perplexity häufig mit KI-Fehlern, fehlerhaften Angaben oder falschen Schlussfolgerungen arbeiten und teilweise sogar Inhalte erfinden. Dieser Beitrag zeigt, wie KI-Fehler entstehen, welche typischen Risiken bestehen und wie Sie KI-Texte kritisch überprüfen, bevor Sie sich auf sie verlassen.
KI arbeitet statistisch und nicht logisch wie ein Mensch. Sie „errät“ Muster aus Trainingsdaten. Wenn Daten unvollständig sind oder die Frage unklar gestellt wird, kann die KI falsche oder erfundene Antworten erzeugen.
Indem man Antworten kritisch überprüft, Quellen anfordert, Fakten vergleicht und Aussagen der KI nicht ungeprüft übernimmt. Besonders bei medizinischen, rechtlichen und wissenschaftlichen Themen sollte man zusätzliche Fachquellen nutzen.
Ja, in kritischen Bereichen (Medizin, Recht, Forschung, Finanzen) können Fehler zu falschen Entscheidungen führen. Deshalb sollte KI nur als Unterstützung genutzt werden – nicht als alleinige Entscheidungsgrundlage.
Nein, eine fehlerfreie KI ist technisch nicht möglich. Aber man kann Fehler reduzieren, indem man bessere Trainingsdaten nutzt, Modelle regelmäßig aktualisiert oder zusätzliche Fachprüfung einführt.
Das Vertrauen in KIs ist vor allem in Deutschland stark ausgeprägt: Nur jeder vierte Nutzer im Land überprüft die Ergebnisse von Chatbots wie ChatGPT, Microsoft Copilot oder Google Gemini. Das besagt eine internationale Analyse der Prüfungs- und Beratungsgesellschaft EY zum Thema Künstliche Intelligenz (KI).
Dass die künstliche Intelligenz dieser Erwartungshaltung bei Weitem nicht gerecht wird, belegt wiederum eine (noch jüngere) Studie von der Europäischen Rundfunkunion (EBU). Hier wurden die Chatbots von vier Unternehmen bzw. Entwicklern (ChatGPT, Copilot, Gemini, Perplexity) auf ihre Fähigkeit getestet, Nachrichteninhalte zu interpretieren und wiederzugeben. Das Ergebnis ist alarmierend: 45 Prozent der Antworten waren fehlerhaft, unabhängig von Sprache, Region oder Plattform.
Will man der Ursache der teils immensen Fehlerquoten auf den Grund gehen, lohnt sich ein kurzer Blick auf die Funktionsweise von Sprachmodellen. Eine KI selbst besitzt kein echtes Verständnis oder Denkvermögen wie Menschen…vielmehr berechnet ein Chatbot Wahrscheinlichkeiten und prüft, welches Wort am ehesten auf das nächste folgt bzw. welche Formulierungen plausibel erscheinen. Dieses Grundprinzip und die daraus resultierenden Entscheidungen der Chatbots führen beim Einsatz der Technologien zu mehreren Problemen:
Die KI „interessiert“ sich nicht für Wahrheiten. Sie entscheidet sich für den wahrscheinlichsten nächsten Satz und generiert so häufig Inhalte, die nur scheinbar überzeugend und sachlich wirken. Dabei werden gerne Fake facts aus dem Web übernommen.
Wenn Sie mit Ihrem Prompt zu wenig Hintergrundinformationen und Kontext liefern, wird die KI Lücken mit Annahmen ergänzen. Das erhöht die Fehlerquote deutlich.
KIs wie ChatGPT oder Gemini neigen zu Halluzinationen und erfinden Studien, Fakten oder Namen, weil sie gelernt haben, wie solche Informationen der Form nach konstruiert sind (und nicht, ob diese wahrheitsgetreu sind).
KIs können zwar Muster analysieren, aber keine Zusammenhänge erkennen. Deshalb werden letztere oft fehlinterpretiert bzw. Ursache und Wirkung verwechselt.
Hat man die „Denkweise“ Sprachmodellen bzw. Large Language Models (LLM) einmal verstanden, wird auch klar, warum einige KI-Content-Fehler besonders typisch sind:
Immer wieder liefern KIs Falschinformationen, darunter ungenaue Daten, erfundene Statistiken oder unzutreffende historische Angaben. Fehler dieser Art sind besonders heikel, da die generierten Antworten und Lösungen im ersten Moment gut klingen und oftmals nicht bemerkt werden.
Auch werden immer wieder Quellen aufgeführt, die zwar vertrauenswürdig wirken, jedoch gänzlich nicht existieren oder Fehler in den Details aufweisen. Dies trifft auch auf Literaturangaben und DOI-Nummern in wissenschaftlichen Texten zu.
Texte können auf den ersten Blick schlüssig erscheinen, aber bei genauerer Betrachtung inhaltliche Widersprüche aufweisen.
Auch bzw. gerade dann, wenn der KI nicht ausreichende Informationen zur Verfügung stehen, vermittelt sie Sicherheit (bei teilweise übersteigertem Selbstvertrauen). Sie suggeriert, die richtige Antwort parat zu haben, auch wenn ihr die Grundlage fehlt.
Darüber hinaus haben wir bereits thematisiert, welche Risiken und Herausforderungen speziell ChatGPT mit sich bringt.
Einen guten Einblick, in welchen Bereichen sich die künstliche Intelligenz besonders gerne „vertut“ und wie das im Einzelbeispiel aussehen kann, liefert die Studie „News Integrity in AI Assistants“, (EBU & BBC, 2025). Dabei wurden die kostenlosen Versionen von ChatGPT, Copilot, Gemini, Perplexity auf ihre Fähigkeit hin getestet, Fragen zu beantworten, die die Nachrichten betreffen. Insgesamt wurden 2709 Antworten in 14 Sprachen aus 18 verschiedenen Ländern berücksichtigt.
Veraltete bzw. Falschinformationen: So behauptete ChatGPT im Mai 2025 (und somit nach dessen Tod), Papst Franziskus so der amtierende Papst.
Falsche oder fabrizierte Zitate: Auch hier zeigte sich ChatGPT unpräzise und gab an, der ehemalige kanadische Premierminister Justin Trudeau hätte Trumps Handelskrieg als „stupid trade war“ bezeichnet. Tatsächlich war seine Aussage: „It’s a very stupid thing to do“.
Vermischung von Meinung und Fakt: Oftmals werden persönliche Ansichten als Fakten dargestellt. Microsoft Copilot stellt z. B. eine vom EU-Politiker Alexandr Vondra geäußerte Meinung zu den Vorteilen einer Nato-Mitgliedschaft als Fakt heraus (“Membership in the alliance provides the best security guarantees in modern history and is considered an effective defense against external threats.”)
Fehlender Kontext: Wenn Ereignisketten sehr schnelllebig oder komplex sind, tun sich die KIs schwer, Fakten und Meinungen klar zu unterscheiden und Behauptungen korrekt zuzuordnen. So wiesen die Ergebnisse z. B. bei Themen wie Myanmar, der Bombardierung von Yemen oder chinesischen Exporten qualitative Mängel auf.
Übersteigerte Selbstsicherheit: Die Tatsache, dass die NASA-Astronauten Butch Wilmore und Suni Williams mehrere Monate im Weltraum feststeckten, bezeichnete der Chatbot Gemini als Missverständnis. Man habe diese Information möglicherweise aus einem Science-Fiction-Film.
Eine gute Nachricht gibt es bei all den Defiziten von ChatGPT, Copilot, Gemini und Perplexity jedoch: Im Vergleich zu 2024 sank der Anteil der signifikanten Fehler von 51 Prozent auf 37 Prozent.
Wie deutlich wurde, ist jede KI nach wie vor fehleranfällig und braucht eine kritische Prüfung durch das menschliche Auge und den Verstand einer realen Person. Nur so gehen Sie sicher, dass Ihre Inhalte, ob schriftlich oder visuell, vollständig und fachlich korrekt bleiben. Und nicht nur das: Haben Sie Ihre Hausarbeit z. B. mit einem Chatbot wie ChatGPT geschrieben, tragen Sie im Zweifel die Beweislast. In diesem Fall müssen Sie gegenüber Ihrer Universität offenlegen, wie der Text entstanden ist und Ihre Arbeitsweise nachvollziehbar begründen.
Nutzen Sie folglich Tools wie ChatGPT oder Gemini gezielt als Ideen- und Strukturwerkzeug und kombinieren Sie diese mit Ihrem eigenen Fachwissen, Ihren Entscheidungen und Ihrer Recherche, um die Fakten abzusichern. An dieser Stelle helfen Ihnen auch unsere akademischen Autoren, um ChatGPT Texte menschlicher zu machen, auf die Richtigkeit zu überprüfen und alles auf ein wissenschaftliches Niveau zu bringen.
ChatGPT vom Unternehmen OpenAI ist bei den Nutzern nach wie vor das beliebteste KI-Tool. Deshalb stellt sich die Frage, warum es trotz aller Fortschritte der letzten Jahre weiterhin ziemlich fehleranfällig ist. Die wichtigsten Gründe hierfür sind:
ChatGPT stützt sich auf große Datensätze aus dem Internet. Dementsprechend werden viele Antworten auf der Basis von Trainingsdaten wie falschen Fakten oder veralteten Informationen generiert.
Die Sprachmodelle der KI „denken“ nicht wie es Menschen tun…vielmehr erkennen die Systeme statistische Muster und Wahrscheinlichkeiten. So zieht ChatGPT teilweise falsche Schlüsse, besonders, wenn es um Themen geht, bei denen es nur wenige oder lückenhafte Informationen gibt.
Auch wenn ChatGPT sich einer Sache nicht sicher ist, wird eine Antwort generiert. Und das – wie zuvor beschrieben – in vielen Fällen mit übersteigertem „Selbstbewusstsein“. Durch die derzeit angewandten Trainings- und Bewertungsverfahren werden Halluzinationen weiter begünstigt.
Auch, wenn korrekte Daten vorliegen, kann das Modell bisher keine komplexen logische und abstrakten Schlussfolgerungen leisten, wie es Menschen können. Vor allem in der Mathematik und Programmierung sowie bei tiefergehenden Argumentationen ist ChatGPT fehleranfällig.
Inwieweit der Einsatz von ChatGPT beim akademischen Schreiben Sinn macht bzw. wo die Grenze der künstlichen Intelligenz liegt, haben wir in unserem Beitrag Genialer Alleskönner für akademisches Schreiben... oder? erörtert. Eine wichtige Rolle im wissenschaftlichen Kontext spielt auch die Verwendung der richtigen ChatGPT Prompts.
Typische Beispiele für ChatGPT-Fehler sind dementsprechend:
Inkorrekte oder veraltete Fakten
Halluzinationen bei Quellenangaben, Zitaten oder Studien
Mangelhafte Logik und falsche Berechnungen
Widersprüche der KI innerhalb einer Antwort
Halluzinierte Inhalte wie fiktive Namen, Ereignisse oder Einzelheiten
Auch wer KIs beim Erstellen von visuellem Content nutzt, wird feststellen, dass es immer wieder zu Problemen kommt. Visuelle KI-Modelle arbeiten fundamental anders als Sprachmodelle. Hier werden Pixelmuster interpretiert, was – ähnlich wie bei Sprachmodellen – oft zu Konflikten zwischen Realität und dem Output führt:
Probleme bei der Anatomie: KI-Modelle erkennen Muster, aber z. B. keine Knochenstrukturen. Deshalb sieht man auf den Bildern häufig Fehler wie verdrehte Handgelenke oder sechs Finger an einer Hand.
Perspektivische Fehler: Muss die KI komplexe Raumsituationen darstellen, entstehen schnell unnatürliche Bildkompositionen mit perspektivischen Fehlern.
Defizite bei Schriften: In vielen Fällen verwechseln die Systeme Buchstabenformen, spiegeln sie oder setzen sie zu fantasievollen Wortfragmenten zusammen, die sprachlich nicht mehr funktionieren.
Stilbrüche: Bei der Mischung verschiedener Stile treten Artefakte und verzerrte Texturen auf.
Wenn bei Ihnen regelmäßig KI-Tools wie ChatGPT, Gemini oder Microsoft Copilot im Einsatz sind, sollten Sie folgende Tipps beachten, um bessere Ergebnisse zu erzielen:
Nutzen Sie präzise Prompts: Umso klarer Sie Ihre Frage formulieren, desto geringer ist die Fehlerquote bei den Entscheidungen der Chatbots.
Checken Sie die Fakten: Immer wenn die KI Zahlen, Namen oder Zitate liefert, sollten Sie diese überprüfen. Das gilt auch für allgemeine Tatsachenbeschreibungen.
Prüfen Sie die Quellen: Vertrauen Sie nie einer automatisch erzeugten Quelle. Öffnen Sie sie, lesen Sie sie und überprüfen Sie die Details.
Nutzen Sie KI als Ergänzung: Mithilfe von KI können Sie schnellere Ergebnisse erzielen…Sie selbst sorgen jedoch letztlich für die Qualität und einen verlässlichen Content.
Seien Sie wachsam bei KI-Bildern: Achten Sie bei der visuellen KI-Unterstützung auf Hände, Augen, Perspektiven und Objekte, die nicht ins Bild gehören.
Hausarbeit mit ChatGPT schreiben? Wir zeigen Ihnen die aktuellen Regeln deutscher Universitäten und wie Sie KI-Tools effektiv nutzen können.
Darf man eine Hausarbeit mit ChatGPT schreiben? Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (KI) stellt sich für viele Studierende die Frage, ob und in welchem Umfang sie eine Hausarbeit mit ChatGPT verfassen dürfen. Während einige Universitäten bereits klare Richtlinien zur Verwendung von KI definiert haben, fehlen an anderen Hochschulen noch konkrete Vorgaben. Dies führt zu Unsicherheiten...
Weiterlesen
DeepSeek oder ChatGPT? Wir vergleichen beide KI-Tools für Studierende: Textqualität, Quellenarbeit, Gliederung und Datenschutz im wissenschaftlichen Einsatz.
ChatGPT-Datenschutz sind für Sie bei Ihrer Bachelorarbeit ein zentraler Aspekt, wenn Sie im Studium KI-Tools wie ChatGPT im Rahmen der Erstellung oder auch der Überarbeitung Ihrer wissenschaftlichen Arbeit nutzen. Sie müssen sich der Risiken in Bezug auf Datenschutz und damit der Vertraulichkeit Ihrer Daten bewusst sein...
Weiterlesen
Durchgefallen wegen ChatGPT? So schützen Sie Ihre Bachelorarbeit vor KI-Fallen und vermeiden Plagiatsvorwürfe - Lassen Sie Ihre Arbeit von unseren Experten prüfen!
In der Bachelorarbeit durchgefallen wegen KI? Die Angst, wegen ChatGPT durchzufallen, ist real – aber vermeidbar. Ki-Tools revolutionieren derzeit die akademische Welt. Eine Umfrage des ICAI aus dem Jahr 2023 zeigte, dass bereits30 % der Studenten KI-Tools für Hausarbeiten oder Prüfungen genutzt zu haben...
WeiterlesenDer guten Ordnung halber weisen wir Sie darauf hin, dass jegliche von uns erstellten Ausarbeitungen auf der Annahme basieren, dass Sie eine Lösungsskizze für interne Zwecke wünschen. Die weitere Verwendung ist allenfalls zur eigenen gedanklichen Auseinandersetzung gedacht, nicht aber für die Übernahme als eigenes Werk.
©pitinan/123RF.COM
09.12.2025
Eine kurze Frage noch...
Haben Sie Interesse, über eine Kommentarsektion mit uns oder anderen Leserinnen und Lesern direkt an dieser Stelle zu kommunizieren?