Generative Künstliche Intelligenz (KI) wie ChatGPT, Claude, LeChat oder DeepSeek wird immer häufiger genutzt, doch viele Anwender stehen den Ergebnissen kritisch gegenüber. Zwar geben drei von vier (75 Prozent) Nutzer an, mit den Ergebnissen zufrieden zu sein, jedoch überprüfen knapp vier von fünf (78 Prozent) die KI-Inhalte durch eigene Recherchen. Das geht aus einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1.001 Personen ab 16 Jahren hervor. Um sich abzusichern, fragen 44 Prozent der Nutzer die KI explizit nach Quellenangaben. Des Weiteren empfindet fast jeder Zweite (48 Prozent) die KI-Antworten als oberflächlich und 43 Prozent kritisieren mangelnde Konkretheit. Jeder dritte KI-Nutzer (31 Prozent) gibt an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern.
Die Qualität der KI-Ergebnisse hängt maßgeblich von den zugrundeliegenden Trainingsdaten ab, die lücken- oder fehlerhaft sein können. Die Datenbasis ist aber für die Nutzenden nur selten transparent. Darüber hinaus können algorithmische Verzerrungen oder gezielte Manipulationen durch politische oder wirtschaftliche Interessen bereits in der Entwicklung die Ergebnisse beeinflussen. KI-Systeme wie ChatGPT stehen auch in der Kritik, weil sie immer wieder erfundene („halluzinierte“) Informationen ausgeben oder sogar Quellen erfinden, anstatt Nichtwissen einzugestehen. Anstatt Lücken oder mögliche Fehler kenntlich zu machen „dichtet“ die KI zunächst überzeugend klingende Antworten hinzu. Mittlerweise bieten viele KI-Anbieter verbesserte „Deep Research“-Funktionen, die detailliertere Analyseaufgaben mitsamt Internetrecherchen ermöglichen.
Weitere Information: