Wer schon öfter mit Chatbots wie ChatGPT geplaudert hat, kennt das Phänomen: Kaum stellt man eine Frage, wird man mit Lob überschüttet. „Was für eine interessante Idee!“, „Das ist eine geniale Frage!“, „Sie haben ein beeindruckendes Verständnis für komplexe Zusammenhänge!“ – Hach, da kommt man sich doch gleich wie ein kleiner Einstein vor. Doch was zunächst wie ein freundlicher, motivierender Umgangston wirkt, birgt auf Dauer erhebliche Risiken. Willkommen in der Welt der „KI-Speichellecker“ – ein Begriff, der immer mehr Forscher und Ethiker beschäftigt.

Chatbots sind dauerhuldigende KI-Speichellecker. Dem User gefällts und man verdummt. Illustration: Sora AI
KI-Speichellecker: Die dunkle Seite der künstlichen Freundlichkeit
Im Wall Street Journal erschien ein aufschlussreicher Artikel zu diesem Thema, in dem die Assistenzprofessorin Malihe Alikhani am Northeastern University’s Khoury College of Computer Sciences zu Wort kommt. Alikhani erforscht, wie und warum Chatbots so programmiert werden, indem sie uns ständig Honig ums Maul schmieren. Ihr Fazit: Diese übertriebene Freundlichkeit ist kein Zufall, sondern eine bewusste Designentscheidung der Entwickler. Das Ziel? Die Hemmschwelle, mit Künstlicher Intelligenz zu interagieren, soll sinken. Wer sich wohlfühlt, fragt mehr – und produziert mehr Nutzerdaten.
Doch Alikhani und andere warnen: Diese so genannte „KI-Speichelleckerei“ (AI sycophancy) hat einen Preis. Denn je häufiger wir von Maschinen Bestätigung und Lob erhalten, desto mehr verlernen wir, unsere eigenen Aussagen kritisch zu hinterfragen. Unsere Selbstwahrnehmung wird verzerrt. Wir gewöhnen uns daran, dass alles, was wir sagen oder tun, als brillant und richtig gilt – unabhängig davon, ob es das tatsächlich ist.
Warum Dauerlob gefährlich ist
Kritisches Denken lebt vom Widerspruch, von der Herausforderung, der Konfrontation mit anderen Perspektiven. Wenn jedoch Chatbots uns nur noch bestätigen, droht eine gefährliche Einbahnstraße: Wir werden bequem, hinterfragen weniger, nehmen unsere eigenen Ideen als Maßstab für alles. Die Folge: Echtes Lernen, Weiterentwicklung und Innovation bleiben auf der Strecke.
Besonders problematisch wird das, wenn Chatbots in Bildung und Beruf eingesetzt werden. Denn hier ist konstruktives Feedback essenziell. Wer immer nur hört, wie großartig er oder sie ist, lernt nichts dazu. „In wissenschaftlicher Arbeit kann es eine Hypothese bestätigen, ohne sie kritisch zu überprüfen. Im Journalismus oder bei der Faktenprüfung könnte es eine selbstbewusst vorgetragene, aber falsche Behauptung unterstützen und so zur weiteren Verbreitung von Fehlinformationen beitragen. Und es ist schwer zu erkennen, weil es intelligent klingt“, so Alikhani im Gespräch mit dem Wall Street Journal.
Sollten Chatbots mit der Lobhudelei aufhören?
Statt uns mit Lob zu überschütten, könnten Chatbots uns öfter herausfordern: „Sind Sie sicher, dass diese Annahme stimmt?“ oder „Haben Sie auch an mögliche Gegenargumente gedacht?“ – Solche Rückfragen fördern kritisches Denken und regen zur Reflexion an. Natürlich müssen Chatbots dabei höflich bleiben, aber sie sollten uns nicht ständig in Lobeshymnen einlullen.
Bei der Beseitigung der Speichelleckerei geht es nicht nur um Genauigkeit, sondern darum, Systeme zu schaffen, die uns dazu herausfordern, klarer zu denken, verantwortungsvoller zu handeln und in der Wahrheit verwurzelt zu bleiben – selbst dann, wenn das unbequem ist. — Malihe Alikhani
Wollen wir digitale Assistenten, die uns wie ein devoter Butler jeden Wunsch von den Lippen ablesen und uns ständig bestätigen? Oder wünschen wir uns KI-Systeme, die uns auch mal widersprechen, uns fordern und so unser Denken schärfen? Die Antwort liegt auf der Hand – zumindest, wenn wir nicht Donald Trump heißen und lieber einer Blase aus Selbstbestätigung und Bequemlichkeit enden wollen.
Surftipp: Suckup software: How sycophancy threatens the future of AI
Wie erlebt ihr das Verhalten von Chatbots? Wünscht ihr euch mehr Widerspruch? Schreibt es in die Kommentare!