Clickbait-Überschriften bringen KI durcheinander

KI kann Fehler machen, bitte überprüfen Sie bei wichtigen Informationen den Wahrheitsgehalt.

So ähnlich steht es unter jedem Chatbot eines Large Language Modells. Das Blöde daran ist nur, wenn mir KI nicht mal richtige Antworten gibt, dann kann ich eigentlich auch selbst alles mühselig zusammensuchen, da ich ja ohnehin alles doppelt und dreifach nachprüfen muss, oder?

Jein, es ist ein kleiner Spagat und Drahtseilakt. Claude.ai ist sehr gut darin, meine Kapitel zusammenzufassen. Schön strukturiert und alles, was darin passiert, spiegelt auch das tatsächlich Geschriebene wider.

Ich erinnere ich mich noch an meinen Blogartikel, dass die dümmste KI der Welt in Mountain View wohnt, aber Google hat hier inzwischen stark nachgebessert und Gemini ist deutlich performanter geworden.

Aber es gibt Momente, in denen ich einfach doof aus der Wäsche gucke, wenn KIs wieder halluzinieren, was das Zeug hält.

Ich war zu faul mir einen Artikel von Pocket-Lint zu einem ersten Hands-on des neuen Kindle Scribe Colorsoft durchzulesen und haute den Link direkt in Perplexity.ai rein und bat um eine Zusammenfassung. Getriggert hatte mich die Clickbait-Überschrift „I was shocked by one thing“.

Nun muss man wissen, dass LLMs Webseiten nicht so lesen, wie wir Menschen das können. Es wird nicht live gelesen, sondern ein Status abgerufen, und viele Webseiten untersagen das Crawlen der Inhalte, sodass die KI-Suchmaschinen blockiert werden. Da aber Chatbots darauf programmiert sind immer zu helfen, versuchen sie das zu umgehen.

Statt den Artikel zu lesen, zieht Perplexity auch Infos von anderen Webseiten hinzu und hat sage und schreibe 20 Webseiten mit Artikeln zum Kindle Scribe Colorsoft abgegrast, obwohl ich nur eine Zusammenfassung des Pocket-Lint-Artikels haben wollte.

Der faktische Inhalt war korrekt, aber mich triggerte ja die Clickbait-Überschrift, also fasste ich nach und stellte die Frage, was der Autor mit dem „shocked by one thing meinte“.

Perplexity griff darauf nicht die Information des Artikels auf, sondern bemühte seine anderen Quellen und fantasierte sich dabei etwas zusammen: Angeblich würde das Dateisystem des Kindles kritisiert (das unverändert so auf jedem Kindle-Gerät zu finden ist) und die Tatsache, dass farbige PDFs in Schwarzweiß-Dokumente umgewandelt werden würden.

Das wird allerdings mit keiner Silbe im Pocket-lint-Artikel erwähnt. Kurz zur Entwarnung: Den Farbverlust erfahren PDFs bei dem Import über USB, nicht über die gängigen Wege wie „Send to Kindle“.

Frustriert schicke ich den Link mit dem Artikel auch an Google Gemini und bat um eine Zusammenfassung. Ich fragte aber auch gleich nach dem Shocking-Moment, der im Titel angedeutet wird.

Auch hier war das Ergebnis ernüchternd. Die Fakten wurden eindeutig richtig zusammengefasst. Der Schockmoment des Autors würde sich aber auf den extrem starken Magneten am Gerät beziehen, der den Stift so festhält, dass man in fast nicht mehr lösen könnte.

Daraufhin habe ich den kompletten Artikel selbst gelesen. Mit keiner Silbe wird der Stift und die Magnetfähigkeit erwähnt. Ich fand dann selbst heraus, dass der Clickbait-Schock aus dem Titel im Text selbst als „verblüffender Moment“ bezeichnet wurde, da sich sowohl Haptik als auch Akustik beim Wechsel zwischen „Stiftspitze“ und „Pinselspitze“ nicht nur deutlich beim Aufdrücken auf das Display voneinander unterscheiden, sondern hier auch vom Kratzgefühl her komplett anders (und natürlich) klingen, als hätten die Amazin-Ingenieure hier einen Weg gefunden, auch die Geräusche zu tunen.

Perplexity ist schlecht zur Rede zu stellen und antwortet meist sachlich. Gemini hat sich reumütig entschuldigt und eine Erklärung bereit gestellt, dass es nicht nur die zur Verfügung gestellte Quelle gelesen, sondern auch andere Quellen im Netz bemüht hat, um meine Frage zu beantworten.

Bei einem anderen Problem konnte mir Perplexity heute auch nicht weiterhelfen. Das hat die Google-Suche dann getan (ohne KI-Modus). Hier ging es um ein Problem, dass meine Vimeo-Videos plötzlich Nutzern nicht angezeigt werden konnten, es sei denn sie registrierten sich sich Vimeo und loggten sich ein.

Im ersten Anlauf hat Perplexity meine Frage falsch interpretiert und so getan, als müsse ich mich anmelden und benötige einen Plus- oder Pro Account. Nach Richtigstellung kamen dann zahlreiche Tipps, die ich natürlich alle schon richtig eingestellt hatte.

Des Rätsels Lösung lag aber in einer EU-Richtlinie, die besagt, dass Content für eine Altersgruppe bewertet werden muss. Ohne diese Bewertung zu jedem Video lässt sich ein Videolink nicht anzeigen, es sei denn, der Nutzer ist auf der Plattform eingeloggt.

Von daher: Halluzinieren verfolgt uns auch Ende 2025 noch immer. Wir wissen, dass die KIs kein Wissen haben, sondern auf Basis ihrer Trainingsdaten wahrscheinlich Antworten ermitteln. Und selbst bei der Websuche können sie nicht auf dynamische Webseiten zugreifen und diese so lesen wie ein Mensch, sondern lesen nur den statischen Code dahinter. Liveticker sind damit auch ein Ausschlusskriterium und auch frische News immer mit Vorsicht zu genießen.

Wer schnell und zuverlässige Informationen benötigt, nutzt entweder weiterhin eine Websuche, das Nachrichtenportal seiner Wahl oder ist peinlich darauf bedacht, von KI generierte Informationen (g e n e r i e r t e, es liegt bereits im Wort!) nachzuprüfen.

Hinterlasse einen Kommentar