Google bessert bei fehlerhaften AI-Antworten nach, gibt teilweise Usern die schuld
Klebstoff in die Pizza, Steine essen und so fort: Die so genannten „AI Overviews“, die Googles Suchmaschine seit kurzem in den USA ausspuckt, sind wie berichtet in die Kritik wegen falscher Informationen gekommen, die sie enthalten. Auch wenn in kritischen Postings auf Social Media viele „gefälschte Screenshots“ in Umlauf gebracht wurden, erkennt Liz Reid, Head of Google Search, an, dass es Verbesserungen braucht.
„KI-Übersichten halluzinieren im Allgemeinen nicht oder Dinge erfinden nicht, wie es bei anderen LLM-Produkten der Fall ist. Wenn KI-Übersichten falsch liegen, hat das in der Regel andere Gründe: Fehlinterpretation von Abfragen, Fehlinterpretation einer sprachlichen Nuance im Web oder mangelnde Verfügbarkeit einer Vielzahl von großartigen Informationen“, so Liz Reid. Nun habe man kurzfristig folgende Maßnahmen getroffen, um die AI-Antworten von Google zu verbessern:
- bessere Erkennungsmechanismen für unsinnige Anfragen, die keine KI-Übersicht anzeigen sollten
- Einschränkung von Satire und humoristischen Inhalten
- Begrenzung der Verwendung von nutzergenerierten Inhalten in Antworten, die irreführende Ratschläge geben könnten.
- Auslösebeschränkungen für Suchanfragen, bei denen sich die KI-Übersicht als nicht so hilfreich erwiesen hat
- KI-Übersichten für schwierige Nachrichtenthemen an, bei denen Aktualität und Faktizität wichtig sind
- Zusätzliche Auslöser bei Gesundheitsthemen haben, um die Qualität zu verbessern
Google AI Search: Neue KI-gestützte Suchmaschine wird zum Debakel
Nur Bruchteil aller Suchergebnisse betroffen
Zwar sei die Berichterstattung über die falschen AI-Antworten und die Social-Media-Diskussion sehr flächendeckend gewesen, jedenfalls hätten aber nur eine von 7 Millionen Abfragen (0,0000143 Prozent; das sind 143 pro Milliarde) gegen die hauseigenen Regeln für Inhalte verstoßen. Währenddessen würde Google täglich Milliarden von Suchanfragen pro Tag beantworten – somit würde nur ein ganz kleiner Bruchteil der User mit den falschen AI-Antworten überhaupt direkt konfrontiert werden.
Auch von ChatGPT und Co, die ebenfalls des öfteren unwahre Dinge von sich geben oder etwas dazu dichten, versucht sich Google zu distanzieren – und beruft sich auf das Zusammenspiel seiner eigenen AI-Modelle mit den Daten aus der Web-Suche.
„KI-Übersichten funktionieren ganz anders als Chatbots und andere LLM-Produkte, die man vielleicht schon ausprobiert hat. Sie generieren nicht einfach eine Ausgabe auf der Grundlage von Trainingsdaten. KI-Übersichten werden zwar von einem angepassten Sprachmodell angetrieben, aber das Modell ist in unsere zentralen Web-Ranking-Systeme integriert und so konzipiert, dass es herkömmliche „Such“-Aufgaben ausführt, wie die Identifizierung relevanter, hochwertiger Ergebnisse aus unserem Index. Aus diesem Grund liefern die KI-Übersichten nicht nur eine Textausgabe, sondern enthalten auch relevante Links, damit die Nutzer weiter suchen können. Da die Genauigkeit bei der Suche von größter Bedeutung ist, werden in den KI-Übersichten nur Informationen angezeigt, die durch Top-Web-Ergebnisse gestützt werden“, so Reid.
„Unsinnige Suchanfragen“ sollen auf Fehler abgezielt haben
Nun bleibt abzuwarten, ob sich die Aufregung um die AI-Antworten bald legt, oder ob neue Fehler auftauchen. Da es sich um Googles Kerngeschäft handelt, darf man davon ausgehen, dass das Unternehmen sicher alles Mögliche unternimmt, um die Fehler auszumerzen. Es hätte sich nämlich auch gezeigt, so Reid, dass die User mit den AI Overviews insgesamt zufriedener wären als mit den bisher bekennten, herkömmlichen Suchergebnissen.
Auch gibt sie die Schuld an den falschen Antworten teilweise auch den Usern selbst: „Wir haben auch unsinnige neue Suchanfragen gesehen, die anscheinend darauf abzielen, falsche Ergebnisse zu liefern“, so die Google-Managerin. So etwa sei auf die Suchanfrage „How many rocks should I eat?“ eine AI-Antwort geliefert worden, weil es in dem Fall satirische Inhalte zu dem Thema gegeben hätte, die „zufällig auch auf der Website eines geologischen Softwareanbieters wiederveröffentlicht wurden“ – das hätte dann dazu geführt, dass Google darauf eine unsinnige Antwort gegeben hätte.
Google bietet „Web“-Suche an, die Links statt AI-Antworten ausspuckt