Gemini überall: Google krempelt mit AI seine Geld-, pardon, Suchmaschine um
Search, Workspace, Android, Chrome, YouTube und Play Store: Das große Stichwort bei der großen Google-Konferenz I/O, die heute Abend in Kalifornien startete, lautet Gemini. Genau, der große ChatGPT-Konkurrent von Google, ist mittlerweile in allen Google-Produkten mit mehr als zwei Milliarden Usern integriert – und die Integration soll weiter voranschreiten.
„Google befindet sich voll und ganz in der Gemini-Ära“, so Google-CEO Sundar Pichai vor dem aus der ganzen Welt kommenden Publikum (zehntausende verfolgen den Livestream). Erst vor einem Jahr hätte man auf der letzten Konferenz Gemini erstmals vorgestellt, und heute würden bereits 1,5 Millionen Developers auf der ganzen Welt mit Gemini via API arbeiten, und das AI-Modell würde immer weiter in die zentralen Google-Produkte vordringen.
AI-Übersichten statt blaue Links
Das betrifft natürlich auch die Suchmaschine und nicht bloß die Standalone-App des Chatbots. Mit der „Search Generative Experience“ (SGE) bringt Google immer mehr AI-Features in sein Kernprodukt und seine Geldmaschine und lässt alle, die von Google-Traffic abhängig sind, zittern. Denn wie berichtet beantwortet die Suchmaschine immer mehr Suchanfragen direkt mit einer Textantwort, als einfach die früher berühmten zehn blauen Links zu externen Quellen anzuzeigen.
Nun kündigt Pichai an, dass diese AI-Zusammenfassungen („AI Overviews“) diese Woche für alle User in den USA und später in andere Länder kommen werden. Diese sehen so aus: Es gibt eine ausführliche, AI-generierte Antwort zu einer Frage, und erst sehr weit unten kommen die Links (präsentiert in Widgets) zu den externen Seiten, aus denen die Infos zusammengefasst werden. Da Google das natürlich auch monetarisieren will, kommen anschließend gesponserte Links etwa zu Produkten in Online-Shops.
„Manchmal brauchen Sie eine schnelle Antwort, aber Sie haben keine Zeit, alle benötigten Informationen zusammenzutragen. Die Suche übernimmt die Arbeit für Sie mit den KI-Übersichten“, heißt es seitens Google. Das Feature, das für Test-User bereits Milliarden an Fragen beantwortet hat, sieht etwa so aus:
Betont wird aber auch stets, dass Links zu externen Seiten nicht komplett verschwinden sollen. „Mit den Planungsfunktionen direkt in der Suche können Sie sich bei der Erstellung von Plänen für alles Mögliche helfen lassen, angefangen bei Mahlzeiten und Urlauben. Suchen Sie z. B. nach „Erstellen Sie einen 3-Tage-Essensplan für eine Gruppe, der leicht zuzubereiten ist“, und Sie erhalten einen Ausgangspunkt mit einer breiten Palette von Rezepten aus dem Internet“, heißt es seitens Google.
Am Smartphone rückt Google Lens als AI-Suchfunktion weiter in den Mittelpunkt. Künftig soll man auch Videos hochladen können, um der Suchmaschine basierend darauf eine Frage stellen zu können. So soll man etwa einen defekten Plattenspieler filmen können, um Google eine Antwort darüber generieren zu lassen, wie man ihn wieder zum Laufen bringen kann. Zuerst werden englischsprachige User in den USA in den Genuss der neuen AI-Search-Funktionen kommen, heißt es.
Gemini 1.5 Pro wird weiter aufgebohrt
Um weiter Schritt mit konkurrierenden Anbietern von LLMs wie OpenAI, Anthropic und Mistral AI zu halten, motzt Google auch Gemini selbst auf. So bekommen alle User von Gemini Advanced (= kostenpflichtige Pro-Version des AI-Chatbots) die Möglichkeit, ein Kontextfenster von 1 Million Token zu nutzen – das erlaubt die Verarbeitung auch sehr großer Dokumente. Außerdem wird Gemini 1.5 Pro für Entwickler:innen auf ein Kontextfenster von 2 Millionen Token aufgeblasen -damit kann man laut Google etwa ein zweistündiges Video verarbeiten.
Weiters gibt es mit Gemini 1.5 Flash ein neues, schlankeres und effizienteres AI-Modell für kleinere Aufgaben (ebenfalls mit Kontextfenster vo bis zu 1 Mio. Token). Open Source darf auch nicht fehlen im neuen AI-Dickicht von Google. Die Gemma-Familie bekommt mit Gemma 27B sowie mit PaliGemma für Zeichensprache Gesellschaft. Weiters gibt es von der Google-Tochter Deepmind auch das neue Text-to-Video-Modell Veo und die dritte Ausgabe von Imagen, das Bilder auf Befehl generieren kann.
Wohin Google aber letztendlich hin will, zeigt man in einem Demo-Video für das „Project Astra“. Dabei geht es darum, dass AI-Assistenten in Echtzeit via Smartphone oder AR-Brille als Companions sehen können, was der Nutzer sieht, und daraus die Umwelt interpretieren können, um etwa Dinge zu finden, Rechnungen zu erledigen oder einfach ihren Senf zum Gesehenen zu geben. Dass in den Video auch eine smarte Brille gezeigt wird, lässt auch gleich wieer Spekulationen aufkommen, dass die vor Jahren eingestellte Google Glass ein zweites Leben bekommen könnte.
In dem Demo-Video sind eigentlich Dinge zu sehen, die OpenAI mit dem neuen AI-Modell GPT-4o bereits am Montag Abend in einer Live-Demo gezeigt hat. Google gibt nicht an, wann Astra-Assistenten verfügbar werden – da bleibt abzuwarten, wann sie wirklich Realität werden.