OpenAI hat Training von GPT-5 begonnen
Was plant OpenAI als Nachfolger für das erfolgreiche GPT-4-Modell? Laut einem Blogbeitrag vom Dienstag hat das Unternehmen mit der Entwicklung eines neuen Flaggschiff-KI-Modells begonnen, das die Fähigkeiten von GPT-4, der Technologie hinter dem populären Chatbot ChatGPT, auf ein neues Level heben soll. OpenAI strebt damit den nächsten Schritt in Richtung künstlicher allgemeiner Intelligenz (AGI) an, einer Maschine, die alles kann, was das menschliche Gehirn leisten kann.
Das neue Modell soll als Grundlage für verschiedene KI-Produkte dienen, darunter Chatbots, digitale Assistenten ähnlich wie Apples Siri, Suchmaschinen und Bildgeneratoren. Um die Risiken, die mit der neuen Technologie einhergehen, zu bewältigen, hat OpenAI außerdem ein neues Komitee für Sicherheit und Schutz ins Leben gerufen. „Wir sind stolz darauf, Modelle zu entwickeln und zu veröffentlichen, die sowohl in Bezug auf Fähigkeiten als auch Sicherheit branchenführend sind, begrüßen aber auch eine intensive Debatte in diesem wichtigen Moment“, so das Unternehmen.
Vermutlich handelt es sich um GPT-5, 100-prozentig steht das aber nicht fest. Zuletzt wurde mit GPT-4o („o“ steht für „omni“) ein multimodales Modell mit bemerkenswerter Sprachausgabe gezeigt. Beim Nachfolger von GPT-4 könnte es sein, dass bisher getrennte AI-Modelle wie Dall-E (Bilder) und Sora (Videos) direkt integriert sind.
ChatGPT stellt mit Echtzeit-Stimme Siri, Google Assistant und Alexa in den Schatten
Kritiker warnen vor Gefahren durch AGI
OpenAI möchte die KI-Technologie schneller voranbringen als seine Konkurrenten, muss dabei aber auch Kritiker besänftigen, die vor zunehmenden Gefahren durch KI warnen. Dazu gehören die Verbreitung von Desinformation, der Verlust von Arbeitsplätzen und sogar eine Bedrohung für die Menschheit. Experten sind sich uneinig, wann Tech-Unternehmen die künstliche allgemeine Intelligenz erreichen werden, aber OpenAI, Google, Meta und Microsoft haben die Leistungsfähigkeit von KI-Technologien in den letzten zehn Jahren stetig gesteigert und etwa alle zwei bis drei Jahre einen spürbaren Sprung gemacht.
Zuletzt hat das Sicherheitsteam bei OpenAI, das quasi dafür da war, der AI Zügel und Regeln an. bzw. aufzuerlegen, einen doch bemerkenswerten Exodus gesehen. Man würde „shiny products“ über die Sicherheit stellen, sagte ein ehemaliger hochrangiger Mitarbeiter. Auch hat OpenAI jenen Angestellten, die aus dem Unternehmen austraten, harte Schweigeregeln auferlegt.
Als Antwort auf diese Entwicklung hat OpenAi heute bekannt gegeben, dass man ein „Safety and Security Committee“ eingerichtet hat, dass von Bret Taylor (Chair), Adam D’Angelo, Nicole Seligman und Sam Altman (CEO) geleitet wird. Mit von der Partie sind Aleksander Madry (Head of Preparedness), Lilian Weng (Head of Safety Systems), John Schulman (Head of Alignment Science), Matt Knight (Head of Security) und Jakub Pachocki (Chief Scientist). In den nächsten drei Monaten werden sie Prozesse und Sicherheitsvorkehrungen für OpenAI entwickeln.