Daniela Amodei von Anthropic: “Claude ist transformativ, weil es unstrukturierte Daten strukturiert”
Schauplatz: Dreamforce Konferenz von Salesforce inmitten des Silicon Valleys in San Francisco. Wie Daniela Amodei, Co-Founderin des KI-Vorreiter-Startups “Anthropic„, ethische Aspekte der künstlichen Intelligenz bewertet und wie sie die zukünftige Rolle von KI in großen Unternehmen sieht, wurde im Panel „The Future of Enterprise AI“ diskutiert.
Privatsphäre, Sicherheit und Vertrauen
Wie Amodei berichtete, setzt Anthropic in der Entwicklung von KI-Modellen auf Constitutional AI. Das ist ein Ansatz zur Entwicklung von KI-Systemen, die die Entscheidungsfindung und das Verhalten der KI in Übereinstimmung mit bestimmten ethischen Grundsätzen und Werten gestalten. Für die Co-Founderin, die sich mit Anthropic einen Ruf als eines der besten KI-Startups weltweit aufgebaut hat, stehen persönliches Vertrauen und Sicherheitsaspekte in Geschäftsbeziehungen an erster Stelle – genauso wie ethisch korrektes Verhalten der Modelle. „Wenn man KI trainieren will, müssen ethische Grundsätze im Vorhinein festgelegt und integriert werden – danach ist es zu spät,“ so die KI-Forscherin und Unternehmerin.
“KI-Fähigkeiten der Agenten sind wichtig”
Daniela Amodei war zuvor als Vizepräsidentin für „Safety and Policy“ bei OpenAI tätig. Die autonomen KI-Agenten von Salesforce bezeichnete sie als „wichtig“, betonte jedoch: „Grundsätzlich sind die KI-Systeme von heute in vielerlei Hinsicht sehr fähig, aber in ihren Funktionen noch begrenzt. Doch im Gegensatz zu vor einem Jahr können auch die Modelle von Claude nun Dinge umsetzen, die zuvor nicht möglich waren.“
Wichtig sei, von Tag eins an die richtigen Rahmenbedingungen zu schaffen, um dem Modell die richtigen Anweisungen geben zu können. Man müsse der KI auch beibringen, wie sie sich zu verhalten hat, wenn sie die gesuchten Informationen nicht zur Verfügung stellen kann. Im Fall des Kundenservices sollte die Technologie direkt an einen Menschen weiterleiten, anstatt zu halluzinieren.
Das KI-Startup strebt perfekte Genauigkeit an
Laut Amodei sind einige Unternehmen, die in den letzten zwei Jahren bereits Versuche mit KI-Systemen gestartet haben – zum Beispiel im Bereich Kundenservice – nun mit einer gewissen Angst behaftet, dass etwas schiefgehen könnte. Dies komme daher, dass im Entwicklungsprozess der Technologie möglicherweise schlechte Erfahrungen gemacht wurden. „Es überrascht nicht, dass viele Menschen ein gewisses Maß an Fragen haben, wofür KI eingesetzt werden soll und ein gesundes Maß an Skepsis“, so Amodei. Claude sei in der Lage, ein breites Spektrum an Aufgaben auszuführen und strebe perfekte Genauigkeit an.
Mit einem Anwendungsfall beginnen
Amodei rät Unternehmen bei der KI-Implementierung dazu, mit einem Anwendungsfall zu beginnen, bei dem man sich wohlfühlt – und erst danach tiefer in die Materie einzutauchen. Dabei müssen der Grad der Genauigkeit sowie die Bearbeitungs- oder Lösungszeit vorab bestimmt werden. In das Salesforce-Tool “Slack“ wurde das KI-Modell „Claude“ von Anthropic nativ integriert.
Für Parker Harris, Salesforce CTO, ist Claude ein unglaublicher Partner, um Informationen zusammenzufassen, wie er im Panel verrät. Die KI in Slack könne Gespräche in komprimierter Form zusammenfassen, Workflows erstellen und somit die Informationssuche im Alltag erheblich erleichtern. Zwischen dem Startup und dem Großkonzern wurde laut Harris schon sehr früh eine Partnerschaft geschlossen. Anthropic sei als KI-Experte führend in der Entwicklung von LLMs und profitiere von der Partnerschaft mit Salesforce, da der Softwarekonzern seine Kunden sehr gut kenne und über umfangreiche, in der realen Welt validierte Daten verfüge.
„Claude strukturiert unstrukturierte Daten“
„Die Unternehmensbranche ist stark gewachsen und es gibt so viele Daten. Wenn man mit Führungskräften von S&P-500-Unternehmen spricht, beklagen sie sich oft darüber, wie schwierig es ist, die richtigen Informationen zu finden. Claude ist ein Werkzeug, das riesige Informationsmengen durchsuchen kann.“ Als Beispiel nennt Amodei die Suche nach einem falschen Wort in einem Buch. Während ein Mensch dafür Tage braucht, soll Claude dies in 10 Sekunden schaffen. Ein weiteres Beispiel sei der Gesundheitssektor: Ärzte könnten mit Claude nach einem Detail aus der Krankenakte eines Patienten suchen, auch wenn dies schon 40 Jahre zurückliegt. „KI kann Daten durchsuchen und die relevanten Punkte herausfiltern. Claude ist transformativ, weil es unstrukturierte Daten strukturiert“, so die Anthropics-Gründerin.
Linkedin trainiert AI mit Userdaten – ohne Änderung der Nutzungsbedingungen