
Claude war „the good one“ im globalen Wettkampf der KI Anbieter. Jetzt führt Anthropic ID Identifikationen durch ein umstrittenes Unternehmen mit Verbindungen zu „Mr. Palantir“ Peter Thiel ein. Illustration: ChatGPT/OpenAI
Im Februar dieses Jahres war Anthropic kurzzeitig so etwas wie ein Held. Das Unternehmen hinter dem KI-Assistenten Claude hatte dem US-Verteidigungsministerium den Gehorsam verweigert. Verteidigungsminister Pete Hegseth hatte ein Ultimatum gestellt: Claude solle für „alle rechtmäßigen Zwecke“ freigegeben werden, Einschränkungen für Massenüberwachung und vollautonome Waffensysteme inklusive.
- Anthropic führt eine schrittweise Identitätsprüfung für Claude-Nutzer ein: Lichtbildausweis und Live-Selfie werden künftig für bestimmte Funktionen verlangt.
- Die Datenverarbeitung übernimmt Persona Identities, ein US-Anbieter, dessen Wachstum maßgeblich durch Founders Fund, das Risikokapitalunternehmen von Peter Thiel, finanziert wurde.
- Thiel ist Mitgründer von Palantir, das Überwachungstechnologie für US-Behörden wie ICE und CIA liefert – eine Verbindung, die Fragen aufwirft.
CEO Dario Amodei lehnte damals ab – und nahm dafür den Verlust eines 200-Millionen-Dollar-Vertrags sowie die Einstufung als „Sicherheitsrisiko für die Lieferkette“ in Kauf. Viele Nutzer quittierten das mit dem Wechsel von ChatGPT zu Claude. Endlich mal jemand mit Rückgrat.
Zwei Monate später bittet Anthropic um Personalausweis und Selfie.
Inhalt
Was Anthropic jetzt von seinen Nutzern verlangt
Seit Mitte April rollt Anthropic eine Identitätsprüfung für Claude-Nutzer aus. Nicht für alle, nicht sofort, aber schrittweise. Wer bestimmte Funktionen nutzt oder von Anthropics Systemen als potenziell auffällig markiert wird, soll künftig einen gültigen Lichtbildausweis vorlegen: Reisepass, Führerschein oder nationaler Personalausweis. Dazu ein Live-Selfie, das mit dem Dokument abgeglichen wird. Photocopien, digitale IDs oder Studentenausweise werden nicht akzeptiert.
„Being responsible with powerful technology starts with knowing who is using it“, heißt es in der Ankündigung. Das klingt nach Verantwortung. Es klingt auch ein bisschen nach dem, was Behörden sagen, kurz bevor sie Dinge verlangen, die man lieber nicht hergibt.
Der Dienstleister im Hintergrund
Anthropic verarbeitet diese Daten nicht selbst. Die Identitätsprüfung übernimmt ein Unternehmen namens Persona Identities, ansässig in San Francisco. Persona ist kein Nischenanbieter: Die gleiche Infrastruktur steckt hinter Altersverifikationen bei OpenAI, Reddit und Roblox. Persona ist vertraglich dazu verpflichtet, die Daten ausschließlich zur Betrugsprävention und Identitätsverifizierung zu nutzen. Bilder und Ausweisdaten werden nicht auf Anthropics eigenen Servern gespeichert. Das Model-Training soll damit nichts zu tun haben.
Soweit die offizielle Version.
Und wieder einmal: Peter Thiel – „Mr. Palantir“
Was viele Nutzer aufhorchen lässt, ist wer hinter Persona steht. Founders Fund, das Risikokapitalunternehmen von Peter Thiel, hat Personas Series-C-Runde über 150 Millionen Dollar angeführt und war auch an der Series-D-Runde über 200 Millionen Dollar beteiligt. Thiel ist derselbe, der Palantir mitgegründet hat, jenes Datenanalyseunternehmen, das unter anderem ICE, CIA und FBI mit Überwachungs- und Targeting-Technologie beliefert. Auch in Deutschland liebäugelt die CDU/CSU Regierung samt Innenministerminister Dobrindt mit Palantir.
Zur Einordnung: Founders Fund investiert in Dutzende Unternehmen, von SpaceX bis Airbnb. Eine Investition bedeutet keine operative Kontrolle. Persona ist nicht Palantir, und eine Verbindungslinie durch ein gemeinsames VC-Portfolio zu ziehen, ist ein Argument, das man vorsichtig handhaben sollte.
Und trotzdem: Die Frage, wem man Lichtbildausweis und Gesichtsgeometrie anvertraut, darf man stellen. Zumal Sicherheitsforscher bereits aufgezeigt haben, dass Persona pro Nutzer umfangreiche Hintergrundchecks durchführt und unter bestimmten Umständen Verdachtsmeldungen an US-Behörden weiterleiten kann.
Discord hatte Persona nach öffentlichem Druck wieder fallen gelassen.
Ist der gute Ruf von Claude in Gefahr?
Anthropic hat im Februar etwas Seltenes getan: Prinzipien über Profit gestellt, und das mit echten Konsequenzen. Das verdient Respekt, und es wäre unfair, das jetzt pauschal kleinzureden.
Aber wer sich als ethischerer Akteur in einem Markt positioniert, der sich um Vertrauen dreht, muss sich auch fragen lassen, was es bedeutet, biometrische Daten seiner Nutzer an einen Subdienstleister weiterzugeben, der von einem Netzwerk finanziert wird, das andernorts an staatlicher Überwachungsinfrastruktur verdient.
Anthropic ist vermutlich nicht böse. Aber es ist auch nicht einfach gut. Es ist ein Unternehmen. Und das ist der Unterschied, den man im Hinterkopf behalten sollte, jedes Mal, wenn man jemandem seinen Ausweis zeigt.

