OpenAI hat ChatGPT Atlas veröffentlicht, einen neuen Browser, der ChatGPT direkt in jede Interaktion einbaut, die Menschen im Web haben. Das Unternehmen beschreibt es als einen Schritt hin zu einem digitalen Assistenten, der sich mit dir durch Websites bewegt, interpretiert, was du siehst, und Aufgaben erledigt, die du anforderst.

Derzeit nur auf Mac verfügbar, verspricht Atlas außergewöhnlichen Komfort. Doch es führt auch neue Privatsphäre- und Sicherheitsrisiken mit unbekannten Konsequenzen ein. OpenAI hat mehrere Schlüsselfragen darüber, wie das Produkt Benutzerdaten schützt, noch nicht beantwortet.

Wir wissen jedoch bereits genug, um seine Hauptvorteile und die ernsten Privatsphärerisiken, die damit einhergehen, zu untersuchen.

Wie ChatGPT Atlas funktioniert

Atlas führt zwei Kernsysteme ein, die ändern, wie das Browsen funktioniert. Das erste, Browser-Erinnerungen, zeichnet auf, welche Seiten du besuchst und wie du mit ihnen interagierst, mit dem Ziel, die Antworten von ChatGPT persönlicher zu machen. Das zweite, Agentenmodus, ermöglicht der KI, Seiten zu öffnen, Formulare auszufüllen oder Aufgaben innerhalb des Browserfensters auszuführen.

OpenAI sagt, dass diese Funktionen optional sind. Du kannst sie deaktivieren, ihre Daten löschen oder privat surfen. Das Unternehmen sagt auch, dass dein Browsing-Inhalt vom Modelltraining ausgeschlossen ist, es sei denn, du stimmst zu.

Bei allem Gerede über Neuerfindung läuft ChatGPT Atlas immer noch auf Chromium(neues Fenster) – derselben Open-Source-Engine hinter Chrome und Edge.

Dieses Framework verlässt sich auf Benutzereinstellungen und Gewohnheiten. Reichlich Forschung zeigt, dass die meisten Menschen ihre Standardeinstellungen nicht ändern(neues Fenster). Und frühere KI-Browser zeigen, wie fragil solche Kontrollen unter realen Bedingungen sein können.

Sicherheitsrisiken von KI-Browsern: Was Forscher bisher aufgedeckt haben

Einer der ersten KI-Browser war Perplexitys Comet, veröffentlicht im Juli 2025. Eine Schwachstelle im KI-System des Browsers, zuerst berichtet von Time(neues Fenster), enthüllte, wie KI-Browsing neue Angriffsvektoren öffnen könnte. Forscher bei LayerX entdeckten eine Schwachstelle namens CometJacking(neues Fenster), die es böswilligen Links erlaubte, Anweisungen innerhalb von URLs zu verstecken. Wenn geklickt, interpretierte Comets KI diese Prompts als echte Befehle.

Tests zeigten, dass der Browser Daten von Gmail und Kalendern abrufen, bösartige Dateien herunterladen und in einigen Fällen sogar versuchen konnte, Käufe auf Betrugsseiten zu tätigen. iTnews detaillierte später(neues Fenster) ähnliche Ergebnisse von Guardio-Forschern, die Comet als übereifrigen Assistenten beschrieben – schnell im Handeln und langsam darin, verdächtige Anweisungen zu hinterfragen. Kasperskys Analyse(neues Fenster) ging weiter und warnte, dass die direkte Integration von KI in einen Browser bösartigen Web-Inhalten einen direkten Kanal bietet, um ihn zu manipulieren.

Warum Atlas per Design riskant ist

Suche war schon immer Überwachung. KI-Suche macht daraus intime Überwachung. Atlas macht daraus totale Überwachung.

Traditionelle Suchmaschinen wie Google erfassen isolierte Fragen – ein medizinisches Symptom, ein Rezept, eine rechtliche Anfrage. Konversationelle KI verwandelt diese Fragmente in Geschichten. Sie bittet dich um Klärung, ermutigt zu Folgefragen und zeichnet Kontext auf. Im Laufe der Zeit erstellen diese Austausche detaillierte Porträts deines privaten Lebens und bauen ein Narrativ über deine Absicht, Schwachstellen und Entscheidungsmuster auf.

Dies ist bereits riskant, wenn es auf die ChatGPT-Apps beschränkt ist. Mit Atlas lebt derselbe Mechanismus in deinem Browser und bietet OpenAI totale Überwachung jeder Interaktion, die du online hast.

OpenAIs eigene Dokumentation(neues Fenster) bestätigt, dass Atlas die Seiten sehen kann, die du besuchst, sich an deren Inhalt durch Browser-Erinnerungen erinnern kann und in deinem Namen durch den Agentenmodus handeln kann. Jede Schicht erhöht die Sichtbarkeit. Atlas registriert nicht nur deine Anfragen; es beobachtet, was du liest, wie lange du bleibst und was du als Nächstes tust.

Das Ergebnis ist eine einzige, umfassende Aufzeichnung von Absicht und Verhalten. Selbst wenn OpenAI sagt, dass dieser Inhalt standardmäßig nicht für das Training verwendet wird, wird er dennoch verarbeitet und für die Personalisierung analysiert. Durch Inferenz kann Atlas gewöhnliche Handlungen verbinden, um aufschlussreiche Narrative zu bauen – wie das Verknüpfen von Suchanfragen nach Angstsymptomen mit Therapeutenverzeichnissen und Medikamentenrecherche, um ein Bild der psychischen Gesundheit einer Person zu formen.

Privatsphärekontrollen existieren, erfordern aber ständige Wachsamkeit. Benutzer können die Sichtbarkeit umschalten oder Erinnerungen löschen, doch die meisten werden vergessen, diese Einstellungen zu verwalten. Du kannst deine Daten erhalten oder löschen. Aber die Modelle wurden bereits darauf trainiert, was du getan hast.

Atlas weitet die Überwachung über das hinaus aus, was Google durch die Kombination von Such- und Browserdaten erreicht hat. OpenAI hat KI-Konversation, Web-Interaktionen (einschließlich derer außerhalb der Suchmaschine) und persönliche Datenernte in einer einzigen Schnittstelle verschmolzen, die Kontext versteht und danach handelt.

Privatsphäre- und Datenexpositionsbedenken

TechCrunch berichtet(neues Fenster), dass Atlas eine Aufzeichnung der Browsing-Aktivität behält, um Antworten zu personalisieren. Kaspersky warnt(neues Fenster), dass eine auf dieser Ebene integrierte KI volle Sichtbarkeit auf Web-Traffic und Dateien auf dem Gerät hat. Diese Sichtbarkeit kann privates Material wie Abonnements, Arbeitsdokumente oder finanzielle Daten einschließen.

KI-Browser markieren einen Wandel von passiver Datenerfassung zu kontinuierlicher Verhaltensabbildung. Jede besuchte Seite, jeder geschriebene Prompt, jede delegierte Aufgabe wird ein weiteres Signal in einer Feedback-Schleife, die darauf ausgelegt ist, Verhalten vorherzusagen und zu beeinflussen.

OpenAI verweist auf Benutzereinstellungen als Schutzmaßnahmen: Privatsphäre-Schalter, Datenlöschung und Inkognito-Surfen. Aber dies sind Oberflächenkontrollen. Sobald eine KI die Punkte verbindet, löscht das Entfernen eines Datenstücks nicht die Geschichte, die sie bereits gebaut hat. Atlas mag einzelne Einträge vergessen; die Schlussfolgerungen bleiben jedoch.

Dieses Modell vereint die zwei mächtigsten Datenerfassungsmaschinen des Web – den Suchindex und den Browser – und überlagert sie mit KI, die in der Lage ist, über das, was sie beobachtet, nachzudenken.

Der Haken ist, dass es hilfreich ist. Ein Tool, das Einkaufslisten organisiert, bildet auch finanzielles Verhalten ab. Ein Tool, das dir bei der Therapierecherche hilft, leitet auch deinen emotionalen Zustand ab. Was als Personalisierung erscheint, ist Datenextraktion mit Empathie als Maske.

Früherer Überwachungskapitalismus verließ sich auf Benutzerapathie: Menschen, die zu faul waren, ihre Privatsphäre-Einstellungen zu aktualisieren. Atlas hängt von Engagement ab: Es ist so intelligent und bequem, dass du nicht anders kannst, als ihm zu vertrauen.

Warum Atlas nicht bereit für den sensiblen Gebrauch ist

Atlas ist ein mutiger Schritt hin zum freihändigen Browsen, aber es ist nicht für Vertrauen gebaut. Dieselben Designentscheidungen, die es mächtig machen, machen es auch unsicher. Sicherheitsforscher und Tester sind zu einem übereinstimmenden Schluss über KI-Browser gekommen: Sie sind bemerkenswerte Demonstrationen, aber unzuverlässig für das tägliche Leben.

Wenn du Atlas ausprobierst, behandle es wie eine Testumgebung. Halte Banking, Arbeit und persönliche Konten woanders. Gehe nicht davon aus, dass seine Schutzmaßnahmen realen Bedrohungen standhalten.

OpenAI wird wahrscheinlich die Sicherheit von Atlas verbessern, aber heute bedeutet die Nutzung eines KI-Browsers, dem Unternehmen direkte Sichtbarkeit auf dein Online-Verhalten zu gewähren und zu hoffen, dass der Zugang geschützt bleibt.

Diese Sorge endet nicht bei OpenAI selbst, da das Unternehmen deine Daten mit Partnern und Drittanbieter-Dienstleistern teilt, was den Kreis des Zugriffs über seine direkte Kontrolle hinaus erweitert. Zum Beispiel enthüllte ein Datenleck bei einem OpenAI-Partner API-Benutzerdaten – eine Erinnerung daran, dass, sobald deine Informationen das ChatGPT-Ökosystem betreten, jede zusätzliche Partei ein potenzielles schwaches Glied wird.

Nutze einen privaten KI-Assistenten, der dich sicher hält

Es gibt einen anderen Ansatz, und er wird bereits von Millionen von Menschen genutzt.

Lumo, Protons privater KI-Assistent(neues Fenster), ist gebaut, um zu beweisen, dass Intelligenz und Privatsphäre koexistieren können. Er arbeitet unter einer strengen No Logs-Richtlinie. Der Chatverlauf ist mit Zero-Access-Verschlüsselung geschützt, was bedeutet, dass nicht einmal Proton ihn lesen kann. Unterhaltungen werden niemals für das Training verwendet. Sowohl der Code als auch die Modelle sind Open Source, was jedem erlaubt, zu überprüfen, was unter der Haube passiert. Benutzer besitzen ihre Daten uneingeschränkt. Und da Lumo von der Community finanziert wird, nicht von Werbetreibenden, gibt es keinen kommerziellen Anreiz, persönliche Informationen auszubeuten.

Das ist der Unterschied zwischen Überwachungs-KI und Privatsphäre-KI. Eine ist gebaut, um Daten zu sammeln; die andere ist gebaut, um sie zu schützen.