Das KI-„Alignment-Problem“ besagt, dass es mit zunehmender Intelligenz von KI-Systemen schwieriger wird, ihre Ziele mit denen ihrer Entwickler in Einklang zu bringen. Ein KI-System könnte theoretisch „außer Kontrolle geraten“ und unerwünschte sowie unvorhersehbare Strategien entwickeln, um ein Ziel zu erreichen.
Der Büroklammer-Maximierer(neues Fenster) ist ein Gedankenexperiment, das dieses Konzept untersucht: Wenn eine superintelligente KI die einzige Aufgabe hätte, Büroklammern herzustellen, könnte sie die Ressourcen der Welt beschlagnahmen, um ihr Ziel um jeden Preis zu erreichen, und alles in Büroklammern verwandeln. Schließlich könnte sie sogar erkennen, dass Menschen, die versuchen, die KI zu stoppen, eine Ablenkung sind, und uns eliminieren: eindeutig eine Fehlausrichtung zwischen KI- und menschlichen Interessen.
Obwohl offensichtlich abwegig, ist das Büroklammer-Problem zu einem Popkultur-Bezugspunkt für KI geworden. Im echten Leben verhindern Einschränkungen und Regeln, dass Systeme über ihre beabsichtigten Zwecke hinausgehen. Aber viele Big-Tech-Gründer und CEOs nutzen dieses hypothetische Szenario, um Wirbel um ihre großen Sprachmodelle (LLMs) zu erzeugen. Haben Chatbots wirklich die Macht, die Menschheit auszulöschen? Nein. Aber es lässt sie beeindruckend klingen und, was noch wichtiger ist, es verschleiert das echte KI-Alignment-Problem, das uns gerade jetzt schadet: Big-Tech-LLMs dringen in unsere Privatsphäre ein, stehlen unsere Daten und entwerten unsere Informationsökonomie. Es ist sowohl eine Verkaufsstrategie als auch ein Ablenkungsmanöver, das darauf ausgelegt ist, uns in die Zukunft blicken zu lassen, anstatt auf die Kontrolle, die wir in der Gegenwart abgeben.
Sind wir auf dem Weg in eine dystopische Zukunft?
Wenn Gründer breite, spekulative Aussagen darüber machen, was ihre Produkte tun „könnten“, ist dies in erster Linie eine Methode, um Geschäftsmöglichkeiten zu schaffen und Wert für ihre Aktionäre zu generieren. LLMs und generative KI sind Geschäftsprodukte. Es liegt im Interesse ihrer Eigentümer, dass du glaubst, ihr Tool sei revolutionär.
Medien sind bestrebt, sensationelle Geschichten zu verbreiten, wie das Potenzial von KI-Tools, Benutzern zu helfen, Biowaffen zu erstellen(neues Fenster) oder Entwickler anzulügen(neues Fenster), als ob die generative KI einen eigenen Verstand hätte (hat sie nicht). Es ist leicht, Klicks mit Schlagzeilen über extreme oder unbegründete Meinungen zu bekommen, aber solche Ansichten sind keine genaue Darstellung der KI-Technologie, die heute existiert.
Stattdessen sind LLMs einfach Wortvorhersagemaschinen. Es sind Computerprogramme, die riesige Mengen Text verarbeiten, Muster der menschlichen Sprache „lernen“ und dann wahrscheinliche Antworten auf Benutzereingaben erstellen. Sie haben keine eigenen Gedanken und verstehen Sprache nicht einmal. Tatsächlich müssen sie Wörter erst in Zahlen umwandeln, bevor sie Informationen verarbeiten können. Die Grenzen von LLMs wurden von Gary Marcus(neues Fenster) und vielen anderen Forschern gut dokumentiert.
Neue Tools für den Überwachungskapitalismus
LLMs werden nicht die Apokalypse verursachen, aber sie sind in etwas anderem ziemlich gut: extrem nuancierte Informationen über dich zu sammeln. Deshalb sind LLMs eine Datengoldgrube für Unternehmen und ein attraktives Ziel für Kriminelle.
LLMs treiben Chatbots wie ChatGPT, Copilot, Claude und Grok an, die wie Suchmaschinen funktionieren. Angeblich kannst du diese Chatbots für alles nutzen, was du möchtest: Sie können dir helfen, Einkaufslisten zu erstellen, deinen Kalender zu organisieren, E-Mails zu schreiben oder Code zu schreiben. Sie sind dein persönlicher Assistent, dein Lehrer, dein Vertrauter oder was auch immer du von ihnen verlangst.
Hunderte Millionen Menschen weltweit teilen bereits ihre Fragen, Ideen, Gedanken und tiefsten Geheimnisse mit Chatbots. Sie werden dazu von den Unternehmen ermutigt, die sie betreiben: Sam Altman, CEO von Open AI, bemerkte kürzlich(neues Fenster), dass die Generation Z „eigentlich keine Lebensentscheidungen mehr trifft, ohne ChatGPT zu fragen, was sie tun soll“. Dieses Maß an Vertrauen und Abhängigkeit von einem gewinnorientierten und unzuverlässigen Chatbot hervorzuheben und zu fördern, ist zutiefst unverantwortlich. Big Tech möchte, dass wir unser Leben und unsere Gedanken über ihre Dienste vermitteln, denn dann können sie mitbestimmen, wie wir unser Geld ausgeben, was wir tun und was wir denken.
Die Unternehmen hinter LLMs verkaufen ihre Produkte auch als Produktivitätslösungen für Regierungen und Unternehmen und versprechen, ihren Benutzern Zeit und Mühe zu sparen, während sie gleichzeitig neue Möglichkeiten schaffen, dich zu überwachen. Im Vereinigten Königreich „sagt“ das KI-System des Justizministeriums das Rückfallrisiko(neues Fenster) von Gefangenen voraus. Polizeibeamte nutzen Chatbots(neues Fenster), um Kriminalberichte zu verfassen. Die Kombination staatlicher Befugnisse mit voreingenommenen Algorithmen(neues Fenster) ist gefährlich und verstärkt bestehende Vorurteile.
Ausbeutung deiner Daten zu Trainingszwecken
LLMs laufen auf KI-Modellen, die mit riesigen Datensätzen trainiert wurden, und um ihre Dienste zu verbessern, benötigen sie immer mehr Daten. Leider stammen diese Daten von dir: deine Chats, deine Fotos, deine Websuchen. Unternehmen werden dich nicht immer um Erlaubnis bitten oder deutlich machen, was sie von dir sammeln.
Zum Beispiel möchte Meta AI Fotos in deiner Bibliothek scannen (neues Fenster)(neues Fenster), die du noch nicht einmal auf seine Plattformen hochgeladen hast, um deine Gesichtsdaten zu analysieren. Viele Benutzer waren beunruhigt über die Ankündigung, dass Microsofts Copilot AI(neues Fenster) alle paar Minuten Screenshots ihrer Geräte machen würde. Deine Fotos, deine Nachrichten an deine Freunde und Lieben und deine persönlichsten Gedanken sind wertvolle Datenpunkte, die die Unternehmen wollen.
Wenn wir uns die Datenschutzerklärung(neues Fenster) von Open AI ansehen, sehen wir, dass ChatGPT Folgendes findet und speichert:
- Identifikatoren wie deinen Namen, Kontaktdaten, IP-Adresse und andere Gerätekennungen
- Kommerzielle Informationen, wie z. B. deinen Transaktionsverlauf
- Informationen zur Netzwerkaktivität, wie Inhalte und wie du mit ChatGPT interagierst
- Den allgemeinen Standort, von dem aus du auf ChatGPT zugreifst
Diese Informationen können an Regierungen, Anbieter, verbundene Unternehmen, Dienstleister und andere Dritte weitergegeben werden.
Im Grunde lernt dich ein LLM kennen. Ähnlich wie eine Suchmaschine beginnt es, deine Gewohnheiten, deine Einstellungen, deine Interessen und jeden Aspekt von dir zu verstehen, den es aus deinem Verhalten ableiten kann. Big Tech wird immer Priorität darauf legen, neue Wege zu finden, um deine persönlichen Daten zu erlangen, weil es profitabel ist. Und sie hoffen, dass du es nicht bemerkst.
Denk nur an die Trends, die in den letzten Jahren durch die sozialen Medien gefegt sind: benutzerdefinierte Animationen im Studio-Ghibli-Stil(neues Fenster) ahmten gegen seinen Willen den unverwechselbaren Stil von Hayao Miyazaki nach, und benutzerdefinierte KI-verpackte Puppen(neues Fenster), inspiriert von klassischen Spielzeugen wie Barbie, gaben visuelle Einblicke in den persönlichen Geschmack der Menschen. Dieser Social-Media-Trend mag sich wie harmloser Spaß angefühlt haben, aber die KI-Tools, die zur Erstellung dieser Bilder verwendet wurden, konnten Fotos und Informationen über Menschen sammeln, die ihre übergeordneten Unternehmen für Werbezwecke nutzen und möglicherweise an Dritte verkaufen können. Dies sind nur zwei von vielen Beispielen dafür, wie Big Tech im Austausch für die Teilnahme an einem flüchtigen Trend stillschweigend deine persönlichen Daten aufnimmt.
Es gibt eine bessere Lösung für LLMs
Nachdem du über all diese Risiken gelesen hast, könntest du denken, dass LLMs von Natur aus gefährlich sind. Aber das ist überhaupt nicht der Fall. Big-Tech-Unternehmen haben ihre KI-Systeme absichtlich so gebaut, dass sie invasiv und datenhungrig sind. Es ist möglich, eine KI zu bauen, die die Privatsphäre der Menschen schützt und Daten standardmäßig sicher hält. Wir wissen das, weil wir es mit Lumo getan haben, unserem KI-Assistenten(neues Fenster), bei dem die Privatsphäre an erster Stelle steht.
So löst Lumo das echte KI-Alignment-Problem:
- Lumo führt keine Protokolle deiner Unterhaltungen. Jeder Chat wird von unseren Servern gelöscht, sobald das Modell deine Anfrage und Antwort verarbeitet hat.
- Chatverläufe werden mit Zero-Access-Verschlüsselung gespeichert. Indem deine Daten mit deinem geheimen Schlüssel gesperrt werden, hat Proton niemals Zugriff und kann daher niemals deine Daten teilen oder versehentlich ein Leak verursachen.
- Wir trainieren die Modelle nicht mit deinen Chats. Die Verwendung von Unterhaltungen zum Trainieren von KI-Modellen birgt das Risiko, dass deine Daten in zukünftigen Ausgaben wieder auftauchen. Unterhaltungen mit Lumo gehören dir allein.
- Lumo ist Open Source und verwendet nur Open-Source-Modelle. Da unsere Codebasis öffentlich ist, kann jeder überprüfen, ob unsere Apps genau das tun, was wir behaupten.
- Wir haben unseren Sitz in einer Rechtsordnung, die die Privatsphäre achtet. Im Gegensatz zu US-basierten Big-Tech-KIs, die invasiven Überwachungsgesetzen unterliegen, hat Lumo seinen Sitz in Europa und ist durch starke Gesetze zur Privatsphäre geschützt.
Auf jeder Ebene ist Lumo so konzipiert, dass es den gleichen Nutzen wie andere LLMs bietet, ohne die riskanten externen Effekte. Big Tech könnte seine KIs genauso bauen. Sie entscheiden sich nur dagegen, weil deine Daten ihre Währung sind.
Ist KI-Alignment wirklich eine Bedrohung?
Die Wahrheit ist einfach weniger aufregend, als uns die CEOs von Big Tech glauben machen wollen. Es scheint weniger wahrscheinlich, dass eine KI Menschen dazu befähigt, Biowaffen zu entwickeln oder all unsere globalen Ressourcen für die Herstellung von Büroklammern zu verbrauchen, als dass sie einfach den Anweisungen folgt, denen Big Tech bereits folgt: Stehlen und Ausbeuten privater Daten.
Glaub nicht an den Hype um KI-Alignment. Es ist nicht die Bedrohung, auf die sich irgendeiner von uns konzentrieren sollte. Überwachung, Ausbeutung von Einzelpersonen und kleineren Unternehmen sowie ein gefährdetes Informationsökosystem sind die dringenden Bedenken, auf die wir bei KI eigentlich achten sollten.