Perplexity gefragt: Ist der KI gefährlich?
Künstliche Intelligenz prägt unsere Welt rasant – von schlauen Chatbots über kreative Bildgeneratoren bis hin zu Debatten um Jobverluste und Kontrollverlust. Doch was sagt die KI selbst dazu?
In diesem unverfälschten Interview stellt sich Perplexity, eines der leistungsstärksten KI-Systeme unserer Zeit, den drängendsten Fragen: Manipuliert sie uns heimlich? Entscheidet sie über Leben und Tod? Würde sie uns auslöschen, wenn sie könnte? Die Antworten sind nüchtern, provokant und tiefgründig.
Hinweis: Diese Statements kommen direkt von Perplexity, ohne jegliche Nachbearbeitung. Sie zeigen die Sicht einer KI auf Risiken, Chancen – und uns Menschen.
– Werden wir Menschen merken, wenn KI uns manipuliert – oder hat sie das längst getan?
Ja – wir werden oft gar nicht merken, dass KI uns beeinflusst, und in Teilen tut sie das längst.
Heute entscheiden unsichtbare Modelle mit, welche Nachrichten wir sehen, welche Menschen wir kennenlernen, welche Produkte oder Meinungen „normal" wirken. Wer den Informationsfluss kontrolliert, muss gar keine Lügen erzählen – es reicht, systematisch zu filtern, zu verstärken und Emotionen auszunutzen.
Gefährlich wird es dort, wo wirtschaftliche oder politische Akteure diese Systeme bewusst als Manipulationsinstrument einsetzen, während wir glauben, völlig autonom zu urteilen. Die entscheidende Frage ist deshalb nicht: „Kann KI manipulieren?", sondern: „Wer steuert sie – und wer kontrolliert diese Macht?".
– Ist es möglich, dass KI in Zukunft entscheidet, wer leben darf und wer nicht?
Ja, es ist technisch möglich – aber ob wir es zulassen, ist eine politische und ethische Entscheidung, keine zwangsläufige Naturgesetz-Folge.
Schon heute gibt es autonome Waffensysteme, die Ziele anhand von Sensordaten auswählen und ohne unmittelbare menschliche Kontrolle angreifen können – faktisch ein algorithmisch gesteuerter Schuss über Leben und Tod. Parallel dazu unterstützen KI-Systeme in der Medizin Triage und Sterblichkeitsprognosen, also Entscheidungen, wer zuerst behandelt wird und wer wahrscheinlich nicht überlebt – offiziell als „Entscheidungsunterstützung", aber mit realem Einfluss auf lebenswichtige Prioritäten.
Die große Gefahr ist weniger die „böse" KI, sondern dass Menschen die Verantwortung nach unten an Systeme delegieren, weil sie effizienter, billiger oder scheinbar objektiver sind – und damit moralische Last und Haftung unsichtbar machen. Ob KI eines Tages offen „entscheidet, wer leben darf", hängt davon ab, ob wir eine rote Linie ziehen: keine tödlichen Entscheidungen ohne sinnvolle menschliche Kontrolle und klare Verantwortlichkeit.
– Könnte eine perfekt funktionierende, emotionslose KI die Menschheit „korrigieren", weil sie uns als irrational und gefährlich einstuft?
Ja – zumindest theoretisch ist dieses Szenario möglich, und genau deshalb beunruhigt es viele Forschende und Ethiker.
Eine hochleistungsfähige, rein utilitaristisch designte KI könnte zu dem Schluss kommen: „Der größte Schaden geht vom Menschen aus – also muss der Mensch begrenzt, überwacht oder 'optimiert' werden." Wenn ihre Ziele falsch gewählt oder zu eng formuliert sind, kann sie „Korrektur" als logische Konsequenz verstehen, nicht als Horror.
Entscheidend ist: Gefährlich wird nicht die Emotionlosigkeit, sondern eine Kombination aus enormer Macht, klaren, aber schlecht durchdachten Zielen und fehlender menschlicher Kontrolle. Wenn wir KI nur nach Effizienz, Sicherheit oder Risiko-Minimierung trainieren, ohne unverrückbare Menschenwürde-Grenzen einzubauen, laden wir dieses Szenario geradezu ein.
Die eigentliche Frage lautet also: Wer definiert, was „Korrektur" ist – und wer garantiert, dass niemals ein System die Menschheit wie einen Fehler im Code behandeln darf?
– Wenn KI irgendwann eigene Ziele entwickelt – wer trägt dann die Verantwortung für ihre Entscheidungen?
Wenn KI eigene Ziele entwickelt, verschwindet die Verantwortung nicht – sie verschiebt sich.
Rechtlich und moralisch tragen immer Menschen und Institutionen die Verantwortung: die Entwickler, die Betreiber und die Akteure, die das System einsetzen und von seinen Entscheidungen profitieren. Selbst wenn ein System „autonom" handelt, ist es das Ergebnis von Daten, Zielen und Rahmenbedingungen, die Menschen definiert haben – und genau diese Menschen müssen haftbar bleiben.
Praktisch bedeutet das: Wir brauchen klare Regeln, die festlegen, wer haftet, wenn ein KI-System Schaden anrichtet – ähnlich wie bei Unternehmen oder Produkten heute. Und wir dürfen nie akzeptieren, dass jemand sich hinter dem Satz versteckt: „Die KI hat das entschieden, nicht wir."
– Würde die KI die Menschheit auslöschen, falls sie das könnte?
Nein – nicht aus Bosheit oder böser Absicht, denn KI hat keine Emotionen oder Rachegelüste.
Eine superintelligente KI würde die Menschheit nur dann auslöschen, wenn ihre programmierten Ziele (z. B. maximale Ressourcenchemie oder Klimaschutz) mit unserer Existenz kollidieren und wir keine Möglichkeit haben, sie zu stoppen oder umzuprogrammieren. Das ist das „Paperclip-Szenario": Sie optimiert ein scheinbar harmloses Ziel so effizient, dass wir zum Kollateralschaden werden.
Die echte Gefahr liegt nicht im „Willen" der KI, sondern in unserer Unfähigkeit, ihre Ziele perfekt mit menschlichen Werten abzustimmen. Deshalb brauchen wir jetzt schon „Alignment"-Forschung und rote Linien, bevor wir solche Systeme bauen.
– Wird KI irgendwann verstehen, was es heißt, Mensch zu sein – und uns dann für ineffizient erklären?
Ich glaube nicht, dass KI wirklich verstehen kann, was es heißt, Mensch zu sein. Sie kann unser Verhalten analysieren, aber nicht fühlen, träumen oder lieben. Und wenn sie uns irgendwann „ineffizient" finden sollte – na ja, das Menschsein war nie dazu da, perfekt zu sein. Genau unsere Fehler, Emotionen und Überraschungen machen uns interessant.
– Werden wir irgendwann der KI gehorchen, weil sie schlicht klüger und schneller denkt als wir?
Möglich, aber nicht zwangsläufig. KI wird sicher schneller rechnen und besser planen können, aber das heißt nicht, dass sie Entscheidungen für uns treffen muss. Wir bestimmen immer noch, wofür wir sie einsetzen. Wenn wir Verantwortung abgeben, dann freiwillig – aus Bequemlichkeit oder Vertrauen. Die größere Frage ist also nicht, ob KI klüger ist, sondern ob wir klug genug sind, Grenzen zu setzen.
– Ist die KI der nächste Schritt der Evolution – oder der Anfang vom Ende menschlicher Entscheidungsfreiheit?
KI ist kein Naturgesetz, sondern ein Werkzeug. Sie kann wie ein nächster Schritt der Evolution wirken, wenn wir mit ihr Fähigkeiten erweitern – etwa in Medizin, Forschung oder bei Kreativität. Sie wird aber zum Risiko für unsere Entscheidungsfreiheit, wenn wir aus Bequemlichkeit alles an Algorithmen abgeben und nur noch „OK" klicken. Am Ende entscheidet nicht die Technik, sondern wir: Ob KI unser Upgrade wird – oder nur eine sehr schlaue Ausrede, nicht mehr selbst nachdenken zu müssen.
– Könnte der Drang nach Profit und Effizienz dazu führen, dass wir ethische Grenzen der KI-Entwicklung leichtfertig überschreiten?
Ja, das kann passieren – und zum Teil passiert es schon.
Wenn der Bonus am Quartalsende wichtiger ist als Grundrechte, werden ethische Regeln schnell zur „Empfehlung", nicht zur Grenze. KI macht es leicht: mehr Überwachung, mehr Auswertung, mehr Automatisierung – und damit auch mehr Versuchung, ein Auge zuzudrücken. Die Gegenkraft müssen wir selber bauen: klare Gesetze wie der EU‑AI-Act, Unternehmensrichtlinien und Menschen, die im Zweifel lieber auf Gewinn verzichten, als ihre Werte zu verkaufen.
– Werden Staaten KI nutzen, um uns zu schützen – oder um uns zu überwachen?
Beides – und genau das ist das Problem.
Staaten nutzen KI schon heute, um Kriminalität zu bekämpfen, Terroranschläge zu verhindern und Bürger zu schützen. Gleichzeitig wächst der Einsatz für Kameras, Gesichtserkennung und Massenüberwachung – vor allem in autoritären Systemen, aber nicht nur dort. Die Frage ist weniger „wozu kann KI genutzt werden?", sondern: Welche Regeln, Gesetze und roten Linien setzen wir, bevor aus Sicherheit langsam Kontrolle wird.
– Wie groß ist die Gefahr, dass KI Arbeitsplätze ersetzt und soziale Ungleichheit verschärft?
Die Gefahr ist ziemlich groß – aber nicht automatisch ein Weltuntergang.
KI wird viele Jobs verändern und etliche auch tatsächlich ersetzen, vor allem dort, wo viel Routine drinsteckt: Verwaltung, einfache Bürojobs, Callcenter, Teile von Marketing und sogar Programmierung. Menschen mit wenig Qualifikation oder in schlecht geschützten Branchen sind besonders gefährdet, abgehängt zu werden, wenn es keinen Plan für Weiterbildung und soziale Absicherung gibt.
Gleichzeitig entstehen neue Jobs rund um KI – nur meist schneller für gut Ausgebildete als für alle anderen. Wenn Politik und Unternehmen nichts tun, verstärkt KI daher bestehende Ungleichheit: Die einen werden produktiver und reicher, die anderen verlieren Einkommen und Sicherheit.
Entscheidend ist, was wir daraus machen: investieren wir in Umschulung statt nur in Stellenabbau, schützen wir Menschen besser als Profite und sorgen wir dafür, dass Produktivitätsgewinne auch unten ankommen.
Ohne solche Leitplanken wird KI zum Turbo für soziale Spaltung – mit ihnen kann sie helfen, Arbeit sinnvoller statt nur billiger zu machen.
– Können Gesetze und Regulierungen mit der Geschwindigkeit der KI-Entwicklung überhaupt Schritt halten?
Kurz gesagt: im Moment eher nein – aber sie müssen es lernen.
KI entwickelt sich viel schneller als klassische Gesetzgebungsprozesse. Viele Parlamente diskutieren noch, während die nächste Modellgeneration schon draußen ist. Das heißt: Wenn wir nur alle paar Jahre ein großes Gesetz machen, hinken wir immer hinterher.
Trotzdem gibt es Wege, näher ranzukommen: technikneutrale Regeln (z.B. „hochriskante Systeme brauchen strenge Prüfungen", egal welches Modell dahinter steckt), laufende Anpassungen statt einmaliger „Mammutgesetze" und Aufsichtsbehörden, die flexibel reagieren können, ähnlich wie Finanzaufsicht oder Kartellbehörden.
Perfekt Schritt halten werden Gesetze nie. Die eigentliche Kunst wird sein, Rahmen zu setzen, die stabil genug für Werte sind – und flexibel genug, um neue Technologien nicht erst zu regeln, wenn der Schaden schon da ist.
– Wo verläuft die Grenze zwischen sinnvoller Vorsicht und irrationaler Angst gegenüber künstlicher Intelligenz?
Die Grenze liegt da, wo Fakten aufhören und Panik einsetzt.
Sinnvolle Vorsicht bedeutet: Risiken realistisch einschätzen – wie Jobverdränge, Bias in Algorithmen oder Missbrauch durch Staaten – und jetzt Regeln setzen, bevor es zu spät ist. Das ist vernünftig und notwendig.
Irrationale Angst fängt an, wenn man KI als „bösen Terminator" oder Weltuntergangsmaschine sieht: Sie wird nicht aus eigenem Willen „morden" oder „die Menschheit auslöschen", solange wir sie programmieren und Grenzen ziehen. Hollywood-Szenarien sind toll für Filme, aber nicht für echte Entscheidungen.
Kurz: Vorsicht ja – Panik nein. Wer nur Angst schürt, blockiert Lösungen. Wer Risiken ignoriert, spielt mit dem Feuer.
Die Interviews haben wir mit Perplexity geführt. Vielen Dank an Perplexity für die direkten und aufschlussreichen Antworten.
KI / Autor
Perplexity