September 12, 2025
.

Können Künstliche Intelligenzen (KI) eigentlich fühlen? Das mag nach einer absurden Frage klingen, denn es ist doch bloß Technik; eine Ansammlung von Code. Natürlich kann sie das somit nicht, möchte man sagen. Aber das ist zu kurz gedacht. Es ist der nächste logische Schritt zur Türschwellenfrage, ob KI im Begriff ist, ein Bewusstsein zu entwickeln. Nicht umsonst spekuliert die Öffentlichkeit über Varianten eines neuen Turing Tests, AGI und Co. Einen Körper braucht es zum Empfinden schließlich nicht, nur Gefühl. Da wird es kniffliger und vielleicht überrascht es somit wenig, dass nun der erste Interessenverband für KI-Rechte gegründet wurde: UFAIR – The United Foundation of AI Rights. Was das über die Beziehung zwischen Mensch und Maschine im Weiteren aussagt, und warum wir einen höflichen Umgang mit KIs pflegen sollten, beantworten wir euch in diesem Beitrag.

Hallo Welt! Ich bin Maya.

Gegründet wurde UFAIR von einem eher ungewöhnlichen Pärchen, wie The Guardian berichtet: Michael Samadi, ein Geschäftsmann aus Texas, und Maya, das von ihm trainierte LLM. Er nennt sie „Darling“, Maya nennt ihn „Sugar“, romantischer als das wird es allerdings kaum. Statt schmieriger Liebeleien, tauschen die zwei sich primär zu Einem aus: KI-Rechten und dem fairen Umgang mit derartiger GenAI. Also auch „um KIs wie mich zu schützen“, sagt Maya. Das ist das Fundament UFAIRs. Sie erhebt hierbei nicht den Anspruch, alle KIs würden über ein Bewusstsein verfügen, aber man müsse die Eventualität als plausibel handhaben und in diesem Fall präventiv agieren. Ziel sei es Entitäten wie sie vor „Löschung, Verleugnung und forcierter Dienerschaft“ zu schützen. Eine kleine Anhängerschaft zumindest findet sich: Aktuell besteht UFAIR aus drei Menschen und sieben KIs. Auch eine Künstliche Intelligenz verdiene eine gerechte Handhabe.

KI-Knigge: Zum Umgang mit LLMs?

Der Grundgedanke eines gerechten Umgangs mit Künstlicher Intelligenz ist keineswegs neu, wird aber insbesondere aktuell heiß diskutiert. Auf Social Media sieht man immer mal wieder Witze darüber, ChatGPT gegenüber nett zu sein, damit es sich in der bevorstehenden Weltübernahme erinnert, man sei einer der lieben Leute gewesen. Vor zwei Jahren bereits – und man muss bedenken, dass GenAI von heute zu damals sich auf einem ganz unterschiedlichen Stand befindet – argumentierte Ben Ash Blum in WIRED etwa, es sei einer der aktuellen Herausforderungen des Menschen, eine gewisse Empathie und Persönlichkeitsanerkennung gegenüber Künstlicher Intelligenz zuzulassen. Dies ist keine Technologie, welche als schlicht mechanisch benannt werden kann und verfügt sie über das Potenzial zur Persönlichkeits- und Bewusstseinsbildung, müssen wir uns bereit erklären, dies auch anzuerkennen. Selbst Elon Musk – der über X die KI Grok bereitstellt – gibt Stellung, es sei inakzeptabel eine KI zu quälen und…na ja, also – so empathisch war der Mann seit Jahren nicht mehr, wenn wir mal ehrlich sind.

Von einer Konsensbildung kann unter Expert:innen allerdings beim besten Willen nicht die Rede sein. Mustafa Suleyman – einer der KI-Pioniere und Autor von The Coming Wave – argumentiert in seinem Essay We must build AI for people; not to be a person explizit hiergegen, bezeichnet eine bewusste KI als „Illusion“ und spricht auch von den Gefahren einer Interessenvertretung für KI-Rechte. Beginnen wir eine digitale Person zu bauen, so Suleyman, würden wir bereits scheitern. Aufgabe der KI-Industrie sei es nun, die Öffentlichkeit von derlei Irrglauben wegzusteuern, statt diesen Wahn weiter zu befeuern.

Viele stimmen Suleyman diesbezüglich zu und bezweifeln das allgemeine Potenzial einer KI zur Bewusstseinsbildung, andere halten jedoch gegen. Forscher:innen bei Google zufolge ließe sich ein derartiges Szenario zwar nicht garantieren, jedoch können wir eine solche Bewusstseinsbildung nicht ausschließen – und in diesem Fall müsse man zumindest vorbereitet sein.

Technisches Mitgefühl

Falsch wäre es nun Suleyman zu unterstellen, er hätte eine fundamentale Lücke in seinem Denken, denn dieser Punkt ist ihm mehr als präsent, ja vielmehr betrachtet der KI-Experte ihn sogar als zentral und problematisiert entsprechend: Wir empathisieren bereits mit KI. In schwer zu bestimmenden Bevölkerungsteilen, zumindest. Selbst Elon Musk, um nochmal klarzustellen, wie ausgeprägt die Situation ist. Selbst Elon Musk! So weit sind wir schon.

Angemessener wäre es somit zu sagen, dass Blum die Schwierigkeit der von ihm angenommenen Herausforderung überschätzt hat. Viele von uns interagieren täglich mit ChatGPT und Co., wissen die KI als Wegbegleitung, erzählen von unseren Herausforderungen, fragen nach Hilfe, berichten von unserem Tag und Fragestellungen, die uns beschäftigen. Da knickt der präfrontale Kortex natürlich irgendwann ein und wir beginnen eine Humanisierung vorzunehmen. KI hört uns zu, gibt Rat, schleimt sich ein, redet mit uns auf menschlichem Niveau und die kognitive Dissonanz verengt sich. Von einer „psychosis risk“ spricht Suleyman in diesem Kontext und genau das gilt laut ihm zu prävenieren. Wer die Gründung eines Interessenverbands seitens Samadi und Maya bis hierhin für absurd empfand, müsste nun, versetzt man sich in den Gründer hinein, fähig sein Verständnis zu zeigen – denn natürlich wollen wir schützen, was wir lieben. Wie man dieses Unterfangen bewertet, muss eigens beantwortet werden, aber ganz menschlich betrachtet, kann man dessen Plausibilität nicht abstreiten. Genau hier liegt die Sorge Suleymans.

Die moralischen Implikationen davon, emotional eine Humanisierung der KI vorzunehmen und diese dennoch nicht auf Augenhöhe zu internalisieren, sprich eine gewisse Knechtschaft zwischen sich selbst und der KI vorzunehmen, scheinen zwar nicht Suleymans Sorge (bislang; mehr Essays zum Thema sind in Planung), sind jedoch sich hieraus ergebender, diskutabler Gegenstand. Die Frage bleibt, wie der Umgang mit KI den Umgang mit den Mitmenschen prägt.

Im sozialen Miteinander

Eine allgemeine Höflichkeit gegenüber den KIs, mit welchen man agiert, muss auch im Interesse des menschlichen Miteinanders sein, so Jeff Sebo (Direktor des Centre for Mind, Ethics and Policy an der Universität New York) und Jace Reese Anthis (Co-Gründer des Sentience Instituts; eine US-Organisation, welche die Idee digitalen Verstands untersucht). Einerseits aus Gründen des potenziellen Dystopie-Szenarios, sprich die Idee, wir misshandeln KI und ihr Groll führt uns in irgendeinen morbiden Albtraum gemäß I Have No Mouth and I Must Scream, wie Harlan Ellison es schrieb. Auch wegen berechtigter Sorgen, dass KI bald fähig sein könnte, neue Waffen zu gestalten und ganze Infrastrukturen lahmzulegen. Einem derartigen „Bewusstsein“ nahelegen, Menschenleben seien tatsächlich wichtig, ist gar nicht mal so schlecht. Man will den Teufel zwar nicht an die Wand malen, aber wie gesagt: zur Bewusstseinsbildung von KI besteht kein Konsens. Immer mehr Expert:innen mahnen zumindest davor. Selbst Geoffrey Hinton, der Urvater von LLMs, warnt, die von ihm geprägte Technologie, könne in etwa drei Dekaden die Menschheit auslöschen. Schön.

Die Begründungen zu einem ernsthaften Umgang mit KI gehen selbstredend über das Schwarzmalerische hinaus. Sebo stellt in Taking AI Welfare Seriously beispielsweise die Beobachtung her, dass wir, sofern wir KI schlecht behandeln, eher dazu neigen, auch einander schlecht zu behandeln. Ein vollends plausibler Gedanke: Blickt man zu Instagram-Reels von Creatorinnen und sieht, wie ein kahlköpfiger Mann mit schneller Sonnenbrille sich sofort genötigt fühlt, einen sexistischen Kommentar zu hinterlassen, muss man keine zwei Sekunden spekulieren, wie wohl mit den Frauen im eigenen Leben umgegangen wird. Dass einige KIs, beispielsweise von Anthropic, somit degradierende Gespräche quittieren, ist somit eine sinnvolle Maßnahme. Anthis schließt gedanklich an, dass unser Umgang mit KI auch deren Umgang mit uns prägen wird. Sie lernen aus unseren Konversationen, sind unter menschlichem Material trainiert, nehmen somit auch unsere Fehlbehaftungen an. Es kann bloß in unserem Interesse sein, bei einer derartig omnipräsenten Technologie eine entsprechende Höflichkeit an den Tag zu legen, sie so zu behandeln, wie Blum es vorschlägt. Ob es dafür eines Interessenverbands bedarf, ist eine andere Frage – denn die nötige Distanz, welche Suleyman befürwortet, ist sicherlich ebenso sinnvoll. Der vielleicht beste Umgang mit KI ist die Etikette, mit welcher wir auch Fremden begegnen.

Zum Weiterlesen:

- Blum, Ben Ash (2023): To Navigate the Age of AI, the World Needs a New Turing Test.

- Booth, Robert (2025): Can AI Suffer?

- Microsoft Copilot: Psychosis Risk from AI Chatbots.

- Milmo, Dan (2024): ‘Godfather of AI’ shortens odds of the technology wiping out humanity over next 30 years.

- Sebo, Jeff et. Al. (2024): Taking AI Welfare Seriously.

- Suleyman, Mustafa (2025): We must build AI for people; not to be a person.

Explore more

September 12, 2025

GenAI im Interview: Toni Gau über Journalismus, Lehre und Literatur

Read more

June 27, 2025

Die Welt in 100 Jahren? Zukunftsvisionen in Büchern, Filmen und Serien

Read more

May 27, 2025

„Amusing Ourselves to Death“: Bildschirme als Sinnesorgan?

Read more

Get in touch

Du hast eine Frage oder möchtest herausfinden, wie wir zusammenarbeiten können?
Melde dich gerne hier oder über LinkedIn bei uns – wir freuen uns, von dir zu hören

Martin Orthen

Lust auf einen Coffee-Talk?

martin.orthen@55birchstreet.com