September 12, 2025
.

Wir wollen, dass generative KI demokratisierend wirkt und die Potenziale dieser positiv ausgeschöpft werden – und dafür muss man die Implikationen hiervon verstehen und diskutieren. Das erfordert, auch die eigene Bubble zu verlassen und in andere Branchen zu schauen – heute in Welt der Redaktionen und Lehre, dem Lesen und Schreiben.

Toni Gau ist unser Redakteur bei 55BirchStreet und seit 2019 in verschiedenen Editorials tätig gewesen. Hauptsächlich widmet Toni sich allerdings seinem Masterstudium Deutschsprachiger Literaturen, ist dort selbst in kleineren Lehraufgaben tätig und verfasst obendrein eigene Bücher. Wir haben uns mit ihm zusammengesetzt, um zu diskutieren, wie GenAI all diese Sektoren verändert – positiv, negativ und alles dazwischen.

Moin Toni.

Moin.

Vorab: Wer bist du, was machst du und inwieweit betrifft KI dich als Berufsperson?

Ich bin unser Redakteur. Hauseigen, sozusagen, aber eben als Werkstudent. Eigentlich spielt mein Leben sich viel mehr in der Uni ab. Ich studiere „Deutschsprachige Literaturen“ im Master, sprich bin Germanist, mache dazu auch seit geraumer Zeit verschiedene Tutorien, leite ein Filmforum an der Uni Hamburg – sowas. Nebenbei schreibe ich noch Bücher, aber da habe ich kein Renommee. Im Buchladen sieht man mich also bestenfalls persönlich. Literatur aber tangiert große Teile meines Lebens dementsprechend. Ich arbeite viel mit Sprache, viel mit Lehre, viel mit Kultur. Welcher Sektor hiervon nicht durch KI betroffen ist, ist die bessere Frage.

Du hast schon über ChatGPT geschrieben, längst, bevor dieses öffentlich zugänglich gemacht wurde und bevor die KI-Revolution unserer Moderne stattfand. War das für dich eine absehbare Entwicklung?

Definitiv. Das war etwas, wo ich wusste, das wird mein Leben auf den Kopf stellen und allgemein einen sozialen Wandel bewirken, wenn es hält, was es verspricht. Ich dachte mir wirklich: „Gut, als Redakteur bin ich jetzt obsolet.“ Klingt ein bisschen übertrieben, aber ganz realistisch war mir klar, diese Berufsgruppe wird sich grundlegend verändern, wahrscheinlich sogar schmälern – und es wird riskanter, sich als Schreiber:in zu versuchen. Ich selbst wollte nach der Uni immer in den Journalismus, eigentlich. Das war der Plan seit dem ersten Semester, wurde dann aber kurzerhand über Bord geworfen. Zu meinem Bachelorabschluss war ChatGPT auf seinem vorläufigen Höhepunkt und ich schrieb mich auch deswegen für den Master ein. Alles andere funktionierte für mich nicht länger. Dann gehe ich lieber in die Forschung, dachte ich mir. Ist wahrscheinlich sowieso eher mein Forte.

Eine etwas drastische Reaktion, oder?

Gar nicht. Eine Zeit lang habe ich wöchentlich von Redaktionen gelesen, die Kürzungen durchführten und ihre Schreibenden durch ChatGPT austauschten. Das ist die eigentliche Überreaktion, finde ich: ChatGPT war noch recht neu und zu sagen, das könne auf der Stelle eingeschweißte Redakteur:innen ersetzen…na ja. Der Stand der Redaktionsbranche, jedenfalls: Ob das die Jahre besser wird, wenn LLMs sich so rasant weiterentwickeln und Profit an der Unternehmensspitze steht, bezweifle ich. Content bedachte Unternehmen, die jede Redaktion in der Natur der Sache sind, sind immer profitorientiert. Als erstes die Headline haben, die Berichterstattung, SEO, eine Leser:innenschaft kultivieren – das ist ein Spiel von Zahlen, natürlich. Da bin ich lieber raus. Ich bin sicher, besser als ChatGPT zu schreiben, aber niemals schneller – zumal man nicht in die Redaktionsarbeit geht, um einzig und allein zu redigieren. Digitaler Journalismus liebt nun mal Schnelligkeit. Das ist ein Branchenproblem, seitdem wir uns immer weiter weg vom Print bewegen und LLMs sind dahingehend eine Goldmine. Insbesondere heute, wo Desinformation an der Tagesordnung steht, finde ich das mehr als nur gefährlich.

KI ist laut dir also eine journalistische Gefahr, aber einen gewissen Nutzen hierfür kann man doch nicht abstreiten, oder? Benutzt du KI gar nicht am Arbeitsplatz?

Ich bin kein KI-Zyniker. Meine eigene Skepsis dieser gegenüber rührt ganz logisch daher, dass ich sehe, was GenAI kann. Gefahren und Bedenken müsste man gar nicht erst diskutieren, wären ChatGPT und Co. nicht so leistungsstark, wie es der Fall ist; das ist also auch eine Sache von Ehrfurcht. Klar kann GenAI den journalistischen Prozess unterstützen, das stellen die meisten denke ich auch gar nicht in Frage. ChatGPT ist beispielsweise sehr tauglich, um Ideen zu diskutieren und weiterzuentwickeln, kann stilistisches Feedback geben – auch wenn ich das persönlich meistens misslungen finde, aber kaum Schriftstellende sind sonderlich gut darin, Kritik zum eigenen Text anzunehmen…ich auch nicht (lacht). Basale Recherche ist auch möglich, wenn mit Quellen hinterlegt. Ein toller Thesaurus ist ChatGPT ebenfalls. Aus denselben Gründen, weshalb LLMs jedoch journalistisch assistieren könnten, stelle sie auch eine Gefahr für die Berufsgruppe dar. Und deswegen sind viele Journalist:innen partout so stur, GenAI nicht zu verwenden, wenn möglich. Fraternising with the enemy, und so. Ich versuche meine Nutzung zu minimieren, ja greife eigentlich nur selten zur KI. Meine eigenen Resultate gefallen mir in der Regel ohnehin besser. Vielleicht bin ich da eitel, das ist aber auch Anspruchssache. Alle KI generierten Beiträge, die mir zugeschoben werden, bedeuten in der Regel mehr Arbeit, als wenn ich selbst Hand anlege.

Da steckt also auch ein schriftstellerischer Stolz hinter?

Klar, auch.  Betroffene sagen nicht: „Ach, die KI macht das schon, mich braucht ihr gar nicht“. Schreiben ist Handarbeit, obgleich assistierende Werkzeuge schon immer herangezogen wurden. Der größte Unterschied zwischen einem Thesaurus und ChatGPT, um geeignete Formulierungen zu finden, ist letztendlich der Klima-Fußabdruck.

Ich mache keinen Hehl daraus, dass ich GenAI sehr kritisch gegenüberstehe, möchte deswegen aber auch informiert sein. Ich verstehe jeden Boykott, glaube jedoch, wenn insbesondere kritische Stimmen sich hiermit nicht befassen und in Resignation verfallen, übergeben wir die Kontrolle an die Falschen. Setzen kritische Stimmen sich nicht substantiiert mit GenAI auseinander, werden Entscheidungen hierzu von begeisterungsblinden Tech-Kultisten getroffen.

Und trotzdem befasst du dich viel damit, bist thematisch bewandert.

Natürlich, muss ich ja auch. Allein, weil das integraler Bestandteil von 55BirchStreet ist. Wir schreiben viel drüber, also lese ich viel drüber – und das sammelt sich natürlich an. Das ist mittlerweile auch das dritte Interview, das ich zum Thema gebe, tatsächlich. Ich sage immer, KI ist meine unfreiwillige Expertise (lacht). Irgendwo ist das aber auch eine Sache von Überzeugung. Ich mache keinen Hehl daraus, dass ich GenAI sehr kritisch gegenüberstehe, möchte deswegen aber auch informiert sein. Ich verstehe jeden Boykott, glaube jedoch, wenn insbesondere kritische Stimmen sich hiermit nicht befassen und in Resignation verfallen, übergeben wir die Kontrolle an die Falschen. Setzen kritische Stimmen sich nicht substantiiert mit GenAI auseinander, werden Entscheidungen hierzu von begeisterungsblinden Tech-Kultisten getroffen. Dann hätten wir den Salat. Es ist ja so: Die Technologie wird nicht verschwinden, nur, weil sie einem missfällt. Das muss man akzeptieren. Genauso, wie bloße Euphorie deplatziert ist. Erst nach der Desillusionierung kann man einen verantwortungsvollen Umgang zu prägen beginnen. Es wichtig, dass man Grenzen testet, seine Skepsis kundmacht, auch die Möglichkeiten benennt. Potenzial ist immer ein Spektrum, geht ins Gute und Schlechte über – und wenn man nicht mehr als prinzipielle Ablehnung breitmacht, ohne wirkliche thematische Bildung hierzu, verwirkt man das eigene Mitgestaltungsrecht. Das fände ich gefährlich.

Und du bist bei den Skeptiker:innen?

Faszination und Furcht gehen hier Hand in Hand. Ich will gar nicht unbedingt die Potenziale diskreditieren, sondern die Konsequenzen adressieren. Hardliner aus der Gegengerade bin ich nicht, aber weitaus mehr als in der Fankurve. Damit bin ich bei 55BirchStreet hier und da auch die kritische Gegenstimme. Das liegt aber auch an einem tendenziellen Misstrauen meinerseits.

Wie veräußert sich dieses Misstrauen?

Wie gesagt, ich vertraue nicht darauf, dass die Elon Musks und Co. dieser Welt eine demokratisierende KI gestalten werden. Ethik war nie eine Stärke des Silicon Valleys und in einer idealen Welt, entzieht man ihnen das gesellschaftliche Gestaltungsrecht sofort. Wenn die Führungspositionen am meisten wirtschaftlichen Vorteil aus einer KI ziehen, und die Masse der Arbeitsnehmer:innen hierdurch Risiken statt Erleichterung erfahren, läuft irgendwas erschreckend falsch. KI muss ethisch wie paritätisch gestaltet werden.

Du argumentierst allgemein viel auf dieser Basis, auch in unseren Beiträgen.

Wo wir uns ja auch nicht immer einig werden (lacht).

Aber man findet ja eine Mitte. Auf welcher Basis ist das allerdings dein zentraler Punkt gegenüber GenAI?

Ich könnte jetzt natürlich mein Nebenfach heranziehen, Philosophie, wo man sich unweigerlich mit Ethik auseinandersetzen muss. Das setzt bestimmt eine gewisse Grundlage, wäre als Auslöser aber auch etwas wichtigtuerisch und übertrieben. Anders gefragt: Habt ihr mal Frankenstein oder Jurassic Park geguckt oder gelesen?

Nicht dein Ernst.

Doch, total. Kleiner Fun Fact, der wenigen aufzufallen scheint: Beide Bücher haben so ziemlich denselben Plot. Manische Wissenschaftler, die so obsessiv ihrer Forschung gegenüber sind, dass sie nie die Konsequenzen ihrer eigenen Schöpfung überdenken.

Okay, tell me more...

Da ist Dr. Ian Malcolm aus Jurassic Park mein Leitfaden: “Your scientists were so preoccupied with whether they could, they didn't stop to think if they should.” Ein Grundgedanke, mit dem ich sehr gut fahre und der mir regelmäßige Enttäuschung bereitet (lacht).

Ich bezweifle, dass man herausragende, verborgene Ergebnisse aus ChatGPT rausholen kann, weil man Hausarbeiten zu Faust und dem Nibelungenlied geschrieben hat. Da hat das Silicon Valley gar nicht genug Ahnung, was wir so im Studium treiben, um derartige Rückschlüsse zu ziehen.

Wenn wir schon bei deinem Studium sind: Es wurde dazu aufgerufen, mehr Leute sollten in die Sprachwissenschaft, denn Sprache sei der Schlüssel, um das meiste aus LLM’s herauszuholen. Wie siehst du das?

Schwierig. Tendenziell studiert denke ich niemand Germanistik, weil man so gerne mit ChatGPT arbeiten will; das widerspricht allgemein dem Ethos der Geisteswissenschaften. Und um zu verstehen, ob die Grundidee stimmt, sollte man nochmal unterscheiden. Germanistik, im Bachelor zumindest, hat drei Disziplinen: Neuere deutsche Literatur, ältere deutsche Sprache und Literatur und Linguistik. Ich bezweifle, dass man herausragende, verborgene Ergebnisse aus ChatGPT rausholen kann, weil man Hausarbeiten zu Faust und dem Nibelungenlied geschrieben hat. Da hat das Silicon Valley gar nicht genug Ahnung, was wir so im Studium treiben, um derartige Rückschlüsse zu ziehen. Linguistik aber ist eine andere Sache, denn das ist die eigentlich erforderte Disziplin. Ich spekuliere, ob Linguistik generell zum eigenständigen Studium wird. Im Master ist es das, zumindest an der UHH, aber nicht im Bachelor. Vielleicht separiert sich das, gerade wegen aktuellen Sprachmodellen. Wird sich in Zukunft zeigen. Generell muss aber gesagt sein, dass die Germanistik momentan etwas Personalmangel hat und wir um Neuzugänge kämpfen. Da sind wir glaube ich nicht wählerisch – also, wenn ChatGPT den nächsten Boom der Geisteswissenschaften birgt…na gut. Ein Pyrrhussieg. Ob LLMs überhaupt dieses verborgene Potenzial besitzen, wie vorausgestellt, ist nochmal ein Thema für sich.

Liegt in GenAI denn gegebenenfalls eine Gefahr für die universitäre Lehre vor?

Das ist ein Irrglaube, den ich zugegeben nie verstanden habe: Der Gedanke, Universitäten – Bildungsinstitutionen, wo sich einige der klügsten Köpfe ihres Landes versammeln – seien auf einmal maßlos überfordert, wenn Studierende ChatGPT heranziehen. Als wäre das System hiermit lahmgelegt – das ist Schwachsinn. Genauso wie der Gedanke, Universitäten seien prinzipiell kontra GenAI, weil diese eine Gefahr für die Bildung oder irgendetwas in der Richtung darstellen würden. Das ist schlicht und ergreifend falsch. Viele Universitäten bieten ihren Studierenden sogar personalisierte LLMs an, welche sie im Studium begleiten. Oxford, beispielsweise. Auch die Uni Hamburg ist hier bereits an Bord, wobei UHHGPT noch etwas hinterherhängt, ehrlich gesagt. Man verweigert sich nicht dem Fortschritt; Lern- und Forschungsmöglichkeiten sind schließlich allemal gegeben.

Hier beginnt das Missverständnis: Was Universitäten nämlich dezidiert nicht tolerieren – und das ist vollends unabhängig von ChatGPT und Co. – sind Betrugsversuche. Leider liegt hier aber das primäre Einsatzgebiet von ChatGPT an Universitäten und gesucht wird somit ein Kompromiss, der die Nutzung von GenAI fördert, ohne gleichzeitig den Missbrauch zu befeuern. Ich selbst merke das auch; ChatGPT hat eine recht festgefahrene Stilistik und ist nicht schwer zu identifizieren. Viele meiner Seminare erfordern kleine Essays oder Forumsbeiträge, die somit für alle zugänglich sind. Zu sehen, wer selbst geschrieben hat und wer nicht, ist schnell zu erahnen – und wenn sich das häuft, wenn immer mehr Studierende, ihre Hausaufgaben an die Maschine delegieren, muss natürlich ein Riegel vorgeschoben werden. Zu glauben, dieses System sei so fragil, dass man hierauf jedoch keine Gegenmaßnahmen finden würde, ist ziemlich naiv.

Zum Beispiel?

Es gibt mehr Prüfungsparameter als Essays und Hausarbeiten, so viel ist klar. In Amerika feiern aktuell die sogenannten Blue Books ihre Renaissance. Kleine Prüfungsheftchen mit Aufgabestellungen oder Essaythemen, die in Präsenz und handgeschrieben bearbeitet werden. Eine etwas dekadent geratene Klausur, sozusagen, die längst als aus der Zeit gefallen galten, nicht zuletzt ihrer Unbeliebtheit bei den Studierenden wegen. Die haben aktuell aber ihr unerwartetes Comeback – und Schuld hat da auch nicht die KI, sondern die Riege an Studierenden, die sich denkt, das wird schon niemand merken. Meine Dozent:innen besprechen die erhöhte Wiedereinführung von mündlichen Prüfungen und Klausuren, analoge Arbeit allgemein. Geisteswissenschaftlich suboptimale Methoden, aber eine Antwort auf aktuelle Entwicklungen.

Man muss verstehen, dass schreiben nicht das Festhalten von Gedanken ist, sondern die Weiterentwicklung hiervon; man denkt durch das Schreiben selbst.

Gibt es einen Grund, warum Betrugsversuche aktuell überhandnehmen?

Eine Dozentin, für welche ich ein Tutorium übernehme, sagte aufgrund der sich häufenden KI-Essays letztens zu mir: „Studierende gehen in der Regel aus zwei Gründen an die Universität: entweder um zu lernen, oder um ihren Abschluss zu machen.“ Das trifft den Nagel wohl auf den Kopf, wenn auch mit Ausnahmen. Ich will gar keine allgemeine Faulheit unterstellen – daran glaube ich nicht. Gerne wird immerhin unterschätzt, wie voll auch die Kalender von Studierenden sind und mancher „Betrugsversuch“ ist simple Notfalllösung oder Abkürzung. Die strikte Unterteilung in eins dieser beiden Lager, fände ich zynisch. Die Masse machts. Dennoch, so viel können wir aktuell rückschließen: Es sind weitaus mehr Teil von der zweiten Kategorie, als erhofft. Auch für die Dozierenden, soweit ich das aus Gesprächen beurteilen kann.

Dabei sind beispielsweise Multiple Choice Tests doch zeitsparender als Essay um Essay zu lesen.

Natürlich – Essays sind aber nicht verpflichtend, versteht sich. Dozierende, die sich hiermit nicht befassen wollen, erfordern diese dementsprechend auch nicht und stellen andere Studienleistungen. Essays sind aber eine schöne Prüfungsform; darum sind Hausarbeiten auch so tief in unserem Curriculum verankert, prüfen sie genau das, was wir im Studium zu lernen erzielen. Letztendlich denkt man kritisch über einen Themengegenstand nach und formuliert die eigenen Ideen hierzu auf Papier, fördert somit also gleichermaßen die eigene Argumentationskompetenz. Man muss verstehen, dass schreiben nicht das Festhalten von Gedanken ist, sondern die Weiterentwicklung hiervon; man denkt durch das Schreiben selbst. Viele Dozierende genießen obendrein diesen Austausch, meiner Erfahrung nach, und nun schwindet dieser, verkommt zu plumper, didaktischer Lehre. Der Verlust des Essays, tut keiner der beiden Parteien einen Gefallen. Chris Hedges stellte einmal passend fest, die Geisteswissenschaften unterrichten wie man denkt, nicht was man denkt. Es versteht sich selbst, welche Prüfungsform hier am tauglichsten ist.

Ein schöner Übergang: Kürzlich ging eine Studie viral, welcher zufolge GenAI das kritische Denken von Schüler:innen und Studierenden negativ beeinflusst. Das ist also eine Gefahr, die du für realistisch empfindest?

Das ist doch jedes Mal dieselbe alte Leier. Ich rolle da nur noch mit den Augen.

Wieso?

Das diskutieren wir schon seit Jahrzehnten auf diesem Niveau, wenn nicht länger. „Dieser Fernseher verdummt die Jugend! Diese Videospiele machen aggressiv! Wegen Social Media haben die Kids die Aufmerksamkeitsspanne eines GOLDFISCHES! Und ChatGPT nimmt ihnen das Denken!“ Es ist immer dasselbe und das Problem wird grundlegend falsch ausgelegt, weil wir, metaphorisch gesagt, Sympotmatiken statt der eigentlichen "Krankheit" diskutieren. Etwas harscher Vergleich, ich weiß. Was ich meine: Ja, unsere Aufmerksamkeitsspanne wird verkürzt durch Social-Media-Plattformen, doch vor allem wegen Konzernen, die eine Aufmerksamkeitswirtschaft bedienen und hier bewusst Mechanismen integrieren, die aktiv Suchtverhalten fördern, etwa gängige Systeme aus dem Glücksspiel in Form des Infinite Scrollings nutzen. Die Technik ist nur genau das: Technik. Ein Strohmann für die unterliegende Problematik. Es ist eine lästige Diskussion, wirklich.

GenAI hat hier natürlich einen etwas anderen Stellenwert – und ich will ein gewisses Risiko gar nicht abstreiten, so wie jede Bequemlichkeit Risiken birgt. Denken die Leute weniger kritisch, wenn sie eine Maschine für sich denken lassen?, ist effektiv dieselbe Frage wie: Ist Wasser nass? Diejenigen, die einen intrinsischen Wissensdurst haben, werden jedoch nicht plötzlich kopflos, weil irgendeine Wundermaschine ihnen Antworten ausspuckt. Die geben sich hiermit gar nicht zufrieden. Da will man doch tiefer graben. Wissen, warum etwas so ist und Lücken füllen. Anders gesagt: forschen. Das erodiert sich nicht einfach aus. So machen wir als Menschheit immerhin Fortschritt, ist aber nicht jedermanns Sache – völlig klar und okay. Gibt es also Menschen, die hiervon betroffen sind und ihr kritisches Denken abbauen könnten? Bestimmt. Das schaffen Kandidaten wie Die Bild, Trump, suspekte Internetforen und was auch immer mindestens genauso. ChatGPT hat mir nicht vorgekaut, Ausländer:innen in Springfield würden Hunde essen. Desinformation und unsere Technologie- und Medienlandschaft selbst sind die eigentlichen Endgegner von Aufmerksamkeit und kritischem Denken, GenAI einfach nur eine weitere Spielfigur und Ventil hierfür. Eine, die sich sehr gut skandalisieren lässt.

Was würde deiner Meinung denn kritisches Denken fördern?

Lesen und schreiben hilft sicherlich. Dafür brauchen wir auch Journalist:innen und Redakteur:innen.

Ein gutes Schlusswort?

Jap. Da schließt sich der Kreis.

Explore more

September 12, 2025

KI-Knigge: Müssen wir LLMs mit Höflichkeit begegnen?

Read more

June 27, 2025

Die Welt in 100 Jahren? Zukunftsvisionen in Büchern, Filmen und Serien

Read more

May 27, 2025

„Amusing Ourselves to Death“: Bildschirme als Sinnesorgan?

Read more

Get in touch

Du hast eine Frage oder möchtest herausfinden, wie wir zusammenarbeiten können?
Melde dich gerne hier oder über LinkedIn bei uns – wir freuen uns, von dir zu hören

Martin Orthen

Lust auf einen Coffee-Talk?

martin.orthen@55birchstreet.com