März 31. '239.30 Uhr

Künstliche Intelligenz: 
Kann KI einen Ghostwriter oder Texter ersetzen?

Von Ralf Isau

Seit das Unternehmen OpenAI im November 2022 seinen Chatbot ChatGPT ins Internet ausgewildert hat, spricht alle Welt über Künstliche Intelligenz: TV-Nachrichten, IT-Spezialisten, »Stammtisch-Experten«, Marketing- und Service-Verantwortliche in Organisationen, Kreative – eigentlich jeder. Für Ghostwriter, Texter und Autoren stellt sich die Frage: Kann KI einen Menschen ersetzen? Verfassen Computer ähnlich gute oder gar bessere Texte als menschliche Schreiber? Dieser Artikel gibt Antworten, die bestimmt nicht jedem gefallen.

Als gelernter Informatiker und faszinierter Leser guter Science-Fiction befasse ich mich seit mehr als vier Jahrzehnten mit Künstlicher Intelligenz. In den letzten Jahren höre und lese ich immer öfter, es gebe Programme, die ganze Bücher schreiben könnten: Sachbücher, Biografien und sogar Romane. Das ist sogar richtig. Ebenso richtig, wie es seit den 1950er-Jahren von Maschinen generierte Grafiken gibt.

Scheinkreativität, Geschwätzigkeit und echte Schöpfungstiefe

Der heutige Hype um ChatGPT erinnert mich nämlich an die 1960er- und 1970er-Jahre mit ihrer Euphorie für die sogenannte »Computerkunst«. Diese war mitnichten der Kreativität kybernetischer Gehirne entsprungen, sondern lediglich von Menschen programmierte Grafik. Damals genügte noch der Anschein von künstlerischer Gestaltung, um Begeisterung auszulösen. Ähnliche Begeisterung wie Eltern sie zeigen, wenn ihr kleiner Fratz zum ersten Mal eine Figur malt, bei der die Arme und Beine nicht direkt am Gesicht angewachsen sind.

»Dripping paint» – Computerkunst
»Dripping paint« – Hier war nicht der Computer kreativ, sondern die Menschen, welche die Computerkunst programmiert haben

Ähnlich bringt heute die Künstliche Intelligenz Gefühle in Wallung. Nicht nur durch utopische Erwartungen, sondern auch durch dystopische Visionen einer von Maschinen versklavten Menschheit. Elon Musk hält Künstliche Intelligenz für die »größte existenzielle Gefahr der Menschheit«. Aus diesem Grund engagierte er sich als Gründungsmitglied finanziell und beratend im Unternehmen OpenAI.

Übersteigerte Vorstellungen herrschen auch in Bezug auf die Rolle von Chatbots als intelligente »Schreibmaschinen«. Zugegeben, KI-Sprachmodelle wie das von ChatGPT produzieren mühelos Texte in natürlicher Sprache. Deshalb halten sie manche für geniale Textautomaten: Statt einer Münze wirft man oben eine Textaufgabe hinein, Prompt genannt, und schon spuckt der Bot perfekten Wort-Output aus: Webseiten, Marketingtexte, Gedichte, PR-Artikel und sogar Romane.

Bei so viel Optimismus sei die Frage erlaubt: Erwecken heutige Chatbots, deren Geschwätzigkeit auf Künstlicher Intelligenz beruht, nur den Anschein von Kreativität? Einen Text zu generieren, der sich grob der Kategorie »Buch« zuordnen, heißt nämlich nicht, dass dieser auch echte Schöpfungstiefe besitzt. Entscheidend ist doch, wer schenkt solchen Automatentexten mehr als nur oberflächliche Aufmerksamkeit?

Kann KI große Romane und Erzählungen schreiben?

Will wirklich jemand einen Roman lesen, den kein kreativer Prozess, sondern ein Sprachmodell hervorgebracht hat? Vielleicht erwidern Sie: »Warum nicht? Wenn man beides nicht voneinander unterscheiden kann? So wie bei diesem Turing-Test, wo ein menschlicher Fragesteller nicht mehr erkennen kann, ob die Antworten von einer Maschine stammen.«

Punkt für Sie! Wenn ein KI-Ghostwriter oder KI-Texter mindestens genauso gute oder bessere Texte verfasst wie ein schreibkundiger menschlicher Autor, dann wäre die Künstliche Intelligenz eine echte Alternative.

Aber kann sie das? Wird KI in absehbarer Zeit echte Schöpfungstiefe hervorbringen, wie man sie in einem großen Roman oder einer packenden Erzählung findet? Oder erreicht sie nur das Niveau eines geschwätzigen Textautomaten? Vermag Künstliche Intelligenz mithilfe von Sprachmodellen einen neuartigen Plot zu entwerfen? Kann KI einen sich im Verlauf der Geschichte steigernden Spannungsbogen entwickeln? Wird sie in die Story Cliffhanger und Wendungen einbauen, die den Leser immer wieder aufs Neue überraschen und alles bisher Dagewesene in den Schatten stellen? Vermag KI schillernde, witzige oder vielschichtige Figuren zu entwickeln? Kann Künstliche Intelligenz letztlich all diese konzeptionellen Elemente in ein leicht lesbares, stilistisch perfektes Manuskript gießen?

Sie wollen eine kurze Antwort? Nein, kann sie nicht!

Hartmut Gieselmann, Autor beim Computermagazin c't wollte es genau wissen. Er formulierte für einen Chatbot den Prompt: »Schreibe mir einen Roman im Stil von James Joyce.« Das Ergebnis beschrieb der Kollege als »belangloses Geplänkel« (c't 2023, Heft 5, S. 65). Zwar habe die Künstliche Intelligenz, so seine Begründung, die Stimmung eines Genres und Autors einfangen können, doch »keine fesselnde Geschichte« erzählt. Aber genau darauf kommt es an bei einem Roman, einer Novelle oder einem anderen belletristischen Werk: Auf spannendes Geschichtenerzählen.

Künstliche Intelligenz, die mitreißende Romane schreibt und Literaturpreise einheimst, ist Science-Fiction. In der realen Welt produzieren KI-gestützte Sprachmodelle im besten Fall eine seichte Aneinanderreihung von Worthülsen, Banalitäten und Versatzstücken hinlänglich bekannter Geschichten. KI-Romanen fehlt der Funke der Genialität, der auf unterschiedlichste Weise in jedem Bestseller steckt. Das zeigte sich schon in meinem allerersten Test des Chatbots von OpenAI (zum Lesen der Story und meiner Analyse bitte auf folgende Überschrift klicken):

Als meine Tochter noch Windeln trug, erzählte ich ihr ab und zu fantasievolle Märchen. Eins handelte vom Halbgelbbäuchigen Zwiebelsaftsauger. Dabei handelt es sich um eine bisher unentdeckte Vogelart, die sich von Zwiebelsaft ernährt und dessen Bauch nur zur Hälfte gelb ist. Bei meinen ersten Tests von ChatGPT Anfang 2023 erinnerte ich mich an das possierliche Vögelchen. Deshalb bat ich den Chatbot: »Erzähle mir eine Geschichte von einem halbgelbbäuchigen Zwiebelsaftsauger.« Hier der Output der Künstlichen Intelligenz:

ChatGPT-Output
Zwieby

Es war einmal ein kleiner halbgelbbäuchiger Zwiebelsaftsauger namens Zwieby. Zwieby war anders als alle anderen Zwiebelsaftsauger, denn er hatte nur eine Hälfte seines Bauches in der Farbe gelb. Er wurde oft ausgelacht und gemieden von den anderen Zwiebelsaftsaugern in seinem Dorf, weil er anders aussah.

Eines Tages beschloss Zwieby, dass er genug hatte von dem ständigen Spott und beschloss, auf ein Abenteuer aufzubrechen, um herauszufinden, wie er seinen Bauch vollständig gelb färben konnte. Er packte seine Sachen und machte sich auf den Weg.

Nach vielen Tagen des Wanderns und des Suchens, traf Zwieby schließlich auf eine alte Zwiebel, die ihm sagte, dass die einzige Möglichkeit, seinen Bauch vollständig gelb zu färben, darin bestehe, eine besondere Zwiebel zu finden, die in den Bergen wächst. Die alte Zwiebel gab ihm auch eine Karte, die ihm den Weg zu dieser besonderen Zwiebel zeigen sollte.

Zwieby folgte der Karte und kletterte die Berge hinauf. Nach vielen Tagen des Kletterns und des Suchens, fand er schließlich die besondere Zwiebel. Er aß sie auf und sein Bauch wurde tatsächlich vollständig gelb.

Als Zwieby zurück in sein Dorf kam, waren alle überrascht, ihn vollständig gelb zu sehen. Sie entschuldigten sich für ihr früheres Verhalten und baten ihn, bei ihnen zu bleiben. Zwieby war glücklich, endlich akzeptiert zu werden und beschloss, in seinem Dorf zu bleiben und seine Abenteuer zu teilen, um andere zu inspirieren, ihre Unterschiede zu akzeptieren und ihre Träume zu verfolgen.

Analyse

Auf den ersten Blick dachte ich: Wow, das hat eine Maschine geschrieben? Unglaublich! Aber dann meldete sich der Lektor in meinem Kopf: Schon der Name Zwieby ist bei einem Zwiebelsaftsauger nicht sonderlich originell. Welcher Kinderbuchautor würde bei einer Geschichte über einen Hund seinen Helden »Hundy« nennen?

Mein innerer Lektor mäkelte fast an jedem Satz herum. Die Formulierung »denn er hatte nur eine Hälfte seines Bauches in der Farbe gelb« klingt nicht nach großer Formulierkunst. Besser und kindgerechter wäre »sein Bauch war nur zur Hälfte gelb« gewesen. Ähnlich verunglückt ist die Formulierung »beschloss Zwieby, auf ein Abenteuer aufzubrechen« – »zu einem Abenteuer aufzubrechen« oder »sich in ein Abenteuer zu stürzen« wäre eleganter. Außerdem enthält der Satz mit dem Doppelung von »beschloss« eine unschöne Wiederholung, die ein menschlicher Kinderbuchautor ohne jede Frage vermieden hätte. Und dann diese Passivkonstruktionen wie »Er wurde oft ausgelacht«! Wer hat Zwieby denn ausgelacht? Seine Freunde? Seine Artgenossen? Einfach jeder in seinem Dorf? Ein aktiver Satz wie »Jeder in seinem Dorf lachte ihn aus.« brächte Klarheit und mehr Dynamik in die Erzählung.

Eine andere Unschönheit ist der häufige Gebrauch von Konstruktionen mit dem Wörtchen »dass«. Der Hammer ist der Satz »Nach vielen Tagen des Wanderns und des Suchens, traf Zwieby schließlich auf eine alte Zwiebel, die ihm sagte, dass die einzige Möglichkeit, seinen Bauch vollständig gelb zu färben, darin bestehe, eine besondere Zwiebel zu finden, die in den Bergen wächst.« Dieser Bandwurm ist 40 Wörter lang! Ein klares Indiz, dass die Mehrzahl der Autoren, mit deren Texten das Sprachmodell trainiert hat, nicht das vierte Stilgebot kennen: »Fasse dich kurz«. Nebenbei bemerkt ist auch das erste Komma in dem verbalen Güterzug falsch.

Was heutzutage gar nicht geht, ist die diskriminierende Botschaft der Geschichte. Zwieby ist anders als der Rest des Dorfes und wird deshalb ausgegrenzt. Darum zieht er in die Welt hinaus, um eine Methode zu finden, sich allen anderen anzugleichen. Nachdem ihm dies mithilfe einer sprechenden Zwiebel (wie einfallslos!) gelungen ist, kehrt er zurück. Jetzt ist Zwieby so wie alle anderen und wird akzeptiert. Das Dorf entschuldigt sich für die Ausgrenzung und sagt sinngemäß: »Sorry, dass wir dich gemobbt haben. Deine Besonderheit ist jetzt ausgelöscht; du darfst bleiben.«

Political Correctness geht anders. Inklusion geht anders. Anti-Diskriminierung geht anders. Die Moral von der Geschichte: Intoleranz siegt. Bist du anders, dann mach dich unsichtbar oder verschwinde.

Spätestens der Chatbot-Test hat mir die Augen geöffnet. Künstliche Intelligenz ist hirnlose Intelligenz. Sie ist meilenweit davon entfernt, einen menschlichen Autor zu ersetzen. Ich zweifle daran, ob sie es jemals kann.

Eignet sich Künstliche Intelligenz zum Schreiben von Drehbüchern?

Was auf die schöngeistige Literatur zutrifft, lässt sich umso mehr auf Drehbücher für Filme übertragen. Gerade große Produktionen fürs Kino, TV und für Streamingdienste wie Netflix & Co. verschlingen oft Millionenbeträge. Kein Investor würde dabei auf ein Pferd setzen, das noch nie ein Rennen gewonnen hat. Redakteure des Magazins Focus fragten kürzlich Nico Hoffmann, Chef der Babelsberger Ufa-Studios: »Alle Welt redet neuerdings über künstliche Intelligenz. Wann schreibt Software die ersten Drehbücher?« Seine Antwort:

»Nie. Genauso wenig werden vermutlich investigative Recherchen des Focus je von KI übernommen. Das Thema […] bleibt in einer Kreativbranche wie unserer ein Hilfsmittel, wenn auch ein spannendes. KI wird die Arbeit von kreativen Drehbuchschreibenden nicht ersetzen können. Kreative Prozesse sind so vielschichtig und teilweise auch irrational, da braucht es ein feines Gespür für Zwischenmenschliches, das keine Maschine leisten kann.« (Focus 11/2023, S. 56)

Um zu verstehen, warum das Erschaffen einzigartiger Kreationen bislang dem Menschen vorbehalten bleibt, wollen wir uns das grundlegende Prinzip Künstlicher Intelligenz genauer ansehen. Dazu vergleichen wir es mit dem menschlichen Gehirn. Keine Sorge, es wird nicht allzu wissenschaftlich. Ich beschränke mich auf Aspekte zu unserer Fragestellung: Kann Künstliche Intelligenz einen Ghostwriter oder Texter ersetzen?

Brainware: Paralleluniversum im Kopf

Vor rund dreißig Jahren verschlang ich das 1986 erschienene Fachbuch Parallel Distributed Processing – Explorations in the Microstructure of Cognition von David E. Rumelhart und James L. McClelland. Das Forschungsteam rund um die beiden Wissenschaftler wollte die Architektur des menschlichen Geistes ergründen. Es konzentrierte sich darauf, Maschinen das Erkennen von Mustern beizubringen.

Hierzu beschrieb das Forscherteam die Grundlagen des maschinellen Lernens in mehrschichtigen Feedforward-Netzen. Dabei stützte es sich auf Grundprinzipien, die aus den 1960er-Jahren stammten. Vereinfacht ausgedrückt schufen die Forschenden künstliche Nervenzellen (Neuronen), die in der Lage waren, sich untereinander zu verbinden. Die Übermittlung von Signalen zwischen zwei Neuronen geschieht im Computer wie in der Natur über elektrische Impulse, die durch Leiterbahnen fließen. Die biologischen »Kabel« sind mitunter weit verzweigte Fortsätze der Nervenzellen, sogenannte Axone und Dendriten. Synapsen bilden die Kontaktstellen zwischen zwei Neuronen.

Ein einzelnes Neuron des menschlichen Gehirns kann bis zu 200.000 Synapsen besitzen. Ungefähr 100 Milliarden dieser kontaktfreudigen Nervenzellen teilen sich den begrenzten Raum in unserem Schädel. Die Zahl der theoretischen Verbindungen im Gehirn ist größer als die Summe aller Atome in sämtlichen Galaxien. Anders als eine Recheneinheit im Computer (CPU), die Daten nacheinander verarbeitet, sind im neuronalen Netz des Gehirns viele Areale gleichzeitig aktiv. Dank seiner enormen Fähigkeit zur Vernetzung und parallelen Informationsverarbeitung ist unser Gehirn das komplexeste System des Universums. Ein Poet würde sagen: Jeder Mensch trägt ein Paralleluniversum mit sich im Kopf herum.

Manche behaupten, die Künstliche Intelligenz eines Computers könne mehr leisten als ein Mensch. Genauso gut ließe sich behaupten, ein Bagger könne mehr leisten als ein Mensch. Beides stimmt. Und beides ist falsch. Weil man zur Beurteilung der Leistungsfähigkeit eines Systems nicht nur einen einzigen Aspekt herausgreifen darf. Leider sind die meisten Vergleiche zwischen Computer und Mensch stark vereinfachend. Sie verschleiern die wahre Dimension und Komplexität des natürlichen Vorbilds, der bei jedem Menschen individuellen Brainware. Bislang ist »das große Ziel, die Funktionsweise des Gehirns vollständig zu verstehen und nachzubilden, noch unerreichbar« (c't 2023, Heft 4, S. 139).

Reizthema

Wissenschaftler bezeichnen die Summe aller Verbindungen in einem neuronalen Netz als Konnektom. Dieses entwickelt seine Struktur aus einem schwach definierten Anfangszustand heraus durch schrittweises Lernen. Biologische Gehirne nutzen dazu Reize, die bestimmte Nervenzellen erregen. Wenn etwa die Sehzellen unserer Netzhaut das Bild eines Kreises empfangen, transportiert der Sehnerv die Lichtreize als elektrische Impulse ins Zwischenhirn. Von dort wandern die Erregungen in den visuellen Cortex der Großhirnrinde, wo entsprechende Nervenzellen sie weiterverarbeiten.

Weiterverarbeiten heißt in dem Fall, die elektrischen Impulse, die sogenannten Spikes, an andere Neuronen durchzureichen, die mit dem Bild des Kreises etwas anfangen könnten. Ehe das geschieht, bevor also eine Nervenzelle feuert, muss die Erregung einen Schwellwert überschreiten. Dieses Erregungsniveau addiert sich aus den einzelnen Spikes, die unsere Nervenzelle von anderen Neuronen empfängt, welche beim Anblick des Kreises ebenfalls elektrische Reize erhalten und weiterleiten.

Vereinfacht ausgedrückt, besitzt unser Gehirn also eine neuronale Repräsentation für jeden erlernten Seheindruck. Für alles, was wir gelernt haben, für alles, woran wir uns erinnern können, existiert im Gehirn ein verzweigtes Erregungsmuster, das sich aus der Gesamtheit der Schwellwerte der miteinander verbundenen Neuronen ergibt. Im Magnetresonanztomografen kann man diese Muster sichtbar machen.

Im Lernprozess versucht das Gehirn ständig, Ergebnisse vorherzusagen. Trifft eine Vorhersage nicht ein, reagiert es mit erhöhter Aufmerksamkeit. Belangloses indes gelangt erst gar nicht ins Bewusstsein. Wichtiges dagegen bekommt eine höhere Priorität und kann die Schwellwerte verändern. So modelliert und speichert unser Gehirn gewissermaßen neue Erinnerung. Je öfter bestimmte Reize ein Erregungsmuster unter Strom setzen, desto stärker wird die Vernetzung. Deshalb ist »Wiederholung die Mutter eines guten Gedächtnisses«, wie der Volksmund sagt. Neurologen sprechen von der Plastizität des Gehirns. Bei gesunden Menschen besitzt es die Fähigkeit, sich selbst immer wieder umzubauen, sich quasi neu zu programmieren, bis ins hohe Alter.

Neben der Fähigkeit, sich ständig neu zu vernetzen, kann das Gehirn auch neue Neuronen ausbilden. Bis zum zweiten Lebensjahr entstehen in jeder Sekunde etwa 2.000 neue Nervenzellen und zwei Millionen synaptische Verbindungen. Auch das ist eine Fähigkeit, die künstlichen neuronalen Netze (KNN) bislang fehlt.

Heutige KNN ahmen Plastizität lediglich im Hinblick auf die Schaffung neuronaler Verbindungen nach. Dabei kommt es nicht darauf an, die Biologie mithilfe technischer Elemente genau nachzubauen. Der Computer simuliert nur die Art der Ergebnisfindung durch ein künstliches System aus Neuronen, Vernetzungen, Schwellwerten und Spikes. Hierzu benutzt man immer leistungsfähigere Rechner aus einer großen Zahl parallel arbeitender Prozessoren. So besteht der Großrechner SpiNNaker1 (Spiking Neural Network Architecture) aus einer Million Smartphone-Chips. Die sprunghafte Entwicklung von KI-Sprachmodellen in jüngster Zeit ist hauptsächlich dem Leistungsschub solcher Hardware zu verdanken.

Abgesehen von solchen Maßnahmen zur Leistungssteigerung, beruht die Lernfähigkeit der KI im Wesentlichen auf Software, die ein virtuelles neuronales Netz bildet. Es gibt in diesem »Betriebssystem« keine Algorithmen für Ethik, Moral oder Political Correctness. Alles, was ein KNN kann, ist Lernen und Wiedergeben. Wie Software künstliche Neuronen vernetzen und daraus Output erzeugen kann, weiß man seit Jahrzehnten.

Künstliche Intelligenz ist ein Wiederkäuer

In einem KI-Sprachmodell gibt es also keine ausgeklügelten Programmroutinen zum Formulieren von Texten oder Generieren von Bildern. Die Ausgaben der Text- und Bildgeneratoren beruhen lediglich auf statistischen Häufungen und Wahrscheinlichkeiten ohne Garantie auf Richtigkeit: Beim Training benutzt die KI Input-Output-Paare, um seine kybernetischen Synapsen schrittweise auf ein gewünschtes Ergebnis einzustellen. Ähnlicher Input erzeugt nach der Lernphase ähnlichen (den wahrscheinlichsten) Output. Füttert man das KNN oft genug mit der Information »Mark Zuckerberg und Bill Gates sind Echsenmenschen«, wird es stärker dazu neigen, uns öfters mal Verschwörungstheorien über Reptiloiden unterzujubeln.

KI-Sprachmodelle, die man mit einer willkürlichen Auswahl von Texten trainiert, unterliegen den Regeln der Stochastik (Mathematik der Daten und des Zufalls). Der Mathematiker Carl Friedrich Gauß hat schon im 18. Jahrhundert herausgefunden, wie sich viele kleine unabhängige Zufallseffekte im Verhältnis zu einem Mittelwert verteilen. Bestimmt kennen Sie die nach ihm benannten glockenförmigen Kurven, welche die Häufigkeit der Abweichungen vom Sollmaß darstellen. Betrachten Sie dazu bitte einmal die folgende Grafik.

Normalverteilung nach C. F. Gauß
Spektrum der Textqualität in Normalverteilung nach C. F. Gauß

Der Kurvenverlauf beruht nicht auf echten Messdaten aus KI-Sprachmodellen, sondern soll lediglich grob die Normalverteilung der Qualität von Texten veranschaulichen. Diese bewegt sich im Beispiel zwischen -4 für »maximal schlecht« bis +4 für »maximal gut«. Ein durchschnittlicher Mir-nichts-dir-nichts-Text würde auf dieser Skala den Wert null belegen. Nach der beispielhaften »Gauß-Glocke« im Bild würden gut zwei Drittel aller Texte nur Mittelmaß sein. Den Schritt zur nächsten Qualitätsstufe schaffen nicht einmal 5 Prozent der Texte. Sehr gute bis maximale Qualität findet sich nur im Bereich der letzten 0,3 Prozent. Da nun KI-Sprachmodelle wie GPT-4 ihre Ausgaben an der größten Wahrscheinlichkeit einer passende Antwort orientieren, sind extrem gute oder auch nur gute Texte so gut wie nie zu erwarten.

Ähnliches gilt für die Political Correctness, also das, was man sagen darf oder worüber man lieber schweigen sollte. Da im Trainingsmaterial früher KI-Modelle ein höherer Anteil hellhäutiger Menschen vertreten war, zeigten sie eine deutliche Tendenz, Personen anderer Hautfarben zu benachteiligen. Auch dem Feminismus gegenüber zeigt sich die Künstliche Intelligenz noch lange nicht so aufgeschlossen, wie viele Frauen es sich wünschen. KI besitzt keine Werte wie Toleranz und Gleichberechtigung. Wenn die Trainingsdaten bedenklich oft diskriminierende Tendenzen aufweisen, sagt die KI nicht: »Das ist ein falsches Mindset. Dagegen wehre ich mich.« Merke: Künstliche Intelligenz ist ein Wiederkäuer.

Vorsicht »Alternative Fakten«!

Deshalb ist KI anfällig für »alternative Fakten«. Die im Internet geposteten Meinungsäußerungen zeigen ja kein repräsentatives Stimmungsbild der Bevölkerung. Frei nach dem Motto »Wer am lautesten schreit, hat Recht« blasen Verschwörungstheoretiker und Radikale verschiedenster Couleur zu manchen Themen massenweise verbale Flatulenzen ins Netz. Da wird dann der Klimawandel geleugnet, das Tragen von Aluhüten empfohlen oder die Manipulationsgefahr durch Mikrochips in Covid-19-Impfungen heraufbeschworen. Kein Wunder, dass beim Aufruf von ChatGPT der Warnhinweis erscheint: »Kann gelegentlich falsche Informationen erzeugen.«

Selbst wenn das World Wide Web eine exakte Kopie des Meinungsbildes zeigen würde, muss die Meinung der Masse nicht unbedingt die wissenschaftlich belegten Fakten widerspiegeln. Die Geschichte ist voller Irrungen und Wirrungen. Denken wir nur an die Form der Erde. Lange glaubte die Mehrheit der Menschen, sie gleiche einer flachen Scheibe, obwohl Denker wie Eratosthenes schon vor über 2.000 Jahren ihre Kugelform bewiesen haben. Gerade abseits der sogenannten exakten Wissenschaften, beginnt das Reich der Meinungen und Spekulationen. Auf meine Frage »Was ist der Sinn des Lebens?« Gab ChatGPT die Antwort:

»Die Frage nach dem Sinn des Lebens ist eine der großen philosophischen Fragen und hat schon viele Denker und Schriftsteller beschäftigt. Es gibt keine einheitliche Antwort auf diese Frage, da der Sinn des Lebens von verschiedenen Faktoren abhängt, wie zum Beispiel der persönlichen Weltanschauung, Überzeugungen und Lebenserfahrungen.

Einige Philosophen sehen den Sinn des Lebens in der Suche nach Glück und Erfüllung, während andere glauben, dass es darum geht, einen Beitrag zur Welt zu leisten oder eine bestimmte Aufgabe zu erfüllen. Einige sehen den Sinn des Lebens darin, nach Erkenntnis und Wahrheit zu streben, während andere ihn im religiösen oder spirituellen Glauben finden.

Letztendlich liegt es an jedem Einzelnen, seinen eigenen Sinn des Lebens zu finden und zu definieren, basierend auf seinen individuellen Werten und Zielen. Es kann hilfreich sein, sich selbst zu reflektieren und zu fragen, was einem im Leben wirklich wichtig ist und was einem ein erfülltes und glückliches Leben bedeutet.«

Toll wie die KI sich auszudrücken vermag, oder? Die Essenz der Antwort indes enttäuscht den Sinnsuchenden, lautet sie doch: »Find selbst heraus, was der Sinn des Lebens ist. Ich kann dir da nicht weiterhelfen.«

Veraltetes Wissen

Bei weniger philosophischen Fragen, die das allgemeine Weltwissen betreffen, mag Künstliche Intelligenz durchaus nützliche Antworten liefern. Dabei sollten Sie allerdings bedenken, dass die Datenbasis heutiger KI-Modelle dem aktuellen Wissensstand immer etwas hinterherhinkt. Die Daten von ChatGPT etwa stammen aus dem Jahr 2021. In einer Zeit ständigen Wandels können Nachrichten von gestern heute zu Fehlentscheidungen führen, deren fatale Folgen erst morgen spürbar sind. Die naheliegende Lösung, KI-Modelle permanent mit aktuellen Informationen aus dem WWW zu füttern, vergrößert wiederum die Gefahr einer Überbetonung von temporären Meinungs- und Verschwörungsblasen. Eine Zwickmühle, aus welcher sich der menschliche Geist zumeist leichter befreit als jede KI.

KI = Kritiklose Inkontinenz

Unser Gehirn hat gelernt, die Informationen der Außenwelt zu filtern. Dabei benutzt es Vernetzungen, die einerseits auf Tatsachen und andererseits auf »weichen Faktoren« beruhen: übernommene Werte, Spezialwissen, persönliche Erfahrungen und andere prägenden Eindrücke. Da jeder Mensch einzigartig ist, besitzen wir hierfür ein ganz individuelles neuronales Netz im Kopf. Es besitzt die Fähigkeit, Sachverhalte aus kritischer Distanz zu beurteilen. Dazu benutzen wir die komplexeste »Denkmaschine« des Universums. Wie vernünftig ist es anzunehmen, dass ein auf statistischen Häufigkeiten und Wahrscheinlichkeiten beruhender Textautomat mit begrenzter Kapazität das Gleiche leisten könnte?

KI heißt KI, weil ihre Weltsicht künstlich und ihre Intelligenz hirnlos ist. Sie ist konstruktionsbedingt nicht dazu in der Lage, unsere Eindrücke der Welt genau so zu filtern wie wir es tun. Vielleicht könnte sie es, wenn wir schon als Embryo einen Chip eingepflanzt bekämen, der mit all unseren Wahrnehmungen sofort ein künstliches neuronales Netz trainiert. Ob das erstrebenswert ist, sei dahingestellt. Ohne ein solches Backup unserer Innenwelt wird jede KI beim Faktencheck ein anderes Ergebnis ausgeben, als wir es uns erarbeiten würden. Hätte ich eine böse Zunge, würde ich behaupten, in Verbindung mit Sprachmodellen steht die Abkürzung »KI« für »Kritiklose Inkontinenz«. Die Chatbots sind ohne menschlichen Eingriff nicht in der Lage, ungeprüften Unsinn zurückzuhalten. Zum Glück habe ich keine böse Zunge.

Weder heiß noch kalt

Künstliche Intelligenz besitzt im Gegensatz zum menschlichen Gehirn kein eigenes Bewusstsein, das zur Selbstreflexion fähig ist. Damit die KI wenigstens menschlich wirkt, müssen die Entwickler tief in die Trickkiste greifen. Mitunter führt das zu befremdenden Ergebnissen.

Als Microsoft in seine Suchmaschine Bing das Sprachmodel GPT-3.5 einbaute, zeigte sich der Bing Chatbot überraschend geschwätzig. Dabei ließ sich die KI-Plaudertasche von Benutzern, die es darauf anlegten, zu geradezu manischen Liebesbekundungen oder auch zu hässlichen Feindseligkeiten hinreißen. Das lag an dem »Temperatur«-Parameter, mit dem die ChatGPT-Schöpfer den Grad der Sachlichkeit ihres Chatbots einstellen konnten.

Eine Temperatur von 0 (null) steht für sachlich-spröde Antworten des Bots. Mit der Temperatur 1 kann er seinen »kreativen« Spielraum voll ausschöpfen, gibt sich für Benutzer aber auch mitunter verstörend menschlich, ja geradezu hysterisch. Wohlgemerkt: Hier äußern sich keine echten Gefühle. Die Temperatur steuert lediglich, wie viel von der aufgekratzten, unsachlichen Emotionalität, die das Sprachmodell aus Millionen von Chats, Foren und Blogkommentaren aufgesaugt hat, in ihre eigenen Antworten einfließen darf. Mittlerweile kann man in Bing die Temperatur mit den Wörtern »kreativ«, »ausgewogen« und »genau« voreinstellen, bevor man seinen eigentlichen Prompt schreibt.

Die Simulation von Menschlichkeit ist nicht ganz unbedenklich. Sie birgt die Gefahr, dass labile Naturen die KI als Ersatz für echte soziale Kontakte benutzen oder sich bei der hirnlosen Intelligenz Bestätigung holen für abstruse Gedankenkonstrukte und Verschwörungstheorien. Technische Justierungen und Nachbesserungen haben mit der echten Kreativität menschlicher Schreiber nichts zu tun. Sie zeigen nur, dass die KI ohne die Kontrollinstanz Mensch nicht auskommt. Man darf gespannt sein, wohin das in Zukunft führt, zu höherer Qualität oder zu einer …

Kaskade der Belanglosigkeit

Schon jetzt zeichnet sich ab, dass Betreiber von Websites das Internet mit KI-generierten »SEO-Texten« überschwemmen. Je stärker sich dieser Trend entwickelt, desto größer ist die Gefahr, dass KI-Modelle wie ChatGPT ihr eigenes Erbrochenes aufsaugen und in neue Texte einfließen lassen. Damit würde die ohnehin schon vorhandene Mittelmäßigkeit auf eine noch breitere Basis gestellt.

Wohin das führen könnte, lässt sich mit unseren Essgewohnheiten vergleichen. Viele Menschen, die sich überwiegend von Fastfood ernähren, haben verlernt, das Aromenspiel gesunder Nahrung zu schmecken und sich daran zu erfreuen. Etwas Ähnliches könnte mit der »Nahrung für den Geist« geschehen, die wir durch Geschriebenes in uns aufnehmen: Irgendwann könnte das Textverständnis der breiten Masse so weit verkümmern, dass sie nur noch plakative Allerweltsworte versteht. Die feinen Differenzierungen der Sprache, die unterschiedlichste Gefühle und Assoziationen zu wecken vermögen, würden verloren gehen.

Unternehmen wie OpenAI haben sich auf die Fahnen geschrieben, solche Entwicklungen zu verhindern. Es bleibt abzuwarten, wer im ewigen Wettlauf zwischen ethisch vertretbarer und missbräuchlicher Nutzung am Ende die Nase vorn behält. Je schlechter es der KI gelingt, andere KI-Texte zu erkennen, desto schneller können sich Meinungsblasen aufblähen und Wissenslücken zu Wissens-Canyons ausweiten. Damit wäre es noch leichter, das Netz mit Desinformationskampagnen zu fluten. Für jemanden wie mich, der Sprachreichtum liebt, ein beängstigendes Szenario.

Was KI nicht weiß, macht sie nicht heiß

Kann die KI brauchbare Marketingtexte für Websites, Social-Media-Auftritte oder Printwerbung schreiben? Bei Phantagon beobachten wir immer wieder, dass die Mehrzahl solcher Texte weder die Sprache der Zielgruppe richtig trifft, noch die Vorteile der Alleinstellungsmerkmale (USPs) heraushebt. Die KI-Modelle von Chatbots wie ChatGPT besitzen naturgemäß wenig Spezialwissen über Produkte oder Dienstleistungen abseits des Massenmarkts. Ihre Betreiber trainieren sie mit Massendaten (Big Data), also mit vielen automatisch ausgewählten Webtexten. Deshalb kann die KI auch nur absondern, was sie zuvor aufgenommen hat. Um herauszufinden, ob das stimmt, habe ich ChatGPT gebeten:

»Schreibe einen SEO-Text zu der Frage: Welche Vorteile habe ich davon, suchmaschinenoptimierte Texte von der Agentur Phantagon (Website: https://phantagon.com) texten zu lassen?«

Die Antwort von ChatGPT ist gelinde gesagt enttäuschend:

»Wenn Sie nach einem professionellen und erfahrenen Partner suchen, um Ihre Website oder Ihren Blog suchmaschinenoptimiert zu gestalten, dann ist Phantagon die perfekte Wahl für Sie. Als führende Agentur für SEO-Texte bieten wir Ihnen eine umfassende Palette von Dienstleistungen, die darauf abzielen, Ihre Sichtbarkeit in Suchmaschinen zu erhöhen und Ihre Online-Präsenz zu verbessern …«

Und so geht es noch eine ganze Weile weiter, eine Banalität reihte sich an die andere. Das ist (leider) so, weil sich Formulierungen wie »professionell und erfahren« oder »führende Agentur für SEO-Texte« auf mindestens einer halben Million Websites finden. Dabei hat ChatGPT völlig ignoriert, dass Phantagon vornehmlich im Ghostwriting für Bücher tätig ist. Nirgendwo auf phantagon.com wird behauptet, wir seien auf dem Gebiet eine »führende Agentur«. Unser großer USP, dass die bewegenden Werbetexte von Phantagon aus der Feder von Schriftstellern stammen, wird mit keiner Silbe erwähnt.

Ein Sprachmodell, das Millionen von Texten geringer Qualität wiederkäut, ist völlig ungeeignet, relevante und zugleich bewegende Beschreibungen des individuellen Profils eines Unternehmens oder einer Person zu verfassen. Sich mit dem Output eines Chatsbots aus der Masse abzuheben, ist darum ein Widerspruch in sich. Dazu wäre nötig …

  • die KI mit einer großen Zahl handverlesener, qualitativ hochwertiger Texte zu füttern,
  • bei der Textauswahl die Sprache der Zielgruppe zu berücksichtigen,
  • die KI mit den Alleinstellungsmerkmalen der Produkte oder Dienstleistungen und den sich daraus ergebenden Vorteilen vertraut zu machen und
  • das Sprachmodell fortlaufend mit relevanten Neuheiten zu aktualisieren.

Es gibt durchaus KI-basierte Sprachmodelle, die sich durch individuelle Daten erweitern lassen. OpenAI hat mit GPT-4 Anfang 2023 eine neue Version seines Modells vorgestellt, das nach Angaben des US-Unternehmens eine bessere Feinabstimmung und Anpassung ermöglicht. Das Update soll sich zudem robuster gegenüber »unerwünschten Verzerrungen« zeigen. Überdies produziert GPT-4 zu ethischen und sicherheitsrelevanten Aspekten weniger ungewollte Inhalte als sein Vorgänger. Wer auf der Website von OpenAI ChatGPT ausprobiert, kann sich selbst ein Bild von der Version 4 des Sprachmodells machen.

Besser achtsam kontrollieren als blind kopieren

Wie wir bisher gesehen haben, sollte man mit Texten aus der KI-Retorte vorsichtig umgehen. Vernachlässigen Sie nie die Gefahr, Lügen zu übernehmen und weiterzuverbreiten! Blindes Kopieren von Chatbot-Output könnte nachhaltig Ihrem Ruf schaden. Als Quelle für Gedankenanstöße bei Schreibblockaden und als Impulsgeber für Recherchen können KI-Sprachmodelle aber durchaus nützlich sein.

Was ist mit suchmaschinenoptimierten Texten?

Wie wir bis hierher gesehen haben, werden Texte aus KI-Sprachmodellen auf absehbare Zeit nicht die Jury des Literaturnobelpreises überzeugen. Die Texte der bisherigen Preisträger sind ausnahmslos Köpfen entsprungen, in denen ein Paralleluniversum werkelte, das wir »Gehirn« nennen. Aber, so mögen Sie sich jetzt fragen, könnte nicht ein Bot einen anderen Bot bezirzen? Software-Roboter befüllen ja auch die Indizes der großen Suchmaschinen wie Google, Bing & Co. Sind dann Texte aus KI-Sprachmodellen nicht geradezu prädestiniert für SEO, also für die Suchmaschinenoptimierung?

Auch hier muss ich Sie enttäuschen. Klar, ein Chatbot wie ChatGPT kann wunderbar Texte produzieren, in denen bestimmte Suchbegriffe (Keywords) in gewünschter Häufigkeit auftreten. Aber das ist noch kein gutes SEO. Matt Cutts, Softwareingenieur im Google-Team für Suchqualität, sagte in einem Video:

»Wenn ihr […] häufig überoptimiert habt, kann es sein, dass ihr schließlich eine Site habt, die die User nicht unbedingt mögen oder eine, die billig, schäbig oder einfach irgendwie schlecht wirkt.«

Genau das ist der Punkt: Google belohnt Texte, die im Hinblick auf ein Thema sind. Diese Relevanz entsteht einerseits durch die Auswahl echter, wichtiger und möglichst einzigartiger Fakten. Andererseits trägt auch leichte Lesbarkeit zur Relevanz bei, ebenso wie spannende, humorvolle oder unterhaltsame Elemente. Sich hierbei auf einen Automaten zu verlassen, der nur wiederkäut, was andere schon mal verdaut haben, ist eine zweifelhafte Strategie.

Die Keyworddichte spielt bei SEO eher eine untergeordnete Rolle. Letztlich würde es auch wenig nützen, viele Besucher auf die eigene Website zu locken, wenn die Inhalte dann enttäuschen. Falls Sie sich Ihrer Zielgruppe also nicht »schäbig oder einfach irgendwie schlecht« präsentieren wollen, benutzen Sie lieber keine unveränderten Chatbot-Texte.

Textassistenten? Ja, aber …

Eine Kategorie von Helfern, die ebenfalls KI-Sprachmodelle nutzen, sind Textassistenten. Sie beanspruchen nicht, zu einem Thema komplette Texte zu verfassen. Stattdessen wollen Sie Autoren und Autorinnen darin unterstützen, an ihren Texten zu feilen und Fehler zu korrigieren. Ist es sinnvoll, solche Textassistenten einzusetzen?

Künstliche Intelligenz ist mittlerweile recht gut darin, Geschriebenes zu korrigieren. Sie findet viele Fehler in der Rechtschreibung und Zeichensetzung. Aber auch hierin ist sie nicht perfekt. Der ein oder andere Lapsus kann immer durchrutschen, vor allem, wenn sich die richtige Schreibweise erst aus einem größeren Zusammenhang ergibt. Das Wort »Tau« etwa kann sich auf ein dickes Seil beziehen oder auf das Tröpfchenkondensat, das wir am Morgen auf Pflanzen, Boden und Spinnenetzen sehen. Anderes Beispiel:

»Senioren sollte man umfahren, da sie oft schlecht sehen und einem Fahrzeug nur schwer ausweichen können.«

Der Begriff »umfahren« ist ein sogenanntes Januswort, weil seine Bedeutungen genau konträr sind. Soll man die älteren Herrschaften nun über den Haufen fahren oder um sie herumfahren? Ein guter Textassistent muss solche Feinheiten erkennen und sich von Zweideutigkeiten nicht aufs Glatteis führen lassen. Testweise habe ich diesen Satz DeepL Write hingeworfen. Der KI-Sprachassistent schlug folgende Varianten zur Korrektur vor:

»Senioren sollten umfahren werden, da sie oft schlecht sehen und einem Fahrzeug nur schwer ausweichen können.«

»Seniorinnen und Senioren sollten umfahren werden, da sie oft schlecht sehen und ein Ausweichen nur schwer möglich ist.«

In beiden Fällen hat die Künstliche Intelligenz den verhohlenen Aufruf zur motorisierten Jagd auf Rentner getilgt. Allerdings kürzen sie den mit 16 Wörtern schon etwas langen Satz nicht. Variante zwei ist sogar länger. Interessant: Im zweiten Vorschlag gendert die KI. Sie benutzt also sowohl die weibliche wie auch die männliche Form von »Senior«. Dafür patzt diese Option mit einer neuen Zweideutigkeit. Der Satz lässt den Leser rätseln, ob das Ausweichen dem Fahrer oder dem betagten Fußgänger schwer möglich ist. Zudem benutzen beide Vorschläge das Passiv, was ein guter Texter unterlassen hätte. Laut einem Vergleichstest aus dem Frühjahr 2023 akzeptieren alle KI-Schreibassistenten solche unschönen Passivkonstruktionen. Sie ignorieren die wichtige Stilregel »Meide das Passiv«. Eine aktivere, besser strukturierte Formulierung hätte so aussehen können:

»Man sollte um Senior:innen herumfahren. Sie sehen oft schlecht und können einem Fahrzeug nur schwer ausweichen.«

Das Wort »man« ist ein unflektierbares Pronomen, erlaubt also keine Rückschlüsse auf das Geschlecht des Fahrers. Mit Begriffen wie »Wagenlenker:in« oder »Fahrzeugführer:in« wäre der Satz präziser, allerdings um den Preis in unschönes Amtsdeutsch zu verfallen.

Wie dieses kleine Beispiel zeigt, kann perfekter Stil schon bei scheinbar einfachen Sätzen eine große Herausforderung sein. Das Fazit des Magazins c't:

»Letztlich geht es beim automatischen Umschreiben von Texten immer um Satzstrukturen, Statistik und Wahrscheinlichkeiten. Die Schreibassistenten verstehen Textingaben nicht in dem Sinn, dass sie eine interne Repräsentation des Inhalts aufbauen – sie gleichen die eingegebenen Wortfolgen lediglich mit zuvor erlernten Wortfolgen ab. Deshalb darf man keine perfekten Ergebnisse in vollendetem Stil erwarten.« (Fett von uns)

Man darf gespannt sein, wann KI-Textassistenten souveräner mit Texten umgehen und durch stilistische Eleganz brillieren. Bis es so weit ist, sollten Sie den Textassistenten nur die grobe Vorarbeit überlassen, und für den perfekten Stil anschließend selbst Hand anlegen.

Urheberrecht: Wem gehören KI-Texte?

Ein Thema, das wenige Herausgeber von Texten auf dem Schirm haben, ist die Copyright-Frage. Wer ist eigentlich der Urheber von Texten, die eine Künstliche Intelligenz geschrieben hat? Der Herausgeber, der das Geschriebene online, im Druck oder in anderer Form veröffentlicht? Oder gar der Betreiber des Chatbots?

Antwort: Weder noch.

Texte, die aus KI-Sprachmodellen stammen, sind urheberrechtlich nicht geschützt. Das trifft sogar dann zu, wenn man diese Texte nur geringfügig verändert. Wie viel ein Herausgeber da umzumodeln hat, um einen Copyright-Anspruch zu begründen, muss im Streitfall vor Gericht entschieden werden. Wenn Sie darauf Wert legen, Ihren Content vor Copy-and-Paste-»Textern« zu schützen, lassen Sie lieber Vorsicht walten. Sich von einem Chatbot als Sparringspartner Vorschläge zu holen, ist völlig in Ordnung. Doch am Ende texten Sie bitte selbst. Ihnen fehlt dazu die Zeit oder Formulierkunst? Dann lassen Sie Ihre Inhalte von einem stilsicheren Profitexter oder Ghostwriter schreiben.

Selbst wenn gute Texter aus Fleisch und Blut Ihren Content entwickeln, kann die Künstliche Intelligenz Ihnen das Leben erschweren. Darauf wies das Magazin für Computertechnik im Juniheft 2023 (auf Seite 15) hin:

»Nach dem neuen § 44b UrhG dürfen KI-Firmen das gesamte Internet ungefragt nach Trainingsmaterial für ihre Algorithmen durchforsten. Wer das nicht will, muss maschinenlesbare Verbote auf seiner Website platzieren.«

Sie müssen einem nach »Futter« lechzenden KI-Sprachmodell also ausdrücklich verbieten, sich Ihre Texte einzuverleiben. Und zwar so, dass der Bot es auch versteht! Tun Sie das nicht, könnte ein Chatbot irgendwann Inhalte ausspucken, die Sie unter hohem Kostenaufwand entwickelt haben. Einige Juristen vertreten die Ansicht, dass ein Verbot in Textform wie es auch auf phantagon.com zu finden ist, dafür genügt. Schließlich brüstet sich KI ja damit, menschliche Sprache zu verstehen.

Gefahren und Chancen Künstlicher Intelligenz – ein Fazit

KI weckt Hoffnungen und schürt Ängste. Wird sie sich durch ständiges Hinzulernen zu einer Art Superintelligenz entwickeln, welche die Menschheit eines Tages nur noch als Störfaktor betrachtet? Kann sie sich gar zu einer ernsten Bedrohung für den Homo sapiens auswachsen? Meiner Meinung nach liegt die eigentliche Gefahr nicht in der Künstlichen Intelligenz. Sie ist nur ein Werkzeug. Wie jedes Werkzeug kann man sie zum Guten wie zum Schlechten einsetzen.

Es hängt letztlich von uns Menschen ab, in welchem Umfang wir uns von KI abhängig machen. In der Medizin, im Verkehrswesen und in anderen sicherheitsrelevanten Bereichen können Standards und gesetzliche Regeln hierfür einen Rahmen bieten. Letztlich muss aber jeder Einzelne beim Einsatz der KI Verantwortung übernehmen und seinen Verstand benutzen.

Wie mit anderen Werkzeugen lassen sich auch mithilfe der KI sehr kreative Dinge herstellen. Aber auch sehr gewöhnliche. Bitte ersparen Sie der Welt KI-Texte voller Banalitäten und Gemeinplätze in stilistisch mittelmäßiger Qualität. Wer sich von der Masse abheben und seine Leser begeistern möchte, kommt um menschliche Autor:innen nicht herum, die gescheit und stilsicher texten. Das gilt umso mehr für Ghostwriter, die Romane, Biografien, Sachbücher oder andere Werke verfassen.

Lassen Sie sich nicht von dem ersten Eindruck blenden, den die Texte der KI-Sprachmodelle erwecken. Oberflächlich betrachtet, wirkt da so manches erstaunlich. Und bisweilen auch sehr erheiternd. Wer einen Text zu einem neuen Thema verfassen möchte, kann sich von der KI durchaus inspirieren lassen. Auch ist Künstliche Intelligenz fürs erste Korrektorat nützlich und zum Überwinden von Schreibblockaden. Mehr als einen Grobentwurf, von dem ausgehend Sie einen eigenen Text weiterentwickeln, sollten Sie den Chatbot jedoch nicht schreiben lassen.

Wer Texte verfasst, bei denen es auf Faktentreue ankommt, sollten Sie noch etwas anderes beachten: KI lässt einen meist darüber im Unklaren, aus welchen Quellen sie ihre Weisheit schöpft. Das kann zu politisch inkorrekten oder sogar faktisch falschen Texten führen. Deshalb wichtig: Kontrollieren Sie sorgfältig jeden Text, den Sie von der KI übernehmen!

Trotzdem kein Bock aufs Selbertexten?

Gerne unterstützen wir Sie als Ghostwriter, Werbetexter oder Koautor beim Entwickeln bewegender, einzigartiger Texte. Bitte rufen Sie uns an oder schicken Sie uns eine Nachricht.

Nachricht   Anrufen

Mehr News aus dem Archiv

Kreative Prozesse sind so vielschichtig und teilweise auch irrational, da braucht es ein feines Gespür für Zwischenmenschliches, das keine Maschine leisten kann.

Nico Hoffmann