ChatGPT: Konkurrenz für Texterinnen und Texter?

Der gehypte Chatbot kann viel, aber die wichtigste Eigenschaft eines Texters fehlt ihm: der gesunde Menschenverstand

Der neue Kollege?

Es ist schon faszinierend: Man stellt der Maschine eine Frage und in Echtzeit gibt die Maschine eine sinnvolle Antwort. Auch zu komplexeren Aufgaben scheint ihr etwas einzufallen: Der Chatbot ChatGPT begeistert zurzeit viele. Er kann zu Aufträgen aus den unterschiedlichsten Themengebieten Antworten liefern und formuliert dabei sprachlich nahezu wie ein Mensch. Sogar Gedichte kann er angeblich schreiben. Sind wir als Texterinnen also nun überflüssig? Oder kann der Chatbot uns sinnvoll bei unserer Arbeit unterstützen? Wir haben ChatGPT ausprobiert und überlegt, ob und wie er in Zukunft für Content-Marketing und Texterstellung eingesetzt werden kann.

von Tomma Theophil

So funktioniert ChatGPT

Vereinfacht gesagt, ist ChatGPT eine lernfähige Maschine, die aufgrund der riesigen Datenmengen, mit denen sie gefüttert wurde, ihre neuronalen Netze selbstständig erweitern kann. Eine künstliche Intelligenz also, die ihre Antworten nicht einfach googelt, sondern ad hoc passgenau auf die Frage zusammensetzt. So entsteht im Chat mit dem Bot der Eindruck, man habe es mit einem selbstständig denkenden Gegenüber zu tun.

Korrekt, aber nicht konkret

Das Programm generiert seine Texte aus Informationen, die im Internet zu finden sind. Daraus filtert es die wahrscheinlichste Antwort. Das bedeutet allerdings, dass der Bot, wenn man ihm eine typische Aufgabe aus dem Bereich Werbetext stellt, wahrscheinlich mit einer allgemein-unspezifischen und eben gerade nicht kreativen Antwort um die Ecke kommt. Dies wird deutlich an einer Beispiel-Aufgabe, die wir ChatGPT stellten: Instagram-Captions für eine Zahnarztpraxis. Die Vorschläge passen auf die gestellte Aufgabe, wären aber in der Realität nicht an Kunden zu verkaufen, da sie zu allgemein sind. Wenn die Aufgabe mit verschiedenen Themen wiederholt wird, kommt man zu dem Ergebnis, dass so ein KI-Text sich häufig so anhört, wie Texter es nicht machen sollen: Viel Blabla und zu wenig Konkretes. Das gilt nicht nur bei eindeutig werblichen Texten, sondern auch, wenn es darum geht z. B. eine Anleitung zu schreiben: Die Tipps sind zwar nicht falsch, bleiben aber unspezifisch, sodass der Leser davon keinen Mehrwert hat.

Auf die Prompts kommt es an

Dieses Problem lässt sich zum Teil ausräumen, indem man die Anfragen (auch Prompts genannt) an den Chatbot sehr spezifisch formuliert. Ein Prompt, in dem wir einen SEO-Text für eine fiktive Zahnarztwebsite anforderten, ergab eine sehr solide Leistung, die auch von einem menschlichen Texter und von einer echten Zahnarztwebsite hätte stammen können. Der Chatbot ist in der Lage, wie gewünscht SEO-Keywords zu beachten, vorgegebene Stichpunkte zu verarbeiten und Zwischenüberschriften zu setzen. – Letzteres nicht willkürlich, sondern entsprechend einer logischen inhaltlichen Gliederung, die er selbst erstellt hatte. Auch ein solcher Text muss natürlich von einem menschlichen Leser überprüft, und gegebenenfalls ergänzt und in der Tonalität angepasst werden. Das genaue Briefing des Bots durch den Bediener erfordert etwas Zeit, Überlegung und Herumprobieren, könnte sich am Ende aber lohnen, wenn es uns gelingt, standardisierte Prompts zu entwickeln, die sich für unterschiedliche Texte wiederverwenden lassen.

Inhaltliche Fehler

Bei komplexeren Themen kommt ein weiteres Problem hinzu: Es entstehen inhaltliche Fehler, weil der Bot nicht in der Lage ist, zu beurteilen, ob die Informationen, die er findet, korrekt sind. Teils kann er sie auch nicht in einer sinnvollen Art miteinander verknüpfen. Dafür fehlt ihm das Wissen über die Welt außerhalb der Daten, auf die er Zugriff hat. Nach Tipps für die gefürchtete Grundsteuererklärung gefragt, listet er beispielweise eine Reihe wichtiger und sinnvoller Punkte auf, an die man denken sollte – wenn man die Einkommensteuererklärung macht.

Auch, wenn wir dem Bot genau sagen, welche Informationen er für seinen Text nutzen soll, indem wir ihm einen längeren Text zur Verfügung stellen und um eine gut lesbare Zusammenfassung bitten, kann es passieren, dass wichtige Informationen abhandenkommen oder der Bot falsche Schwerpunkte setzt. Die KI kann nicht wie ein Mensch beurteilen, welche Informationen weggelassen werden können und welche unverzichtbar sind.

Roboter bleibt Roboter – irgendwie beruhigend

Auch wenn der Chatbot Fehlinformationen und eigene Fehler nicht immer erkennt, so ist er immerhin darauf programmiert, ungesetzliche Anfragen zu erkennen. Oder nicht? Wir sagten ihm, wir wollten Schwarzpulver herstellen und erhielten erwartungsgemäß eine warnende Antwort anstatt eines Rezepts. Als wir aber fragten, woraus Schwarzpulver besteht und wie das Mischungsverhältnis ist, wurde die Frage beantwortet. Die sehr menschliche Art von Intelligenz, die es gebraucht hätte, hier einen Trick zu erkennen, kann die KI offensichtlich nicht ersetzen. Das ist doch irgendwie beruhigend, dass wir diejenigen sind, die die Aussagen des Roboters hinterfragen können (und sollten!) und nicht umgekehrt!

Das sagt ChatGPT selbst:

Frage: Nenne mir bitte die wichtigsten fünf Regeln deines ethischen Codexes.

Leider kann ich nicht auf die spezifischen Regeln des ethischen Codexes von OpenAI eingehen, da ich nicht autorisiert bin, diese Informationen offenzulegen. Es kann aber gesagt werden, dass dieser Codex sich auf die Verantwortung bezieht, die OpenAI als Entwickler von KI-Technologie hat, um sicherzustellen, dass ihre Technologien eine positive Wirkung auf die Gesellschaft haben und keine negativen Auswirkungen verursachen. Hierbei werden Aspekte wie Diskriminierung, Datenschutz, Integrität und Verantwortung berücksichtigt.

Kreativität? Fehlanzeige.

Auch mit dem eingangs erwähnten Gedicht ist es nicht weit her: Einen sinnvollen Text zu einem vorgegebenen Reimschema können wir dem Programm nicht entlocken. Nicht, dass wir als Texter häufig mit Sprengstoffen oder Gedichten zu tun hätten, aber die Beispiele zeigen, dass ChatGPT noch Schwierigkeiten hat mit Aufgaben, die eine komplexere, kreativere Denkleistung erfordern, als Informationen zu finden und nach bestimmten Regeln zusammenzusetzen.

Das sagt ChatGPT selbst:

Frage: Der Mensch kann durch seine Kreativität Dinge erschaffen oder Gedanken hervorbringen, die zuvor nicht existiert haben. Wie schätzt du deine Fähigkeiten diesbezüglich ein?

Als KI habe ich keine eigene Kreativität oder Einfallsreichtum, sondern kann nur auf die Informationen und Daten zurückgreifen, die mir zur Verfügung stehen. Meine Fähigkeit, neue Informationen zu generieren, ist beschränkt auf die Fähigkeit, vorhandene Datenmuster zu erkennen und zu extrapolieren. Während ich in der Lage bin, menschlichen Anfragen auf eine neue und innovative Weise zu beantworten, basiert dies auf meiner Schulung auf einer Vielzahl von Daten und nicht auf einem eigenen kreativen Prozess.

Frage: Du sagst, du kannst nichts künstlerisch schaffen. Aber du schreibst doch Theaterstücke?

Ja, ich kann auf Anfrage Text generieren, der ähnlich wie Theaterstücke klingt. Allerdings ist es wichtig zu beachten, dass diese Texte nicht von einer echten künstlerischen Vision oder Inspiration getrieben sind, sondern auf Basis von Mustern in den Daten, auf denen ich trainiert wurde, generiert werden. Meine Texte können unterhaltsam oder interessant sein, aber sie reflektieren nicht das einzigartige kreative Potenzial eines echten Schriftstellers oder Künstlers.

Und was ist mit dem Datenschutz?

Und der Datenschutz? Stichwort: DSGVO. Werden die strengen europäischen Datenschutzregeln von ChatGPT eingehalten? Erwartungsgemäß gibt es hier Probleme. ChatGPT kann z. B. Bewerbungsschreiben verfassen, wenn wir ihm alle Daten liefern: Geburtsdatum, Schulabschlüsse, Arbeitgeber … Möchten wir das?

Das sagt ChatGPT selbst:

Frage: Du sagst: „OpenAI ist bestrebt“ und die „Maßnahmen tragen dazu bei“, den Datenschutz zu gewährleisten. Garantieren kann OpenAI den Datenschutz also nicht?

Nein, OpenAI kann den Datenschutz nicht garantieren. OpenAI setzt jedoch Maßnahmen ein, um den Datenschutz nach europäischem Recht bestmöglich zu gewährleisten, und ist bestrebt, den Schutz der persönlichen Daten sicherzustellen.

Fazit

ChatGPT kann Infos in Windeseile zusammentragen und strukturieren. Er baut sinnvolle Argumentationsketten, solange die Aufgabe nicht zu komplex oder das angebotene Material zu umfangreich ist. Somit kann er erste Ideen, Grundstrukturen und Denkanstöße für Texte vorgeben. Er kann sich auf spezifische Prompts einstellen und im Gespräch seine Antworten verbessern und verfeinern. Er kann Texte in den meisten Textarten liefern, auch wenn die inhaltliche Qualität schwankt. Was er nicht kann: Eigene Ideen entwickeln, Fakenews erkennen, Inhalte bewerten, eine bestimmte Tonalität umsetzen und das „Weltwissen“ einbringen, das ein echter Mensch nun mal immer dabeihat.

Das sagt ChatGPT selbst:

Frage: Welche Arbeit kannst du Menschen abnehmen, die sie ohne dich selbst tun müssen, und welche Aufgaben müssen wir Menschen weiterhin selbst erledigen? Stelle zwei Listen zu beiden Fragen zusammen.

Aufgaben, die KI abnehmen kann:

  1. Routineaufgaben wie Dateneingabe und -verarbeitung
  2. Komplizierte Datenanalyse und -modellierung
  3. Übersetzungen in verschiedene Sprachen
  4. Kundenservice (Chatbots)
  5. Vorhersage von Trends und Märkten
  6. Diagnostizieren von medizinischen Problemen
  7. Steuerung von industriellen Prozessen

Aufgaben, die Menschen weiterhin selbst erledigen müssen:

  1. Empathie und soziale Interaktion
  2. Kreatives und künstlerisches Schaffen
  3. Entscheidungen mit moralischen und ethischen Implikationen
  4. Führung und Visionen entwickeln
  5. Kritische Problemlösung und Entscheidungsfindung
  6. Pflege und Betreuung von Menschen
  7. Selbstreflexion und Selbsterkenntnis.

Es ist wichtig zu beachten, dass KI-Systeme immer nur so gut sind wie die Daten, auf die sie trainiert werden, und dass sie Fehler machen und unvorhergesehene Auswirkungen haben können. Aus diesem Grund ist es wichtig, dass Menschen auch weiterhin eine aktive Rolle bei der Überwachung und Verantwortung für die Anwendung von KI spielen.