Zuletzt geändert am 1. April 2023
Spätestens seit ChatGPT ist KI-unterstütztes Schreiben für uns Texter*innen von etwas unheimlicher Zukunftsmusik zur Realität geworden. Viel näher rückt jetzt die Frage, wie KI-Texte unsere Arbeit beeinflussen werden. Auch wenn die Tools noch an einigen Stellen ausbaufähig und kritikwürdig sind, werden sie früher oder später Teil unseres Alltags sein. Was das für Vielfalt wertschätzende Kommunikation und diskriminierungsfreie Sprache bedeutet, ist ebenfalls interessant. Schließlich ist schon lange bekannt, dass Künstlicher Intelligenz den Bias der Entwickler*innen übernehmen kann, weil deren unterbewusste Vorurteile beim Trainieren der KI-Systeme ihnen eingeschrieben werden.
Als Texterin und Diversity-Trainerin schreibe ich hier aus der Nutzer*innenperspektive. Du erfährst hier also, wie ich ChatGPT ausprobiert habe, wofür ich Tools wie dieses im Arbeitsalltag nutzen würde und worauf es zu achten gilt in Hinblick auf gendergerechte, Vielfalt wertschätzende und diskriminierungssensible Kommunikation.
Als Texter*in mit KI-Unterstützung arbeiten – schon probiert?
Viele Menschen haben ChatGPT in den vergangenen Monaten ausprobiert – im Januar 2023 besuchten täglich 3 Millionen Menschen die Website des Tools. In meinem persönlichen Umfeld haben sich vor allem viele einen Spaß daraus gemacht, mit der KI zu chatten. Andere wollten einfach mal sehen, wie gut die Antworten und Texte sind, die der Chatbot generiert.
KI-Texte sind oft fehlerhaft oder ungenau
Auf Instagram habe ich eine kleine Umfrage gemacht dazu, wer ChatGPT mal ausprobiert, schon im Arbeitsalltag genutzt oder noch nicht probiert hat. Eine Handvoll Leute hatte tatsächlich schon für die Arbeit KI-unterstützt getextet. Zwei Erfahrungsberichte waren auch dabei: ChatGPT sei ein „guter Input für Ideen“, jedoch „begrenzt in Textqualität wie Lesbarkeit und Verständlichkeit.“ Das Tool sei „hilfreich, aber ungenau und liegt ab und zu falsch“. Das ergibt Sinn, schließlich handelt es sich bislang „nur“ um einen Prototyp. Dass dieser so öffentlich zugänglich ist und ohne Quellenangaben zum Teil falsche Informationen verbreitet, wird zu Recht auch kritisiert. Außerdem denkt sich ChatGPT manchmal Quellen aus bzw. kombiniert Publikationen mit den falschen Autor*innen.
Es ist also wichtig, die Infos und Fakten aus KI-Texten noch einmal sorgfältig zu überprüfen – vor allem, wenn du dich mit dem Thema selbst nicht so gut auskennst, dass du Fehler sofort erkennen würdest. Manchmal sind die Antworten auch in sich unlogisch, sodass beim genaueren Lesen ein „Hä?“ entsteht – auch ein Indiz, den Inhalt noch mal anderweitig zu recherchieren.
Welche Texte sich KI-unterstützt gut schreiben lassen
Ich habe ChatGPT auch schon bei Textaufträgen ausprobiert und beispielsweise gebeten,
- einen Ratgeber zu verfassen
- Schritt-für-Schritt-Anleitungen zu schreiben
- die Vor- und Nachteile eines bestimmten Themas/Vorgangs aufzulisten,
- Rezepte zu generieren,
- mir bestimmte Begriffe zu definieren
- Beispiele zu nennen
- X Tipps zu Thema Y zu geben
- Argumente aufzuzählen
- Ideen für XY zu generieren
- …
Vor allem für Sachtexte zu weniger komplexen Themen liefert die Künstliche Intelligenz mir beim Texten oft Inspiration. Auch zu spezifischen Nachfragen bekomme ich hilfreiche Formulierungsvorschläge – die richtige Antwort sollte ich trotzdem selbst kennen oder recherchieren, damit ich den Text ggf. anpassen kann.
1:1 übernehme ich die Vorschläge von ChatGPT jedoch nie. Wer sich länger mit der KI unterhält, wird feststellen, dass die Texte doch relativ eintönig, immer ähnlich und eindimensional wirken. Um dem entgegenzuwirken, kannst du zusätzlich die Zielgruppe oder den gewünschten Schreibstil angeben. Allerdings übertreibt es der Chatbot damit meistens, wie die Screenshots zeigen. Die Vorschläge passen in der Regel nie hundertprozentig zu meiner Zielgruppe, den Vorgaben aus dem Briefing oder meinem persönlichen Schreibstil und Sprachgefühl. Ich habe natürlich auch den Anspruch, den Text zu meinem Text zu machen – ihm das Eigene zu geben, das ihn von all den anderen Texten zum selben Thema im Internet unterscheidet.

Künstlich generierten Texten fehlt die emotionale Tiefe und sie sind oft nicht passgenau der Situation und dem Kontext angemessen, in dem sie letztendlich stehen und gelesen werden sollen. Zwar lässt sich immer schwerer beurteilen, ob ein Text von Menschenhand oder Künstlicher Intelligenz geschrieben wurde. Die Frage ist allerdings, ob sich Leser*innen dabei auch gleichermaßen emotional abgeholt fühlen. Es ist gut möglich, dass Künstliche Intelligenz Emotionen und Empathie immer besser nachahmen können wird. Gleichzeitig bastelt ChatGPT zu einem neuen Text nur das zusammen, was schon in irgendeiner Form vorhanden ist.
Vorurteile sind in Künstliche Intelligenz eingeschrieben
Künstliche Intelligenz kann einen Bias haben, Stereotype reproduzieren und diskriminierend sein. Das ist schon lange bekannt von verschiedensten KI-Systemen – hier ein paar Beispiele:
- Gesichtserkennungssysteme erkennen häufig nur weiße Menschen – Schwarze Menschen und People of Color werden oft falsch identifiziert oder gar nicht wahrgenommen.
- Bei der Spracherkennung werden bestimmte Sprachen, Akzente oder Dialekte nicht verstanden.
- KI-Systeme zur Kriminalitätsbekämpfung stufen Menschen anhand von Stereotypen als mehr oder weniger kriminell ein – ähnlich ist das beispielsweise bei Kreditvergabesystemen oder der Vorauswahl beim Bewerbungsprozess im Personalwesen.
- Im Gesundheitswesen kann es durch KI zu Fehldiagnosen oder falscher Dosierung von Medikamenten kommen, weil die Systeme überwiegend mit den Daten für weiße cis Männer gefüttert sind.
- Empfehlungsalgorithmen für personalisierte Werbung spielen Dienstleistungen und Produkte teilweise ebenfalls anhand von Stereotypen oder bestimmten Gruppen gar nicht aus.
Woher kommt der Bias von KI-Systemen?
Ein wichtiger Faktor sind die Entwickler*innen, die an der Entstehung von KI-Systemen beteiligt sind und jeweils ihren eigenen Unconscious Bias, also unterbewusste Vorurteile mitbringen. Auch wir als Texter*innen kommunizieren immer aus unserer eigenen Perspektive, beeinflusst von den Prägungen und Rollenbildern, mit denen wir aufgewachsen sind. Genauso funktioniert es im IT- und KI-Bereich eben auch, der außerdem besonders von weißen Männern dominiert wird. Diversere Teams bringen auch vielfältigere Perspektiven ein, sodass weniger Ausschlüsse entstehen.
Dasselbe gilt für die Daten, mit denen das neuronale Netzwerk der KI trainiert wird. Sind sie zu einseitig, kann das zu Fehlern führen, Personengruppen ausschließen und sogar richtig gefährlich werden. So werden im medizinischen Bereich zum Beispiel Zulassungsstudien für Medikamente nach wie vor überwiegend an Männern durchgeführt. Die Dosierungen und Auswirkungen werden also an einem Körpertyp festgemacht, während sie den anderen in vielen Fällen gar nicht entsprechen.
Wie diversity-sensibel ein KI-System ist, hängt also davon ab, wer es wie programmiert, mit welchem Ziel und welcher Vorgeschichte, welchen Prägungen usw. Es braucht vielfältige Teams, vielfältige Daten und Maßnahmen zur Überprüfung des Systems hinsichtlich Diskriminierung, um den Bias zu reduzieren. Vollständig weg geht er – wie bei uns Menschen – bisher jedoch nicht.
Wichtig bei KI-Unterstützung für Vielfalt wertschätzende Texte
Du willst Texte in einer diversity-sensiblen, diskriminierungsfreien Sprache schreiben und dich von Künstlicher Intelligenz unterstützen lassen – dann solltest du sowohl deinen als auch den KI-Bias im Hinterkopf behalten. Überprüfe also achtsam, ob der KI-generierte Text Stereotype und Klischees reproduziert oder diskriminierende Äußerungen enthält. Dazu brauchst du selbst Diversity-Kompetenz, die du dir zum Beispiel in einem Training zu Vielfalt wertschätzender Sprache aneignen kannst.
Lerne Vielfalt wertschätzend kommunizieren online
Im vierstündigen Online-Workshop erfährst du mehr über die Hintergründe des Diversity-Konzepts, Intersektionalität und Stereotype in unserer Sprache. Anhand von praxisnahen Beispielen und Textaufgaben übst du im Austausch mit den anderen Teilnehmenden, deine Sprache inklusiv und diskriminierungsfrei zu gestalten. Sichere dir jetzt dein Ticket zum Beta-Preis!
Auch deine Fragen können bereits einen Bias enthalten, den die KI in ihrer Antwort reproduziert. Achte also auf deine Formulierungen. Wenn du zum Beispiel genderst, tut ChatGPT das ebenfalls – auch wenn dabei immer wieder Darstellungsfehler auftreten. Du kannst das Tool auch bitten, auf eine bestimmte Weise zu gendern. Jedenfalls gilt auch im Hinblick auf wertschätzende und diskriminierungssensible Sprache: Überprüfe die KI-generierten Texte, gleiche sie mit deinem Wissen ab und passe sie an.
Die andere Seite: KI im Einsatz für mehr Diversity und Diskriminierungsabbau
Richtig programmiert und biasreduziert kann Künstliche Intelligenz Diversity auch fördern. So wird KI zum Beispiel im Recruiting angewendet, um Bewerbungen vorzusortieren. Die KI geht neutraler und mit einem geringeren Bias an die Aufgabe heran und soll so Diskriminierung im Einstellungsprozess vorbeugen. Sie kann zudem Merkmale wie Name, Alter, ethnischer Hintergrund oder das Bewerbungsfoto entfernen, sodass menschliche Entscheider*innen davon weniger beeinflusst sind.
Noch ein Beispiel: Künstliche Intelligenz kann sogar dabei helfen, diskriminierungssensibler zu kommunizieren. Durch Sprach- und Bilderkennung können entsprechende Tools Texte und Bilder analysieren. So filtern sie diskriminierende Formulierungen und Darstellungen heraus – darauf sind sie trainiert. Auch Tools für Leichte Sprache und Übersetzungen helfen, Inhalte zugänglicher und inklusiver zu gestalten.
KI-Systeme können also positive wie negative Effekte haben in Bezug auf Diversity und Diskriminierung. Wie damit umzugehen ist, liegt in der Verantwortung der menschlichen Entscheider*innen und Nutzer*innen.
Auf einen Blick: KI-Unterstützung im Texter*innen-Alltag
Wenn du bisher gezögert hast, KI wie ChatGPT auszuprobieren, hast du jetzt vielleicht einen Überblick dazu erhalten, was dich erwartet – insbesondere wenn du eine Vielfalt wertschätzende Kommunikation anstrebst. Hier noch einmal im Überblick, worauf ich achte und was ich dir aus meiner Erfahrung mitgeben kann:
- KI-generierte Textvorschläge von ChatGPT eignen sich gut als Inspiration dafür, wie du deinen Text aufbauen und strukturieren kannst. Sie liefern Ideen für Auflistungen und Beispielsammlungen. Bei sachlichen, nicht zu komplexen Themen kommen auch inhaltlich meist sinnvolle Textschnipsel heraus.
- Mache immer einen Faktencheck und verlasse dich nicht darauf, dass die Informationen aus dem KI-Text wirklich richtig sind.
- Passe die Textvorschläge deiner Zielgruppe, den Briefingvorgaben, dem gewünschten Schreibstil und deinem persönlichen Sprachgefühl an.
- Mache deinen eigenen Text aus den KI-Ideen und verleihe ihm die nötige emotionale Tiefe.
- Sei dir dessen bewusst, dass ChatGPT manchmal falsche Antworten gibt und durch den Bias Stereotype oder Diskriminierungen reproduzieren
- Übernimm immer selbst die Verantwortung dafür, dass deine Texte Vielfalt wertschätzend und diskriminierungsfrei geschrieben sind.
Für den letzten Punkt braucht es Sensibilisierung und Verständnis. Auch wenn sich bestimmte Worte und Formulierungen durch Tools herausfiltern lassen, heißt das nicht, dass dein Text danach keine Stereotype mehr enthält. Hinter Vielfalt wertschätzender Kommunikation stecken schließlich auch eine Haltung, Mitgefühl und Empathie – Fähigkeiten, die eine Künstliche Intelligenz nicht hat.
Zum Weiterlesen/-gucken
Wikipedia-Artikel über ChatGPT
ZDF-Doku „Programmierte Ungerechtigkeit“
Artikel über Biases in Künstlicher Intelligenz