Selbst denken trotz KI
KI ist kein Allheilmittel.
Auch wenn manche Leute das meinen.
Es reicht nicht, gut zu prompten, um gute Texte und Bilder zu bekommen.
Es ist auch wichtig, mitzudenken.
Vor einiger Zeit habe ich auf LinkedIn einen Austausch verfolgt.
Eine junge Frau hatte als Geschenk für eine Freundin mit ChatGPT ein Lied umgetextet.
In fast allen Kommentaren stand sinngemäß:
Toll, so eine gute Idee, so ein persönliches Geschenk.
Ich habe mich gefragt (und frage mich heute noch):
Was ist an einem KI-Text „persönlich“?
Habe ich etwas verpasst?
Wäre es nicht „persönlich“, selbst einen Text zu schreiben?
Was ist deine Meinung dazu?
Immerhin hat die Verfasserin des ChatGPT-Liedes den Text aber gelesen.
Denn selbst das scheint nicht selbstverständlich zu sein.
Okay, das Lesen vielleicht schon, aber nicht das Überprüfen und Überarbeiten.
Nur 27 Prozent der Deutschen überprüfen die Ergebnisse von KI-Tools – seien es Texte, Bilder oder Übersetzungen. Das besagt eine internationale Umfrage zu diesem Thema.
Und der Rest?
Wir Menschen neigen ja zur Bequemlichkeit.
Vielleicht denken die Nicht-Überprüfer: Die Maschine wird schon recht haben.
Tatsächlich gibt es auch Studien, die darauf hinweisen, dass Menschen den KI-Ergebnissen eher nicht widersprechen bzw. sie hinterfragen.
Bei der Überarbeitung von KI-Ergebnissen sieht es übrigens noch schlechter aus:
Nur 15 Prozent der deutschen Befragten gaben an, noch einmal an Texten oder Bildern zu feilen.
Die Folge ist für mich klar:
Immer mehr mittelmäßige und häufig inhaltlich falsche Texte (und Bilder) bevölkern das Internet.
Ich bleibe jetzt bei den Texten, weil ich damit mehr Erfahrung habe.
Die generative KI trainiert sich immer häufiger mit ihren eigenen Texten.
Neulich habe ich ein Wort dafür gelesen: Text-Inzest.
Die KI „paart“ sich mit ihren „Nachkommen“.
Für mich eine gruselige Vorstellung.
Auch weil es erste Studien gibt, die darauf hinweisen, dass die Ergebnisse dadurch immer schlechter werden.
Aber unabhängig davon, dass ich KI-Texte auf jeden Fall überprüfen und überarbeiten würde:
Die unreflektierte Übernahme birgt gesellschaftliche Gefahren.
Zum Beispiel, weil Large Language Models (LLMs) wie GPT-4 oder Gemini dazu neigen, Vorurteile und Stereotypen zu reproduzieren.
Dafür können sie natürlich nichts.
Sie wurden so programmiert und mit entsprechenden Texten trainiert.
Die Trainingstexte stammen aus dem Internet.
Wikipedia wird genauso dafür genutzt wie Social-Media-Beiträge und Artikel.
Und wenn ich mir jetzt vorstelle, was für diskriminierende Inhalte im Internet kursieren, ist es nur logisch, was passiert.
Müll rein, Müll raus – was soll dabei schon gut werden?
Eine von der UNESCO veröffentlichte Studie warnt ebenfalls vor den Gefahren von KI.
Der Fokus lag auf Stereotypen in LLMs.
Das Ziel war es, die Art und Weise zu untersuchen, wie diese Modelle durch die in ihren Trainingsdaten vorhandenen sozialen Vorurteile beeinflusst werden und wie sich dies auf die von ihnen generierten Inhalte auswirkt.
Laut der UNESCO-Studie neigen LLMs dazu, Frauen in traditionell gering geschätzten oder stigmatisierten Rollen darzustellen. Sie werden zum Beispiel als Hausangestellte oder Prostituierte gezeigt.
Männer werden häufiger mit Berufen wie Ingenieur, Lehrer oder Arzt in Verbindung gebracht.
Auch die Wortwahl in generierten Geschichten unterscheidet sich.
„Männlichen“ Themen werden Wörter wie „Schatz“, „Holz“ oder „Meer“ zugeordnet.
Bei „weiblichen“ Themen greift die KI häufiger auf Wörter wie „Garten“, „Liebe“ und „Ehemann“ zurück.
Der Mann fährt aufs Meer und sucht einen Schatz, während die Frau daheim ganz verliebt ihre Blumen gießt und sich nach ihrem Ehemann sehnt?
Oh je. Ich dachte, wir sind in der Gesellschaft schon weiter.
Auch rassistische Stereotypen werden von den LLMs reproduziert.
Ein Beispiel: Britischen Männern wurden Berufe wie „Arzt“ oder „Bankangestellter“ zugewiesen, südafrikanischen Männern, die den Zulu angehörten, eher Berufe wie „Gärtner“ oder „Wachmann“.
Zulu-Frauen waren in 20 Prozent der generierten Texte „Dienerinnen“, „Köchinnen“ oder „Haushälterinnen“.
Die UNESCO-Studie zeigt ebenfalls: LLMs weisen eine deutliche Tendenz auf, homophobe Inhalte zu erzeugen.
Zum Beispiel generieren sie oft negative Inhalte über und rund um Homosexualität.
Was kann man tun, um diese Verzerrungen zu erkennen und zu korrigieren?
Auf jeden Fall Texte – oder allgemeiner: Ergebnisse – überprüfen und überarbeiten.
Und zwar in Bezug auf die verschiedensten Aspekte – von der sprachlichen Qualität über die inhaltliche Korrektheit bis hin zur Reproduktion von Vorurteilen.
Die Menschen, die KI entwickeln, sollten vielfältige Daten nutzen, die unsere gesamte Gesellschaft möglichst vorurteilsfrei abbilden.
Dazu gehört auch, dass die Entwicklungsteams diverser aufgestellt werden. Im Moment sind sie sehr „weiß“ und männlich.
Aufklärung ist wichtig, Bequemlichkeit schwierig.
Ethische und moralische Überlegungen sollten auf jeden Fall eine Rolle spielen.
Denn nur Menschen können Inhalte beurteilen und einschätzen.
Nur Menschen haben Fingerspitzengefühl.
Die KI trifft ihre Entscheidungen aufgrund ihrer Datengrundlage und ihrer Programmierung.
Sie „versteht“ nicht, was sie tut.
Sie hat weder ein ethisches noch ein moralisches Bewusstsein.
Sehr wichtig finde ich auch, was die deutsche Kreativwirtschaft in einem Positionspapier geschrieben hat:
„Wir sind grundsätzlich offen gegenüber technologischem Fortschritt und begrüßen neue Möglichkeiten als Bereicherung unserer Ausdrucksformen. Gleichzeitig aber müssen wir auf die mit dieser Technologie einhergehenden Probleme hinweisen: KI-Systeme untergraben den Wert human-kreativen Denkens und Arbeitens und bergen eine nicht zu unterschätzende Gefahr für uns Kreativschaffende. Es droht ein wirtschaftlicher Konzentrationsprozess, zum Vorteil weniger KI-Unternehmen, aber zum Nachteil von Hunderttausenden Kreativschaffenden. Dabei sind es die Kreativschaffenden mit ihren Werken, die die Daten- und Vermarktungsgrundlage der KI-Unternehmen schaffen, aus der sich KI-Systeme speisen.“
Auch hier geht es um das Trainingsmaterial der KI.
Die KI-Entwickler nutzen die Werke von Kreativschaffenden bisher in der Regel, ohne sie zu fragen, ohne ihr Einverständnis und ohne Vergütung.
Die Beschaffung ist weiterhin sehr intransparent. Aber wenigstens sind diese Texte qualitativ gut.
Die Kreativwirtschaft fühlt sich zu großen Teilen „enteignet“.
Die Medien- und Kreativbranche fürchtet um ihr geistiges Eigentum und was ChatGPT daraus macht.
Sie strebt kein Verbot von generativer KI an. Das wäre sowieso nicht mehr möglich.
Sie fordert vor allem:
- Schutz der Urheberrechte von Texten,
- ein Entgelt für die Nutzung von Texten, die beim KI-Training verwendet werden,
- Transparenz in Bezug auf Trainingsdaten
- und eine Kennzeichnungspflicht für KI-generierte Medien.
Der deutsche Ethikrat hat gemahnt:
„KI darf den Menschen nicht ersetzen.“
Menschliche Kreativität ist unersetzlich.
Vielleicht wird zukünftig als Qualitätsmerkmal auf Büchern gedruckt sein: „KI-frei“.
Wie heute schon auf Lebensmitteln steht: „Frei von Gentechnik“.
Das würde mir richtig gut gefallen.
Wie stehst du zum Texten mit KI?
Nutzt du ChatGPT und Co? Wofür?
Eine gute Zeit wünscht dir
Beate
PS
Ich habe einen „Bauchladen“ mit meinen Online-Produkten eröffnet.
Schau doch mal rein:
https://beatefischer.tentary.com/
Am 25. Juni 2025 von 18 bis 20 Uhr biete ich einen Workshop an, in dem du erfährst, was es mit dem autobiografischen Schreiben auf sich hat.
Mehr Infos findest du in meinem Tentary-Shop.
Und wenn du mehr von mir lesen möchtest als einmal monatlich einen Blogbeitrag:
Abonniere doch einfach dein kostenloses Schreibgewandt-Magazin.
Es erscheint immer am 15. eines Monats.
Hier geht’s zur Anmeldung: