Diesen Text wollte ich mit euch teilen, weil mich interessiert, wie eure Einstellung zu KI-generierten Zeitungsartikeln ist. Ich würde diese aus Prinzip nicht lesen, da diese für mich keinen Mehrwert bieten. Darum finde ich es den Lesern gegenüber unverschämt, wenn man einen "echt" wirkenden Autorennamen (sogar mit menschlichem Bild!) an den Artikel anhängt, anstelle ehrlich zu sein mit "Quelle: ChatGPT" und ein Bild einer Platine o.ä.
Volltext:
Sie braucht keinen Schlaf: Beim Kölner „Express“ arbeitet eine neue Kollegin. Sie ist ungeheuer fleißig. Ihre Texte sind allerdings mit größter Vorsicht zu genießen.
Dürfen wir Ihnen die Journalistin des Monats, ach was – lassen Sie uns doch gleich Wochenzeitungssuperlative gebrauchen –, des Jahrhunderts vorstellen? Klara Indernach, bitte sehr. Sie arbeitet beim Kölner Boulevardblatt „Express“, sie hat nie schlechte Laune, braucht keinen Schlaf, kein Koffein – ihre bewusstseinserweiternde Droge ist Text – und, das Beste: Lohn braucht sie auch nicht.
Nein, die Neue beim Kölner „Express“ ist keine Praktikantin, sondern vollwertiges Mitglied der Redaktion. Und als eine Art „Digital Native“ ein echtes Arbeitstier. Allein am Dienstag erschienen von ihr dreizehn Texte, der erste um 7.45 Uhr, der letzte um 23.52 Uhr. Sie schreibt über Sport, Gesundheit, Verbrechen, Köln und Umland, Prominente, Trash-TV, Verkehr, aber auch über Nachhaltigkeit.
Ein besonderes Händchen hat sie für Hammer-Schlagzeilen: „Und das schon seit Jahren / Rachel stillt ihren Ehemann (30) viermal täglich“; „Steuert Sylt auf Notstand zu? / Feuerwehr gibt Menschen Anweisungen für Brandfall: ‚Viel Erfolg‘“; „Fuß ihres Babys schaute bereits heraus / Teenagerin bemerkt Schwangerschaft erst kurz vor der Geburt“. Ist Frau Indernach eine Zeitreisende?
Kleines Manko: Ihre Texte fesseln den Leser vermutlich nicht so sehr, dass er sie bis zum Ende liest. Das müsste er aber, um das finstere Geheimnis der neuen „Express“-Kollegin zu erfahren: Frau Indernach ist eine Zeitreisende, die immer wieder in denselben Arbeitstag zurückreist, um den Clickbait-Artikelausstoß des Blattes signifikant in die Höhe zu treiben. Kleiner Scherz, Frau Indernach ist keine Frau, zumindest nicht im biologischen Sinne, auch kein Mensch. Am Ende ihrer Texte findet sich folgender Hinweis: „Dieser Text wurde mit Hilfe Künstlicher Intelligenz erstellt.“
Das Programm Frau Indernach schreibt nicht, es „erstellt“. Das ist ernüchternd. Der Blick aufs Autorenprofil verrät: „Klara Indernach ist der Name für Texte, die wir mit Hilfe Künstlicher Intelligenz erstellen. Wenn Artikel zu einem großen Teil mit Hilfe von KI generiert wurden, markieren wir sie entsprechend.“ Aber wer ist diese sympathische blonde Frau, die uns vom Autorinnenfoto entgegenlächelt? „Das Profilfoto wurde mit Hilfe von Midjourney (A. d. R.: ein durch Künstliche Intelligenz unterstützter Bildgenerator) erstellt.“
Was tröstet uns Journalisten an dieser Geschichte, in der K.I. für vieles stehen kann (kluges Investment, kalte Ignoranz oder Kölner Irrweg)? Allenfalls, dass mit der Erstellung von Texten mit Titeln wie „Deutlich gezeichnet / Ging ,Knossi‘ in Kanada durch die Hölle? Erstes Statement nach Überlebenskampf“ kein menschliches Gehirn mehr belästigt wurde. Traurig bleibt, dass es einer steigenden Zahl an Lesern egal sein wird.
Weil Dinge, die von KIs erstellt werden immer realistisch wirken, bis man sich WIRKLICH damit beschäftigt.
"Oh, da ist noch Finger extra, den man fast nicht sieht." oder "Hmm, wenn ich die Text Quelle suche, finde ich nix."
Mit solchen Dingen muss man rechnen. Das Problem hierbei ist, dass jemand, der, wie im Artikel erwähnt, nicht bis zum Ende liest, gar nicht mitbekommt, dass es ein KI-"geschriebener" Text ist. Dadurch kann der gelesene Text auch nicht korrekt eingeordnet werden.
Wir haben ja jetzt schon das Problem, dass die Leute (ich auch) zu oft nur die Überschrift lesen und diese dann im Text widerlegt oder ignoriert wird. Jetzt wird es selbst für Leute, die wenigstens noch einen Teil des Artikels oder Zitate daraus lesen, schwierig, einzuordnen, ob dieser Text so stimmig ist.
Und jetzt mal ganz ehrlich, die machen diese Vorstellung nur, damit sie später den Namen drunter schreiben und sich den Hinweis auf KI sparen können und dann kann es niemand mehr nachvollziehen.
Wieso hat der Autor einen Einfluss darauf, wie du einen Text einordnest? Steht das Werk nicht für sich? Ich versteh die Position, wenn es eine befangene Person ist. Aber wenn du die Namen aller Journalisten in Deutschland kennst, nur um Texte einordnen zu können, tut ein neuer Name auch nichts mehr zur Sache.
Der Mangel an Quellen ist jetzt wahrlich nicht neu in Zeitungsartikeln.
Um einen Text Quellenkritisch einzuordnen braucht man Quellen. Zu oft lese ich einen Artikel über eine Studie um dann die Studie anzusehen und direkt zu entdecken, dass die Interpretation des Artikels dort nicht gestützt wird.
Genauso bewerte ich Artikel je nach Autor oder Blatt anders. Stell dir vor Artikel des Postillion würden in Zukunft auf der Seite der Zeit ohne Kennzeichnung unter den anderen Artikeln erscheinen.
Ich weiß, worauf du hinaus willst, aber verstehst du meinen Punkt tatsächlich nicht?
Ich verstehe deinen Punkt so, dass du der Ansicht bist, dass AI Quellen nur erfinden kann, und es zwangsläufig immer logische Fehlschlüsse gibt. Eine klare Kennzeichnung ist deshalb zwingend notwendig, damit man als Leser entsprechend sorgfältig den Text liest und alle Fehler finden kann.
Meine Position ist, dass das erstens nicht immer so sein muss, bard oder Bing AI können zum Beispiel Webseiten zitieren, und zweitens trifft das auf so einige Journalisten auch zu. Ich sehe also für Unterhaltungsnachrichten kein Problem für den Einsatz von AI.
Okay, ich verstehe deine Position jetzt auch.
Agree to disagree. 🙂
Ich tue mich schon schwer, Leute beim Lüge zu ertappen, weil die Motivation zu lügen für mich oft nicht nachvollziehbar ist. Dabei meine ich nicht das leugnen von Fehlern, sondern vielmehr das erfinden von positiven Dingen. Das ist mir fremd. Aber man gewöhnt sich dran, und kann irgendwann mit allen Menschen umgehen.
So eine KI macht aber Fehler, mit denen wir bisher gar nicht konfrontiert waren. Und die auch völlig ohne Intention stattfinden. Das macht es besonders knifflig. Die ki hat keine Agenda, keine Meinung. Jedenfalls nicht intrinsisch.
Je nach Trainingsmaterial kann eine AI durchaus eine Meinung haben. Wenn das Wort LGBT ausschließlich mit negativen Meinungen zusammenhängt wird das Modell diese Verknüpfung lernen. Angeblich sollen die Falcon Modelle, die von TUI in Saudi-Arabien/UAE trainierten wurde, da ein paar eingeschränkte Meinungen haben. (Habe ich aber noch nicht selber überprüfen können)