this post was submitted on 21 Sep 2023
38 points (95.2% liked)

DACH - jetzt auf feddit.org

8713 readers
1 users here now

Diese Community wird zum 01.07 auf read-only gestellt. Durch die anhäufenden IT-Probleme und der fehlende Support wechseln wir als Community auf www.feddit.org/c/dach - Ihr seid herzlich eingeladen auch dort weiter zu diskutieren!

Das Sammelbecken auf feddit für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar findet ihr hier: Infothread: Regeln, Feedback & sonstige Infos

Auch hier gelten die Serverregeln von https://feddit.de !

Banner: SirSamuelVimes

founded 1 year ago
MODERATORS
 

Diesen Text wollte ich mit euch teilen, weil mich interessiert, wie eure Einstellung zu KI-generierten Zeitungsartikeln ist. Ich würde diese aus Prinzip nicht lesen, da diese für mich keinen Mehrwert bieten. Darum finde ich es den Lesern gegenüber unverschämt, wenn man einen "echt" wirkenden Autorennamen (sogar mit menschlichem Bild!) an den Artikel anhängt, anstelle ehrlich zu sein mit "Quelle: ChatGPT" und ein Bild einer Platine o.ä.

Volltext:

Sie braucht keinen Schlaf: Beim Kölner „Express“ arbeitet eine neue Kollegin. Sie ist ungeheuer fleißig. Ihre Texte sind allerdings mit größter Vorsicht zu genießen.

Dürfen wir Ihnen die Journalistin des Monats, ach was – lassen Sie uns doch gleich Wochenzeitungssuperlative gebrauchen –, des Jahrhunderts vorstellen? Klara Indernach, bitte sehr. Sie arbeitet beim Kölner Boulevardblatt „Express“, sie hat nie schlechte Laune, braucht keinen Schlaf, kein Koffein – ihre bewusstseinserweiternde Droge ist Text – und, das Beste: Lohn braucht sie auch nicht.

Nein, die Neue beim Kölner „Express“ ist keine Praktikantin, sondern vollwertiges Mitglied der Redaktion. Und als eine Art „Digital Native“ ein echtes Arbeitstier. Allein am Dienstag erschienen von ihr dreizehn Texte, der erste um 7.45 Uhr, der letzte um 23.52 Uhr. Sie schreibt über Sport, Gesundheit, Verbrechen, Köln und Umland, Prominente, Trash-TV, Verkehr, aber auch über Nachhaltigkeit.

Ein besonderes Händchen hat sie für Hammer-Schlagzeilen: „Und das schon seit Jahren / Rachel stillt ihren Ehemann (30) viermal täglich“; „Steuert Sylt auf Notstand zu? / Feuerwehr gibt Menschen Anweisungen für Brandfall: ‚Viel Erfolg‘“; „Fuß ihres Babys schaute bereits heraus / Teenagerin bemerkt Schwangerschaft erst kurz vor der Geburt“. Ist Frau Indernach eine Zeitreisende?

Kleines Manko: Ihre Texte fesseln den Leser vermutlich nicht so sehr, dass er sie bis zum Ende liest. Das müsste er aber, um das finstere Geheimnis der neuen „Express“-Kollegin zu erfahren: Frau Indernach ist eine Zeitreisende, die immer wieder in denselben Arbeitstag zurückreist, um den Clickbait-Artikelausstoß des Blattes signifikant in die Höhe zu treiben. Kleiner Scherz, Frau Indernach ist keine Frau, zumindest nicht im biologischen Sinne, auch kein Mensch. Am Ende ihrer Texte findet sich folgender Hinweis: „Dieser Text wurde mit Hilfe Künstlicher Intelligenz erstellt.“

Das Programm Frau Indernach schreibt nicht, es „erstellt“. Das ist ernüchternd. Der Blick aufs Autorenprofil verrät: „Klara Indernach ist der Name für Texte, die wir mit Hilfe Künstlicher Intelligenz erstellen. Wenn Artikel zu einem großen Teil mit Hilfe von KI generiert wurden, markieren wir sie entsprechend.“ Aber wer ist diese sympathische blonde Frau, die uns vom Autorinnenfoto entgegenlächelt? „Das Profilfoto wurde mit Hilfe von Midjourney (A. d. R.: ein durch Künstliche Intelligenz unterstützter Bildgenerator) erstellt.“

Was tröstet uns Journalisten an dieser Geschichte, in der K.I. für vieles stehen kann (kluges Investment, kalte Ignoranz oder Kölner Irrweg)? Allenfalls, dass mit der Erstellung von Texten mit Titeln wie „Deutlich gezeichnet / Ging ,Knossi‘ in Kanada durch die Hölle? Erstes Statement nach Überlebenskampf“ kein menschliches Gehirn mehr belästigt wurde. Traurig bleibt, dass es einer steigenden Zahl an Lesern egal sein wird.

you are viewing a single comment's thread
view the rest of the comments
[–] federalreverse@feddit.de 24 points 1 year ago* (last edited 1 year ago) (2 children)

Wortwörtlich vorgestern wollte ich fast den Link zum Profil von Frau Indernach hier pfostieren... Weil ich das ziemlich dreist fand, erst am Ende des Artikels zu schreiben, dass der Artikel von KI verfasst wurde. Genauso wie ich es extrem dreist fand, das Ganze mit dem Porträt eines Menschen zu garnieren. Dass das ein KI-generierter Mensch ist, sieht man gar nicht; wenigstens so ein rotes Terminator-Auge hätte man einbauen können.

[–] smollittlefrog@lemdro.id 6 points 1 year ago (2 children)

Wieso ist es relevant, ob der Artikel von einer KI verfasst wurde, wenn es (bis zum Ende) gar nicht auffällt?

[–] federalreverse@feddit.de 7 points 1 year ago (2 children)

Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.

Meine Erwartung bezüglich des Wahrheits-/Informationsgehalts ist bei KI-Texten niedriger. Die Texte werden zwar gepromptet, bearbeitet und geprüft, aber wenn eine Redaktion schon ¾ der Arbeit mit KI spart, erwarte ich keine besonders tollen Prüfungen oder dass dabei alles Verquere gefunden wird. Ich finde auch, das Verwenden von KI-Texten rückt diese Zeitungen stärker in die Nähe von Spamblogs.

Und dann finde ich es völlig daneben, diese KI mit menschlichem Foto und Name zu versehen. Wie gesagt, Vertrauen.

[–] AnAngryAlpaca@feddit.de 6 points 1 year ago* (last edited 1 year ago) (1 children)

Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.

Naja, wir reden ja trotzdem noch vom Kölner Express...

[–] federalreverse@feddit.de 4 points 1 year ago

Schon recht. Wenn das Zeitungslogo rot-weiß ist, muss man auf der gesamten Seite vorsichtig sein...

wenn eine Redaktion schon ¾ der Arbeit mit KI spart, erwarte ich keine besonders tollen Prüfungen

Genau diese gesparte Zeit kann die Redaktion mit genau dieser Prüfung verwenden und spart dennoch Zeit, um sich anderweitigen, "hochwertigeren" Inhalten zu widmen die nicht so unverfänglich sind wie Promithemen, Show-Biz oder das Wetter.

Sorry, aber du wirst vermutlich deine Erwartungshaltung ändern müssen, denn genau diese monkey-work wird ~~zukünftig~~ jetzt an allen Ecken und Enden von KI zu 80% übernommen ~~werden~~.

[–] Black616Angel@feddit.de 7 points 1 year ago (2 children)

Weil Dinge, die von KIs erstellt werden immer realistisch wirken, bis man sich WIRKLICH damit beschäftigt.

"Oh, da ist noch Finger extra, den man fast nicht sieht." oder "Hmm, wenn ich die Text Quelle suche, finde ich nix."

Mit solchen Dingen muss man rechnen. Das Problem hierbei ist, dass jemand, der, wie im Artikel erwähnt, nicht bis zum Ende liest, gar nicht mitbekommt, dass es ein KI-"geschriebener" Text ist. Dadurch kann der gelesene Text auch nicht korrekt eingeordnet werden.

Wir haben ja jetzt schon das Problem, dass die Leute (ich auch) zu oft nur die Überschrift lesen und diese dann im Text widerlegt oder ignoriert wird. Jetzt wird es selbst für Leute, die wenigstens noch einen Teil des Artikels oder Zitate daraus lesen, schwierig, einzuordnen, ob dieser Text so stimmig ist.

Und jetzt mal ganz ehrlich, die machen diese Vorstellung nur, damit sie später den Namen drunter schreiben und sich den Hinweis auf KI sparen können und dann kann es niemand mehr nachvollziehen.

[–] Turun@feddit.de 3 points 1 year ago (2 children)

Wieso hat der Autor einen Einfluss darauf, wie du einen Text einordnest? Steht das Werk nicht für sich? Ich versteh die Position, wenn es eine befangene Person ist. Aber wenn du die Namen aller Journalisten in Deutschland kennst, nur um Texte einordnen zu können, tut ein neuer Name auch nichts mehr zur Sache.

Der Mangel an Quellen ist jetzt wahrlich nicht neu in Zeitungsartikeln.

[–] RQG@lemmy.world 1 points 1 year ago

Um einen Text Quellenkritisch einzuordnen braucht man Quellen. Zu oft lese ich einen Artikel über eine Studie um dann die Studie anzusehen und direkt zu entdecken, dass die Interpretation des Artikels dort nicht gestützt wird.

Genauso bewerte ich Artikel je nach Autor oder Blatt anders. Stell dir vor Artikel des Postillion würden in Zukunft auf der Seite der Zeit ohne Kennzeichnung unter den anderen Artikeln erscheinen.

[–] Black616Angel@feddit.de 1 points 1 year ago (1 children)

Ich weiß, worauf du hinaus willst, aber verstehst du meinen Punkt tatsächlich nicht?

[–] Turun@feddit.de 2 points 1 year ago (1 children)

Ich verstehe deinen Punkt so, dass du der Ansicht bist, dass AI Quellen nur erfinden kann, und es zwangsläufig immer logische Fehlschlüsse gibt. Eine klare Kennzeichnung ist deshalb zwingend notwendig, damit man als Leser entsprechend sorgfältig den Text liest und alle Fehler finden kann.

Meine Position ist, dass das erstens nicht immer so sein muss, bard oder Bing AI können zum Beispiel Webseiten zitieren, und zweitens trifft das auf so einige Journalisten auch zu. Ich sehe also für Unterhaltungsnachrichten kein Problem für den Einsatz von AI.

[–] Black616Angel@feddit.de 2 points 1 year ago

Okay, ich verstehe deine Position jetzt auch.

Agree to disagree. 🙂

[–] A2PKXG@feddit.de 2 points 1 year ago (1 children)

Ich tue mich schon schwer, Leute beim Lüge zu ertappen, weil die Motivation zu lügen für mich oft nicht nachvollziehbar ist. Dabei meine ich nicht das leugnen von Fehlern, sondern vielmehr das erfinden von positiven Dingen. Das ist mir fremd. Aber man gewöhnt sich dran, und kann irgendwann mit allen Menschen umgehen.

So eine KI macht aber Fehler, mit denen wir bisher gar nicht konfrontiert waren. Und die auch völlig ohne Intention stattfinden. Das macht es besonders knifflig. Die ki hat keine Agenda, keine Meinung. Jedenfalls nicht intrinsisch.

[–] Turun@feddit.de 1 points 1 year ago

Je nach Trainingsmaterial kann eine AI durchaus eine Meinung haben. Wenn das Wort LGBT ausschließlich mit negativen Meinungen zusammenhängt wird das Modell diese Verknüpfung lernen. Angeblich sollen die Falcon Modelle, die von TUI in Saudi-Arabien/UAE trainierten wurde, da ein paar eingeschränkte Meinungen haben. (Habe ich aber noch nicht selber überprüfen können)

[–] polle@feddit.de 2 points 1 year ago

Ich glaube es ist mittlerweile naiv anzunehmen das irgendein Artikel von einem echten Menschen geschrieben wurde.