Diesen Text wollte ich mit euch teilen, weil mich interessiert, wie eure Einstellung zu KI-generierten Zeitungsartikeln ist. Ich würde diese aus Prinzip nicht lesen, da diese für mich keinen Mehrwert bieten. Darum finde ich es den Lesern gegenüber unverschämt, wenn man einen “echt” wirkenden Autorennamen (sogar mit menschlichem Bild!) an den Artikel anhängt, anstelle ehrlich zu sein mit “Quelle: ChatGPT” und ein Bild einer Platine o.ä.
Volltext:
Sie braucht keinen Schlaf: Beim Kölner „Express“ arbeitet eine neue Kollegin. Sie ist ungeheuer fleißig. Ihre Texte sind allerdings mit größter Vorsicht zu genießen.
Dürfen wir Ihnen die Journalistin des Monats, ach was – lassen Sie uns doch gleich Wochenzeitungssuperlative gebrauchen –, des Jahrhunderts vorstellen? Klara Indernach, bitte sehr. Sie arbeitet beim Kölner Boulevardblatt „Express“, sie hat nie schlechte Laune, braucht keinen Schlaf, kein Koffein – ihre bewusstseinserweiternde Droge ist Text – und, das Beste: Lohn braucht sie auch nicht.
Nein, die Neue beim Kölner „Express“ ist keine Praktikantin, sondern vollwertiges Mitglied der Redaktion. Und als eine Art „Digital Native“ ein echtes Arbeitstier. Allein am Dienstag erschienen von ihr dreizehn Texte, der erste um 7.45 Uhr, der letzte um 23.52 Uhr. Sie schreibt über Sport, Gesundheit, Verbrechen, Köln und Umland, Prominente, Trash-TV, Verkehr, aber auch über Nachhaltigkeit.
Ein besonderes Händchen hat sie für Hammer-Schlagzeilen: „Und das schon seit Jahren / Rachel stillt ihren Ehemann (30) viermal täglich“; „Steuert Sylt auf Notstand zu? / Feuerwehr gibt Menschen Anweisungen für Brandfall: ‚Viel Erfolg‘“; „Fuß ihres Babys schaute bereits heraus / Teenagerin bemerkt Schwangerschaft erst kurz vor der Geburt“. Ist Frau Indernach eine Zeitreisende?
Kleines Manko: Ihre Texte fesseln den Leser vermutlich nicht so sehr, dass er sie bis zum Ende liest. Das müsste er aber, um das finstere Geheimnis der neuen „Express“-Kollegin zu erfahren: Frau Indernach ist eine Zeitreisende, die immer wieder in denselben Arbeitstag zurückreist, um den Clickbait-Artikelausstoß des Blattes signifikant in die Höhe zu treiben. Kleiner Scherz, Frau Indernach ist keine Frau, zumindest nicht im biologischen Sinne, auch kein Mensch. Am Ende ihrer Texte findet sich folgender Hinweis: „Dieser Text wurde mit Hilfe Künstlicher Intelligenz erstellt.“
Das Programm Frau Indernach schreibt nicht, es „erstellt“. Das ist ernüchternd. Der Blick aufs Autorenprofil verrät: „Klara Indernach ist der Name für Texte, die wir mit Hilfe Künstlicher Intelligenz erstellen. Wenn Artikel zu einem großen Teil mit Hilfe von KI generiert wurden, markieren wir sie entsprechend.“ Aber wer ist diese sympathische blonde Frau, die uns vom Autorinnenfoto entgegenlächelt? „Das Profilfoto wurde mit Hilfe von Midjourney (A. d. R.: ein durch Künstliche Intelligenz unterstützter Bildgenerator) erstellt.“
Was tröstet uns Journalisten an dieser Geschichte, in der K.I. für vieles stehen kann (kluges Investment, kalte Ignoranz oder Kölner Irrweg)? Allenfalls, dass mit der Erstellung von Texten mit Titeln wie „Deutlich gezeichnet / Ging ,Knossi‘ in Kanada durch die Hölle? Erstes Statement nach Überlebenskampf“ kein menschliches Gehirn mehr belästigt wurde. Traurig bleibt, dass es einer steigenden Zahl an Lesern egal sein wird.
Wortwörtlich vorgestern wollte ich fast den Link zum Profil von Frau Indernach hier pfostieren… Weil ich das ziemlich dreist fand, erst am Ende des Artikels zu schreiben, dass der Artikel von KI verfasst wurde. Genauso wie ich es extrem dreist fand, das Ganze mit dem Porträt eines Menschen zu garnieren. Dass das ein KI-generierter Mensch ist, sieht man gar nicht; wenigstens so ein rotes Terminator-Auge hätte man einbauen können.
Wieso ist es relevant, ob der Artikel von einer KI verfasst wurde, wenn es (bis zum Ende) gar nicht auffällt?
Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.
Meine Erwartung bezüglich des Wahrheits-/Informationsgehalts ist bei KI-Texten niedriger. Die Texte werden zwar gepromptet, bearbeitet und geprüft, aber wenn eine Redaktion schon ¾ der Arbeit mit KI spart, erwarte ich keine besonders tollen Prüfungen oder dass dabei alles Verquere gefunden wird. Ich finde auch, das Verwenden von KI-Texten rückt diese Zeitungen stärker in die Nähe von Spamblogs.
Und dann finde ich es völlig daneben, diese KI mit menschlichem Foto und Name zu versehen. Wie gesagt, Vertrauen.
Meine Erwartungshaltung ist, dass die Artikel in einer Zeitung von Menschen erstellt wurden und damit geht auch ein gewisses Vertrauen in deren Wahrhaftigkeit und Maßstäbe einher.
Naja, wir reden ja trotzdem noch vom Kölner Express…
Schon recht. Wenn das Zeitungslogo rot-weiß ist, muss man auf der gesamten Seite vorsichtig sein…
wenn eine Redaktion schon ¾ der Arbeit mit KI spart, erwarte ich keine besonders tollen Prüfungen
Genau diese gesparte Zeit kann die Redaktion mit genau dieser Prüfung verwenden und spart dennoch Zeit, um sich anderweitigen, “hochwertigeren” Inhalten zu widmen die nicht so unverfänglich sind wie Promithemen, Show-Biz oder das Wetter.
Sorry, aber du wirst vermutlich deine Erwartungshaltung ändern müssen, denn genau diese monkey-work wird
zukünftigjetzt an allen Ecken und Enden von KI zu 80% übernommenwerden.
Weil Dinge, die von KIs erstellt werden immer realistisch wirken, bis man sich WIRKLICH damit beschäftigt.
“Oh, da ist noch Finger extra, den man fast nicht sieht.” oder “Hmm, wenn ich die Text Quelle suche, finde ich nix.”
Mit solchen Dingen muss man rechnen. Das Problem hierbei ist, dass jemand, der, wie im Artikel erwähnt, nicht bis zum Ende liest, gar nicht mitbekommt, dass es ein KI-“geschriebener” Text ist. Dadurch kann der gelesene Text auch nicht korrekt eingeordnet werden.
Wir haben ja jetzt schon das Problem, dass die Leute (ich auch) zu oft nur die Überschrift lesen und diese dann im Text widerlegt oder ignoriert wird. Jetzt wird es selbst für Leute, die wenigstens noch einen Teil des Artikels oder Zitate daraus lesen, schwierig, einzuordnen, ob dieser Text so stimmig ist.
Und jetzt mal ganz ehrlich, die machen diese Vorstellung nur, damit sie später den Namen drunter schreiben und sich den Hinweis auf KI sparen können und dann kann es niemand mehr nachvollziehen.
Ich tue mich schon schwer, Leute beim Lüge zu ertappen, weil die Motivation zu lügen für mich oft nicht nachvollziehbar ist. Dabei meine ich nicht das leugnen von Fehlern, sondern vielmehr das erfinden von positiven Dingen. Das ist mir fremd. Aber man gewöhnt sich dran, und kann irgendwann mit allen Menschen umgehen.
So eine KI macht aber Fehler, mit denen wir bisher gar nicht konfrontiert waren. Und die auch völlig ohne Intention stattfinden. Das macht es besonders knifflig. Die ki hat keine Agenda, keine Meinung. Jedenfalls nicht intrinsisch.
Je nach Trainingsmaterial kann eine AI durchaus eine Meinung haben. Wenn das Wort LGBT ausschließlich mit negativen Meinungen zusammenhängt wird das Modell diese Verknüpfung lernen. Angeblich sollen die Falcon Modelle, die von TUI in Saudi-Arabien/UAE trainierten wurde, da ein paar eingeschränkte Meinungen haben. (Habe ich aber noch nicht selber überprüfen können)
Wieso hat der Autor einen Einfluss darauf, wie du einen Text einordnest? Steht das Werk nicht für sich? Ich versteh die Position, wenn es eine befangene Person ist. Aber wenn du die Namen aller Journalisten in Deutschland kennst, nur um Texte einordnen zu können, tut ein neuer Name auch nichts mehr zur Sache.
Der Mangel an Quellen ist jetzt wahrlich nicht neu in Zeitungsartikeln.
Um einen Text Quellenkritisch einzuordnen braucht man Quellen. Zu oft lese ich einen Artikel über eine Studie um dann die Studie anzusehen und direkt zu entdecken, dass die Interpretation des Artikels dort nicht gestützt wird.
Genauso bewerte ich Artikel je nach Autor oder Blatt anders. Stell dir vor Artikel des Postillion würden in Zukunft auf der Seite der Zeit ohne Kennzeichnung unter den anderen Artikeln erscheinen.
Ich weiß, worauf du hinaus willst, aber verstehst du meinen Punkt tatsächlich nicht?
Ich verstehe deinen Punkt so, dass du der Ansicht bist, dass AI Quellen nur erfinden kann, und es zwangsläufig immer logische Fehlschlüsse gibt. Eine klare Kennzeichnung ist deshalb zwingend notwendig, damit man als Leser entsprechend sorgfältig den Text liest und alle Fehler finden kann.
Meine Position ist, dass das erstens nicht immer so sein muss, bard oder Bing AI können zum Beispiel Webseiten zitieren, und zweitens trifft das auf so einige Journalisten auch zu. Ich sehe also für Unterhaltungsnachrichten kein Problem für den Einsatz von AI.
Okay, ich verstehe deine Position jetzt auch.
Agree to disagree. 🙂
Ich glaube es ist mittlerweile naiv anzunehmen das irgendein Artikel von einem echten Menschen geschrieben wurde.
Und genau deshalb sind Nachrichten ohne Kommentare heutzutage nicht mehr ernstzunehmen.
Bei so einem Schwachsinn kann man sich darauf verlassen, dass in den ersten 10 Kommentaren jemand einen Teil des Artikels oder den ganzen Artikel widerlegt.
Das wird zwar nicht ewig so bleiben, aber aktuell fährt man damit ganz gut.
Ich bin deshalb hauptsächlich auf Hacker News unterwegs, da ist allerdings das Themengebiet bewusst begrenzt.
Ich finde Nachrichten mit einfach folgbaren Quellen auch brauchbar.
Und genau deshalb sind Nachrichten ohne Kommentare heutzutage nicht mehr ernstzunehmen.
Genießen wir die Zeit, bevor Blätter wie der Kölner Express ihre KI-generierten Artikel mit KI-generierten Kommentaren aufwerten.
Wer Boulevardblätter liest, hat ohnehin keinen Respekt verdient. Da regt sich OP hier darüber auf, dass in einem unseriösen Medienformat unseriöse Quellen und Autoren eingesetzt werden.
Vielleicht interessiert ja wen, was ChatGPT dazu meinte. Dazu einfach im Superkommentar meines vielbeachteten Posts in der KI-Community die Antwort aufklappen. Punkt 4 wird euch überraschen (Späßle).
Ich finde das gut. Nein ganz im Ernst. Ich finde es gut für einige Anwendungsfälle:
- Regionalsport, denn da fährt kein Reporter mehr hin und schreibt das anschließend auf
- Wetter
- Börse
- Rathaus und Gemeindenews
- Neuigkeiten aus dem Viertel
Also alles Texte, die eine kleine Reichweite haben und unter die Rubrik „es könnte jemand mal lesen, aber nicht sehr oft“ Einweg-Wegwerf-Texte.
Alles wo mit Recherche, Hintergrundwissen, Einordnendes oder Kommentare, dann eher nicht. Ob die freie Zeit der Journalisten, dann auch für mehr qualitativen Journalismus eingesetzt wird, ist eine Gedchäftsfrage des Verlages. Vermutlich nicht. Ist aber nicht weiter schlimm, denn ein paar Jahre weitergedacht hat jeder seinen persönlichen KI- Journalisten, der maßgeschneiderte News schreibt. Dann ist der Verlag eh weg und pleite. Journalisten werden vermutlich in Eigenverlagen ihre News digital verkaufen.
Die genannten Kategorien kann man aber auch leicht einfach von der Quelle übernehmen. Die Artikel zu den Konzerten des Chors meiner Mutter z.B. schreibt schon lange einfach ein Chor-Mitglied und schickt sie an die Zeitungen.
Bei Wetter und Börse macht man das seit Jahrzehnten. Ich würde das aber nicht unbedingt als KI bezeichnen. Das ist eher ein automatisches Formularausfüllen und hat mit dem neuronale Netzen und Machine Learning, die heute Grundlage für KI die, wenig zu tun. Alle Nachrichten, bei denen die Daten in einem standardisierten, maschinenlesbaren Format vorhanden sind, lassen sich ziemlich leicht automatisiert zu Text verarbeiten.
Da kann natürlich auch ein(e) Programmierer:in Mist gebaut haben, aber anders als bei Neuronalen Netzen ist das Verhalten leicht vorherzusagen und Fehler sind meist offensichtlicher Murks.
Bei den anderen Dinge, weiß ich wie @taladar auch nicht so recht, was KIs genau machen sollen. Derzeit brauchen die nämlich noch Texte oder wenigstens Bilder als Eingaben. Vielleicht bekommen sie aus einem Protokoll eines Gemeindesrats etwas sinnvolles raus, aber bei Sportergebnissen oder so, braucht die KI sowieso einen Menschen, der die Beschreibung der physischen Welt in den Computer eintippt. Viel mehr als Rechtschreibprüfung bleibt da nicht für die KI übrig.
Edit: Was KIs (inklusive Frau Indernachs) natürlich sehr gut können, ist paraphrasieren. Die Artikel anderer Zeitungen direkt zu kopieren ist natürlich verboten. Aber über die Inhalte Berichtserstattung zu berichten, ist erlaubt. KIs lösen also rechtliche Probleme beim Copy-Pasten.
Stimme ich dir zu. Die Qualität ist halt ne bessere als früher.
Bei Sportberichterstattung und lokalen Berichten reichen auch Bilder, um daraus Texte zu generieren. Videoaufnahmen können bereits in beschreibende Texte umgewandelt werden (siehe Youtube) Es gibt auch KI-Kameras die automatisch dem Ball folgen. Kann den regionalen Vereinssport durchaus auf ne neue Ebene hieven.
Ordnet aber das Gesehene/ Gefilmte nicht in einen Kontext ein. Wie zb was gerade die Liga so spannend macht mit zwei Rivalen auf den obersten Plätzen. Bleibt noch was für Menschen über 😉
Die Geschichte mit den Videos hatte ich übersehen. Ich wusste nicht, dass die auch scho so weit sind. Danke für die Info.
Das entwickelt sich gerade super schnell. Habe auch den nicht mehr den Ehrgeiz dem zu folgen, sondern nur noch sporadisch mitbekommen.
Bin grundsätzlich bei dir. Allerdings:
Alles wo mit Recherche, Hintergrundwissen, Einordnendes oder Kommentare, dann eher nicht.
Da habe ich sofort an Rathaus und Gemeindenews gedacht, Politik eben. Kurz gefolgt von Neuigkeiten aus dem Viertel. Beides Themen, wo mit Framing (oder dessen Unterlassung) ein bestimmtes Bild erzeugt (oder vermieden) werden kann.
Beispiel Andy Grothe. Man hätte schlicht berichten können, dass er in Sorge um unsere Gesundheit feiernde Menschen zu mehr Umsicht aufruft. Ohne den Kontext, dass er selbst unter Mißachtung von Corona-Auflagen gefeiert hat, wäre da gar nicht erkennbar gewesen, dass er so 1 Pimmel ist.
Je länger ich suche, desto mehr fällt mir ein. Börse und Wetter, sind ebenfalls mit Politik verknüpft, und können relevanten Kontext haben, der Einordnung bedarf.
Und beim Sport schreibst du in einem späteren Kommentar selber:
was gerade die Liga so spannend macht mit zwei Rivalen auf den obersten Plätzen
Aber vielleicht hast du genau die Lösung gemeint; als default KI-Texte, und in besonders interessanten Kontexten menschliche Zuarbeit.
Ich habe ja auch keine Ahnung, wie sich das entwickeln wird. Ist ja nicht alles schlecht.
Mir fällt grade ein, die Stärken von LLMs sind auch das Zusammenfassen von langen und langweiligen Texten in kurz und verständlicher, einfacher Sprache. Marke „Übersetze die Scholzrede in einfache Sätze und einfache Wörter mit maximal 300 Wörtern.“
Muss für Journalisten schon frustrierend sein. Sie haben definitiv Qualitäten, die eine KI nicht bieten kann. Ob das aber langfristig reicht, um Geld zu verdienen, ist leider fraglich. Ich denke, die Zukunft der Qualitätsmedien wird in der Hand von gemeinnützigen Stiftungen liegen. Einen Business-Case haben die nämlich nicht.
mich interessiert, wie eure Einstellung zu KI-generierten Zeitungsartikeln ist. Ich würde diese aus Prinzip nicht lesen, da diese für mich keinen Mehrwert bieten.
Ich schon, bzw. kommt drauf an. Wie die Schlagzeilen-Auszüge im Text zeigen (danke fürs Kopieren!), hat der Kölner Express Wert darauf gelegt, schlechten Journalismus zu produzieren. Siehe letzter Absatz. Ich stimme zu, dass das Lesen solcher Texte fraglichen Mehrwert bietet. Aber aus dem Grund, dass die Qualität niedrig ist. Es wurde optimiert auf Clickbait, nicht auf Informationsgehalt.
Angenommen, ein ernsthafterer Versuch ergäbe eine KI, die ausgewogenere und anregendere Texte schreibt, als es menschliche Kollegen können. Wenn das Ziel wäre, möglichst guten Journalismus zu machen und das Ergebnis besser wäre als von den menschlichen Kollegen - würdest du dennoch sagen, das zu lesen würde keinen Mehrwert bieten?
Darum finde ich es den Lesern gegenüber unverschämt, wenn man einen “echt” wirkenden Autorennamen (sogar mit menschlichem Bild!) an den Artikel anhängt, anstelle ehrlich zu sein mit “Quelle: ChatGPT”
Stimmt, das wirkt irreführend. Da KI (noch) recht neu ist und (noch) viel Aufmerksamkeit bekommt glaube ich aber nicht, dass der Express gehofft hat, das würde niemand merken. Ich vermute, dass das eher eine Story ist, die sich verbreitet und das Teil der Strategie ist. Es ist ein provokanter Touch, ähnlich wie die Clickbait-Headlines.
Allerdings sind die Artikel ja entsprechend gekennzeichnet. Es erlaubt die Frage, ob der Kölner Express konsequent transparent ist, oder manchmal die Kennzeichnung fehlt. Und, ob andere Redaktionen womöglich ganz auf Kennzeichnung verzichten. Vielleicht ist KI-generierter Journalismus schon weiter verbreitet als es manchen bewusst ist.