paint-brush
Könnte KI uns in eine Ära des Qualitätsjournalismus einleiten?von@kseniase
369 Lesungen
369 Lesungen

Könnte KI uns in eine Ära des Qualitätsjournalismus einleiten?

von Ksenia Se7m2024/02/13
Read on Terminal Reader

Zu lang; Lesen

Der Artikel erörtert die Auswirkungen von KI und sozialen Medien auf den Journalismus und identifiziert KI sowohl als Herausforderung als auch als wichtigen Wegbereiter für eine qualitativ hochwertige Berichterstattung. Während soziale Medien journalistische Standards verwässert haben, indem sie Quantität statt Qualität fördern, bietet KI Werkzeuge, die journalistische Praktiken verbessern können. Beispiele hierfür sind Signals von Semafor, das KI für aufschlussreiche Nachrichtenanalysen nutzt, automatisierte Plattformen zur Faktenprüfung wie Full Fact und personalisierte Inhaltskuratierung durch die New York Times. Der Artikel betont die Bedeutung eines verantwortungsvollen Journalismus und das Potenzial der KI, die Kernaufgabe des Journalismus zu unterstützen: informieren, aufklären und die Macht zur Rechenschaft ziehen, um so seine anhaltende Relevanz und Vertrauenswürdigkeit im digitalen Zeitalter sicherzustellen.
featured image - Könnte KI uns in eine Ära des Qualitätsjournalismus einleiten?
Ksenia Se HackerNoon profile picture
0-item
1-item
2-item

Ich bin ein professioneller Journalist, der seit einigen Jahrzehnten im Technologiebereich tätig ist. Seit der Blüte der sozialen Medien waren es schwierige Zeiten für den Journalismus, da so viele Stimmen auftauchten und die Kakophonie ohrenbetäubend war.


KI-generierte Inhalte sorgen für noch mehr Infotrash. Aber überraschenderweise denke ich, dass KI dazu da ist, uns wieder auf die Qualität des Journalismus zurückzubringen , sowohl als Risikofaktor als auch als Wegbereiter. Zwei weitere Artikel von letzter Woche haben mich zum Nachdenken gebracht. Der erste von Semafor stellte sein neues Angebot vor: Semafor's Signals . Mithilfe von Microsoft- und OpenAI-Tools bietet Signals vielfältige Einblicke in globale Nachrichten und passt sich an digitale Veränderungen und KI-Herausforderungen an. Reed Albergotti, der Technologieredakteur von Semafor, schrieb :


„Es ist ein großartiges Beispiel für einen Wandel, der stattfindet. Das Aufkommen der sozialen Medien war eine schwächende Kraft für Medienunternehmen. KI hingegen ist eine stärkende Technologie. Soziale Medien machten einige Journalisten zu Stars und trugen dazu bei, die Zugriffszahlen für fast jede große Publikation zu steigern. Aber das gezielte Werbegeschäft, das durch soziale Medien angekurbelt wurde, saugte Geld von hochwertigen Publikationen ab, und der Traffic war nur ein leeres Versprechen. Wenn man an KI und Nachrichten denkt, denkt man als Erstes daran, dass Reporter durch Bots ersetzt werden. Während eine Handvoll Medien wie CNET und Sports Illustrated versucht waren, dies zu versuchen, sind diese Beispiele nur Anomalien. KI-generierte Inhalte sind mehr oder weniger Spam, der den Journalismus nicht ersetzt. Es treibt Verbraucher dazu, sich vertrauenswürdigen Verlagen zuzuwenden.“


Ich stimme diesem Punkt voll und ganz zu; Im Zeitalter der KI gibt es nichts Wichtigeres, als Stimmen/Medien zu haben, denen man vertraut. Und hier kommt der professionelle Journalist. Der verantwortliche Journalist. Wer ist diese Person? Das ist eine knifflige Frage, da „verantwortungsvoll“ im Kontext der KI zum Witz wird. Im Zeitalter der KI gewinnt die Frage, was verantwortungsvollen Journalismus ausmacht, neue Dimensionen. Letzte Woche wurde beispielsweise Goody-2 eingeführt, ein Chatbot, der Fehlinformationen vermeiden soll, indem er vage Antworten liefert und „verantwortungsvoll“ ist.


KI kann gefährlich sein und beispielsweise zum Audio-Jacking eingesetzt werden, aber im Hinblick auf den Journalismus bietet sie eine Reihe erstaunlicher Tools, die die Berichterstattung, Bearbeitung und Verbreitung von Inhalten erheblich verbessern. Beispielsweise nutzen automatisierte Plattformen zur Faktenprüfung wie Full Fact im Vereinigten Königreich KI, um im öffentlichen Diskurs aufgestellte Behauptungen schnell zu überprüfen und so die Genauigkeit und Zuverlässigkeit der Nachrichtenberichterstattung zu verbessern. Auch der Datenjournalismus wurde durch KI revolutioniert, wobei Tools wie Datawrapper es Journalisten ermöglichen, interaktive Diagramme und Visualisierungen ohne umfangreiche Programmierkenntnisse zu erstellen. Darüber hinaus zeigt das Experiment der New York Times mit personalisierten Artikelempfehlungen, wie KI Inhalte kuratieren kann, die auf die Interessen einzelner Leser zugeschnitten sind, und so möglicherweise das Engagement und die Abonnementraten steigern.


Letzte Woche dachte The Platformer auch über die Zukunft des Webs und des Journalismus nach .


Soweit Journalisten im Web der Zukunft eine Rolle spielen, müssen sie diese selbst erfinden. Verwenden Sie Arc Search, Perplexity oder Poe, und es ist klar, dass es keine Plattform gibt, die den Journalismus retten kann. Und es gibt immer mehr Plattformen, die anscheinend darauf aus sind, es zu zerstören.


Und hier stimme ich wieder zu: Niemand kommt, um den Journalismus zu retten, aber mit KI – als Risiko und Wegbereiter – kann der Journalismus endlich zu seinem Wesen zurückkehren. Wenn man über die Reise des Journalismus durch die digitalen und KI-Revolutionen nachdenkt, wird deutlich, dass trotz zahlreicher Herausforderungen das Wesen des Journalismus als eine Säule der Demokratie intakt bleibt. Der bewusste Einsatz von KI ermöglicht es dem Journalismus, zu seiner Kernaufgabe zurückzukehren: zu informieren, aufzuklären und die Macht zur Rechenschaft zu ziehen – Verantwortung zu übernehmen – und so sicherzustellen, dass er weiterhin als vertrauenswürdiger Wegweiser in einer immer komplexer werdenden Welt erfolgreich sein kann.

Neuigkeiten von den üblichen Verdächtigen ©

Vesuv und Pompeji

Roblox

  • Das Spieleunternehmen führte KI-gestützte Echtzeit-Chat-Übersetzungen in 16 Sprachen ein.

Sam Altman

  • Sam Altman strebt 5–7 Billionen US-Dollar für die weltweite Ausweitung der KI-Chip-Produktion an. (Das ist eine Menge…). Gary Marcus nennt 7 Gründe , warum die Welt Nein sagen sollte (das sind nicht so viele …)

OpenAI inzwischen

  • OpenAI erreicht einen Jahresumsatz von 2 Milliarden US-Dollar und gehört zu den am schnellsten wachsenden Technologieunternehmen.
  • OpenAI arbeitet an zwei KI-Agenten, um verschiedene Aufgaben zu automatisieren.

Microsoft

NVIDIA

Google

Ein paar

  • Nvidia, OpenAI, Microsoft und fast 200 weitere Unternehmen haben sich dem US AI Safety Institute Consortium (AISIC) angeschlossen , um die sichere Entwicklung und Bereitstellung generativer KI zu unterstützen.

Die aktuellsten Forschungsarbeiten, für Sie kategorisiert

Große Sprachmodelle und ihre Verbesserungen

  • Mehr Agenten sind alles, was Sie brauchen : Zeigt, wie die Erhöhung der Anzahl der Agenten in LLMs die Leistung durch eine Stichproben- und Abstimmungsmethode steigert. Die Zeitung lesen
  • Tag-LLM : Passt allgemeine LLMs an spezielle Domänen an, indem benutzerdefinierte Eingabe-Tags für domänen- und aufgabenspezifisches Verhalten verwendet werden. Die Zeitung lesen
  • BiLLM : Führt einen 1-Bit-Post-Training-Quantisierungsansatz für LLMs ein, der eine hohe Leistung bei extrem niedrigen Bitbreiten aufrechterhält. Die Zeitung lesen
  • Direkte Sprachmodellausrichtung durch Online-KI-Feedback : Verbessert die Modellausrichtung durch Online-Feedback und verbessert so die Erkundung und Leistung. Die Zeitung lesen
  • Der Igel und das Stachelschwein : Präsentiert Hedgehog, einen erlernbaren linearen Aufmerksamkeitsmechanismus, der die Softmax-Aufmerksamkeit in Transformers nachahmt. Die Zeitung lesen
  • Ein Interactive Agent Foundation Model : Schlägt ein neuartiges KI-Framework für Bereiche wie Robotik und Gesundheitswesen vor, das visuelle Autoencoder, Sprachmodellierung und Aktionsvorhersage integriert. Die Zeitung lesen
  • DeepSeekMath : Verschiebt die Grenzen des mathematischen Denkens in offenen Sprachmodellen. Die Zeitung lesen
  • SELBSTENTDECKUNG : Ermöglicht LLMs, selbst Argumentationsstrukturen für die Lösung komplexer Probleme zu erstellen. Die Zeitung lesen
  • Kann Mamba lernen, wie man lernt? : Vergleicht die kontextbezogenen Lernfähigkeiten von State-Space-Modellen mit Transformer-Modellen. Die Zeitung lesen
  • Skalierungsgesetze für die Downstream-Aufgabenleistung großer Sprachmodelle : Untersucht die Auswirkungen der Größe und des Typs von Vortrainingsdaten auf die Downstream-Leistung von LLMs. Die Zeitung lesen
  • Optimierung und Architektur für kleine Sprachmodelle neu denken : Studien zur Optimierung kleiner Sprachmodelle für mobile Geräte. Die Zeitung lesen
  • Verkürztes LLaMA : Untersucht Tiefenbeschneidung als Methode zur Verbesserung der LLM-Inferenzeffizienz. Die Zeitung lesen

Multimodale und Vision-Language-Modelle

  • λ-ECLIPSE : Ermöglicht die personalisierte Text-zu-Bild-Generierung durch Nutzung des latenten Raums von CLIP. Die Zeitung lesen
  • SPHINX-X : Schlägt eine erweiterte Reihe multimodaler großer Sprachmodelle vor, die sich auf Modellleistung und Trainingseffizienz konzentrieren. Die Zeitung lesen
  • SpiRit-LM : Integriert Text und Sprache in ein multimodales Basissprachenmodell für verbessertes semantisches Verständnis und Ausdruckskraft. Die Zeitung lesen
  • Fragenbewusster Vision-Transformer für multimodales Denken : Integriert Fragenbewusstsein in den Vision-Encoder für verbessertes multimodales Denken. Die Zeitung lesen
  • EVA-CLIP-18B : Skaliert CLIP auf 18 Milliarden Parameter und erzielt so erhebliche Leistungsverbesserungen bei der Bildklassifizierung. Die Zeitung lesen

Robotik, autonome Systeme und interaktive Agenten

  • Überall fahren mit Richtlinienanpassung für große Sprachmodelle : Ermöglicht die Anpassung an lokale Verkehrsregeln für autonome Fahrzeuge mithilfe von LLMs. Die Zeitung lesen
  • Offline-Schauspieler-kritisches Verstärkungslernen lässt sich auf große Modelle skalieren : Zeigt, dass Offline-Schauspieler-kritisches Verstärkungslernen effektiv auf große Modelle skaliert werden kann. Die Zeitung lesen

Webnavigation, Konversationssysteme und reale Anwendungen

  • WebLINX : Führt einen Benchmark für die Konversations-Webnavigation ein und unterstreicht den Bedarf an Modellen, die sich an neue Webumgebungen anpassen. Die Zeitung lesen
  • Kontextbezogenes Prinziplernen aus Fehlern : Verbessert das LLM-Lernen, indem es Fehler hervorruft und darüber nachdenkt, um aufgabenspezifische Prinzipien zu extrahieren. Die Zeitung lesen
  • Mehrzeiliges KI-gestütztes Code-Authoring : Präsentiert CodeCompose, ein KI-gestütztes Code-Authoring-Tool, das sowohl einzeilige als auch mehrzeilige Inline-Vorschläge bietet. Die Zeitung lesen

Zeitreihenvorhersage, Objekterkennung und andere Innovationen

  • Lag-Llama : Stellt ein Basismodell für univariate probabilistische Zeitreihenvorhersagen vor, das eine starke Zero-Shot-Verallgemeinerung zeigt. Die Zeitung lesen
  • InstaGen : Verbessert die Objekterkennung durch Training anhand synthetischer Datensätze, die aus Diffusionsmodellen generiert wurden. Die Zeitung lesen
  • Implizite Diffusion : Stellt einen Algorithmus vor, der durch stochastische Diffusionen definierte Verteilungen für eine effiziente Stichprobe optimiert. Die Zeitung lesen
  • Speicherkonsolidierung ermöglicht Videoverständnis mit langem Kontext : Schlägt eine Methode vor, die das Videoverständnis durch Konsolidierung vergangener Aktivierungen verbessert. Die Zeitung lesen
  • Schach auf Großmeisterniveau ohne Suche : Trainiert ein Transformatormodell, um eine Schachleistung auf Großmeisterniveau ohne explizite Suchalgorithmen zu erreichen. Die Zeitung lesen

Codedarstellungs- und Quantisierungstechniken

  • CODE-DARSTELLUNG LERNEN IM MASSSTAB : Stellt CODESAGE vor, ein fortschrittliches Modell für das Code-Darstellungslernen mit einem zweistufigen Vortrainingsschema. Die Zeitung lesen

Interpretierbarkeit und Grundlagenmodelle

  • Überdenken der Interpretierbarkeit im Zeitalter großer Sprachmodelle : Untersucht die Rolle der Interpretierbarkeit mit dem Aufkommen von LLMs und plädiert für einen breiteren Bereich der Interpretierbarkeit. Die Zeitung lesen

In anderen Newslettern


Erscheint auch hier .