私はテクノロジー業界で数十年間働いてきたプロのジャーナリストです。ソーシャルメディアの隆盛以来、非常に多くの声が現れ、耳をつんざくような不協和音が発生し、ジャーナリズムにとって厳しい時代が続いた。
AI によって生成されたコンテンツは、さらに多くの情報ゴミを追加します。しかし、驚くべきことに、 AI はリスク要因としてもイネーブラーとしても、私たちをジャーナリズムの質に立ち返らせるために存在していると私は考えています。先週の他の 2 つの記事では、このことについて考えさせられました。 Semafor の最初のものは、新しい製品であるSemafor の Signalsを紹介しました。 Signals は Microsoft と OpenAI ツールを使用して、デジタル シフトと AI の課題に適応しながら、世界的なニュースに関するさまざまな洞察を提供します。 Semafor のテクノロジー編集者である Reed Albergotti は次のように書いています。
「これは、現在起きている変化を示す良い例です。ソーシャルメディアの出現は、メディア組織の力を弱体化させました。一方、AIは強化するテクノロジーです。ソーシャル メディアは一部のジャーナリストをスターに変え、ほぼすべての主要出版物のアクセス数を大幅に増やすことに貢献しました。しかし、ソーシャルメディアの影響でターゲットを絞った広告ビジネスが質の高い出版物から資金を吸い上げ、トラフィックは空約束に過ぎなかった。 AI とニュースについて考えるとき、最初に頭に浮かぶのは、記者がボットに取って代わられることです。 CNET や Sports Illustrated などの少数の報道機関がこれを試みようとする誘惑に駆られていますが、これらの例は単なる異常です。 AI によって生成されたコンテンツは多かれ少なかれスパムであり、ジャーナリズムに取って代わるものではありません。それは消費者を信頼できるパブリッシャーへと誘導します。」
私もこの点に完全に同意します。 AI の時代において、信頼できる声やメディアを持つことほど重要なことはありません。そしてプロのジャーナリストが登場します。担当記者。このひとはだれ? AI の文脈における「責任」は冗談になってしまうため、これは難しい質問です。 AI の時代において、責任あるジャーナリズムとは何かという問題は、新たな次元を獲得しています。たとえば、先週、 Goody-2がローンチされました。これは、あいまいな応答を提供し、「責任を負う」ことで誤った情報を回避するように設計されたチャットボットです。
AI は危険であり、 音声ジャックなどに使用される可能性がありますが、ジャーナリズムの観点から見ると、レポート作成、編集、コンテンツ配信を大幅に強化する素晴らしいツールが多数提供されています。たとえば、英国のFull Factのような自動ファクトチェック プラットフォームは AI を利用して公の場での主張を迅速に検証し、ニュース報道の正確性と信頼性を高めています。データ ジャーナリズムも AI によって革命を起こしており、 Datawrapperなどのツールを使用すると、ジャーナリストは広範なコーディング知識がなくてもインタラクティブなグラフやビジュアライゼーションを作成できます。さらに、ニューヨーク・タイムズによるパーソナライズされた記事の推奨実験では、AI が個々の読者の興味に合わせたコンテンツをどのように厳選し、エンゲージメント率と購読率を向上させる可能性があるかを示しています。
先週、The Platformer はウェブとジャーナリズムの未来についても考えていました。
「ジャーナリストが将来のウェブで果たすべき役割がある限り、それは彼ら自身で発明しなければならないものです。 Arc Search、Perplexity、Poe を使用すれば、ジャーナリズムを救うプラットフォームが登場しないことは明らかです。そして、それを破壊しようとしているように見えるプラットフォームの数がますます増えています。 」
そしてここでも私は再び同意します。誰もジャーナリズムを救ってくれる人はいませんが、リスクと実現要因としての AI によって、ジャーナリズムは最終的にその本質に立ち返ることができるのです。デジタル革命と AI 革命を通じたジャーナリズムの歩みを振り返ると、課題は山積しているものの、民主主義の柱としてのジャーナリズムの本質は損なわれていないことが明らかになります。 AI を思慮深く採用することで、ジャーナリズムは、情報を提供し、教育し、責任を負うというその中心的使命に立ち返ることができ、それによって、ますます複雑化する世界で信頼できるガイドとして繁栄し続けることが保証されます。
ユージュアル・サスペクツからのニュース ©
ヴェスヴィオ山とポンペイ
ロブロックス
- このゲーム会社は、AI を活用した 16 か国語のリアルタイム チャット翻訳を導入しました。
サム・アルトマン
- サム・アルトマン氏は世界的なAIチップ生産拡大に5兆〜7兆ドルを求めている。 (それは多いです…)。ゲイリー・マーカスが、世界がノーと言うべき7つの理由を紹介します(それほど多くはありません…)
一方、OpenAI
マイクロソフト
エヌビディア
グーグル
いくつか
- Nvidia、OpenAI、Microsoft、その他約 200 社が、生成 AI の安全な開発と展開をサポートするために、米国 AI Safety Institute Consortium (AISIC) に参加しました。
最新の研究論文をわかりやすく分類
大規模な言語モデルとその拡張機能
- 必要なのはエージェントの数が増えるだけ: LLM 内のエージェントの数を増やすと、サンプリングと投票の方法によってパフォーマンスがどのように向上するかを示します。論文を読む
- Tag-LLM : ドメインおよびタスク固有の動作用のカスタム入力タグを使用して、汎用 LLM を特殊なドメインに適応させます。論文を読む
- BiLLM : LLM に 1 ビットのポストトレーニング量子化アプローチを導入し、超低ビット幅でも高いパフォーマンスを維持します。論文を読む
- オンライン AI フィードバックによる直接言語モデルの調整: オンライン フィードバックを通じてモデルの調整を強化し、探索とパフォーマンスを向上させます。論文を読む
- The Hedgehog & the Porcupine : トランスフォーマーのソフトマックス注意を模倣する学習可能な線形注意メカニズムである Hedgehog を紹介します。論文を読む
- インタラクティブ エージェント基盤モデル: ビジュアル オートエンコーダー、言語モデリング、アクション予測を統合した、ロボティクスやヘルスケアなどのドメイン向けの新しい AI フレームワークを提案します。論文を読む
- DeepSeekMath : オープン言語モデルで数学的推論の限界を押し広げます。論文を読む
- SELF-DISCOVER : LLM が複雑な問題解決のための推論構造を自己構築できるようにします。論文を読む
- マンバは学び方を学べるのか? : 状態空間モデルのコンテキスト内学習能力を Transformer モデルと比較します。論文を読む
- 大規模言語モデルの下流タスク パフォーマンスのスケーリング則: LLM の下流パフォーマンスに対する事前トレーニング データのサイズと型の影響を調査します。論文を読む
- 極小言語モデルの最適化とアーキテクチャを再考する: モバイル デバイス向けに極小言語モデルを最適化する研究。論文を読む
- 短縮 LLaMA : LLM 推論効率を向上させる方法として深さ枝刈りを検討します。論文を読む
マルチモーダルおよび視覚言語モデル
- λ-ECLIPSE : CLIP の潜在空間を活用して、パーソナライズされたテキストから画像への生成を実現します。論文を読む
- SPHINX-X : モデルのパフォーマンスとトレーニング効率に焦点を当てた、マルチモダリティ大規模言語モデルの高度なシリーズを提案します。論文を読む
- SpiRit-LM : テキストと音声をマルチモーダル基礎言語モデルに統合し、意味の理解と表現力を向上させます。論文を読む
- マルチモーダル推論のための質問認識ビジョントランスフォーマー: マルチモーダル推論を強化するためにビジョンエンコーダ内に質問認識を埋め込みます。論文を読む
- EVA-CLIP-18B : CLIP を 180 億パラメータに拡張し、画像分類の大幅なパフォーマンス向上を実現します。論文を読む
ロボット工学、自律システム、および対話型エージェント
- 大規模言語モデルのポリシー適応によるどこでも運転: LLM を使用して自動運転車の地域の交通規則に適応できるようにします。論文を読む
- オフラインのアクター - クリティカル強化学習は大規模モデルにスケールアップ : オフライン アクター - クリティカル強化学習が大規模モデルに効果的にスケールできることを示します。論文を読む
Web ナビゲーション、会話システム、および現実世界のアプリケーション
- WebLINX : 会話型 Web ナビゲーションのベンチマークを導入し、新しい Web 環境に適応するモデルの必要性を強調します。論文を読む
- 間違いから学ぶコンテキスト内の原則: 間違いを誘発し、それを反省してタスク固有の原則を抽出することで、LLM の学習を強化します。論文を読む
- 複数行の AI 支援コード オーサリング: 単一行と複数行の両方のインライン提案を提供する AI 支援コード オーサリング ツールである CodeCompose を紹介します。論文を読む
時系列予測、物体検出、その他のイノベーション
- Lag-Llama : 単変量確率時系列予測の基礎モデルを導入し、強力なゼロショット一般化を示します。論文を読む
- InstaGen : 拡散モデルから生成された合成データセットでトレーニングすることにより、オブジェクト検出を強化します。論文を読む
- Implicit Diffusion : 効率的なサンプリングのために確率的拡散によって定義された分布を最適化するアルゴリズムを提供します。論文を読む
- Memory Consolidation Enables Long-Context Video Understanding : 過去のアクティベーションを統合することでビデオの理解を強化する方法を提案します。論文を読む
- 検索なしのグランドマスター レベルのチェス: 明示的な検索アルゴリズムを使用せずにグランドマスター レベルのチェスのパフォーマンスを達成するためにトランスフォーマー モデルをトレーニングします。論文を読む
コード表現と量子化技術
- 大規模なコード表現学習: 2 段階の事前トレーニング スキームを使用したコード表現学習の高度なモデルである CODESAGE を紹介します。論文を読む
解釈可能性と基礎モデル
- 大規模言語モデルの時代における解釈可能性の再考: LLM の出現による解釈可能性の役割を検討し、解釈可能性のより広い範囲を提唱します。論文を読む
他のニュースレターでも