paint-brush
体系的な ESG スコアリング システムの作成: 方法@carbonization
224 測定値

体系的な ESG スコアリング システムの作成: 方法

長すぎる; 読むには

このプロジェクトは、社会感情を取り入れることで、より優れたガイダンスとより体系化されたスコアを提供できる、データ駆動型のESG評価システムを構築することを目的としています。
featured image - 体系的な ESG スコアリング システムの作成: 方法
Carbonization Process Evolution Publication HackerNoon profile picture
0-item

著者:

(1)アーラヴ・パテル、アミティリージョナル高等学校 – メールアドレス:[email protected]

(2)ピーター・グローア、マサチューセッツ工科大学集合知センター、連絡先著者 – メールアドレス:[email protected]

リンク一覧

4. 方法

このプロジェクトの作成は 3 つのステップに分かれています。最初のステップは、さまざまなソーシャル ネットワーク上の Web スクレイパーによるデータ収集です。その後、テキスト データが前処理され、自然言語処理を使用してサブカテゴリ スコアに変換されます。最後に、このデータを使用して機械学習アルゴリズムをトレーニングし、統一的な ESG 格付けを計算します。


図2: データ駆動型ESG指数がソーシャルネットワークデータを使用して統一的なESG格付けを計算する方法の概要

4.1. データ収集

企業の自己申告による提出書類ではなく、ソーシャル ネットワーク データを使用して ESG を総合的に定量化しました。ソーシャル ネットワーク分析と Web スクレイピングを使用して傾向を特定できます (Gloor 他、2009)。Twitter、LinkedIn、Google ニュースなどの人気のソーシャル ネットワークには、ほぼすべてのトピックに関する膨大なデータがあります。このデータは、企業の ESG 実践についてバランスの取れた見解を提供し、企業の短期的および長期的な ESG 傾向の両方をカバーするのに役立ちます。また、提出書類に反映されていない可能性のあるデータも収集できます。最後に、このデータは部外者の懸念を直接浮き彫りにできるため、企業の ESG イニシアチブをより効果的に導くことができます。


図3: データ収集に使用されたキーワード/トピック


これを行うために、ESG 関連キーワードの包括的なリストが作成されました (図 3)。このキーワード リストは、現在の ESG 格付け方法で一般的に使用されているサブカテゴリからヒントを得ました。このリストは、Wikipedia、LinkedIn、Twitter、Google ニュースから公開されている企業データを収集するために使用されました。データを収集するために、Python で Web スクレーパーが開発されました。Wikipedia データは、Wikipedia アプリケーション プログラミング インターフェイス (API) を使用して収集されました。Wikipedia は、企業の慣行の概要を提供するのに役立ちます。Google ニュース データは、Google 検索に基づいてトップ ニュース記事を特定することによって収集されました。これらの記事へのリンクが保存されました。ニュースは、注目すべき ESG の動向に関する全体的な最新情報を提供します。Twitter データは、Snscrape ライブラリの助けを借りて収集されました。Snscrape は、ユーザーがほぼすべての時間枠からほぼ無制限のツイート (1 時間あたりに収集できる数には一定の制限があります) を収集できる軽量 API です。Twitter は、主に企業の慣行に関する消費者側のフィードバックを提供するために選択されました。LinkedIn API は LinkedIn 投稿の収集をサポートしていないため、代わりにゼロからアルゴリズムが作成されました。このアルゴリズムは、Selenium Chromedriver を利用して、LinkedIn クエリを人間がスクロールする動作をシミュレートしました。これに基づいて、BeautifulSoup 経由の HTML リクエストを使用して各投稿のテキストが収集され、保存されました。LinkedIn は、企業の実務に関するより専門的な情報を提供する役割を果たしています。このデータ収集アーキテクチャにより、必要に応じてリアルタイムで評価を更新および生成できます。その後、各サブカテゴリのデータが CSV ファイルに保存されました。


これら 4 つのソーシャル ネットワークは、幅広い企業の ESG データをカバーしています。ほとんどの S&P 500 企業 (不動産を除く) のデータが収集されました。不動産が除外された主な理由は、ESG 問題に関する報道があまり行われなかったため (表面レベルの分析に基づく)、提案されたシステムには適していないと思われたためです。これにより、収集された企業がセクターや業界全体でバランスよくまとめられます。Web スクレイパーは、ソーシャル ネットワーク上のキーワードごとに約 100 件の投稿/記事を収集しようとしました。ただし、API レート制限とあまり知られていない企業のデータ可用性の制限により、収集されるデータが少なくなる場合がありました。収集を高速化するために、複数のスクリプトが同時に実行されました。当初、プログラムは、非常に短い時間枠で大量のデータを収集するため、レート制限を受けることがよくありました。これを解決するために、これに遭遇した場合にプログラムを一時停止する安全策が追加されました。すべてのデータ収集は、各サイトの利用規約に従って行われました。合計で、約 470 社の企業で約 937,400 のデータ ポイントが収集され、ソーシャル ネットワーク キーワードごとに平均約 37 ポイントでした。このデータのほとんどは 2021 年に集中していました。ただし、十分な情報を収集するのに苦労しているあまり知られていない企業のデータ ポイントが除外されるため、厳密な日付範囲は設定されませんでした。


すべてのデータが収集されると、さらに分析するためにスプレッドシートにエクスポートされました。データは RegEx (正規表現) を使用して前処理されました。まず、URL とリンクが削除されました。言及は名前を抽象化するために一般的な単語に置き換えられました。最後に、一般的でない文字と句読点が削除されました。これにより、NLP 分析を妨げる可能性のある単語/文字を除外できました。

4.2. NLP分析

データがクリーンアップされ、整理された後、分析用の NLP アルゴリズムが構築されました。まず、結果を妨げる可能性のある ESG に無関係なデータを除外するための ESG 関連性アルゴリズムが作成されました。これを行うには、キーワード検出を使用して、投稿/記事が現在の会社と 1 つ以上の ESG サブカテゴリについて説明しているかどうかを確認します。次に、意図しないデータを削除するために、Python の Natural Language Toolkit (NLTK) の固有表現認識ライブラリを使用して、投稿が組織に関連しているかどうかを判断します。たとえば、「リンゴの気候」というクエリを検索すると、「春の気候はリンゴの木を育てるのに最適な時期です」という投稿が表示される場合があります。ただし、固有表現認識は、「Apple」が形容詞として使用されているため、この文が ESG に関連していないことを識別できます。したがって、アルゴリズムはそれを分析から無視します。一方、投稿に「Apple は気候変動への取り組みに 5 億ドルを投入しています」と書かれていた場合、アルゴリズムは投稿が組織としての Apple について話していると判断します。このフィルタリング手順は、無関係な情報を削除してデータの品質を向上させるのに役立ちます。


フィルタリング後、NLP 感情分析を使用して、投稿が ESG に肯定的か否定的かをスコア付けしました。これを行うために 2 つの NLP アルゴリズムが作成されました。短い投稿の NLP アルゴリズムは短いテキスト本文 (ツイート、LinkedIn の投稿) を分析し、長い記事の NLP アルゴリズムは長い本文 (ニュース記事、Wikipedia の記事) を分析しました。


さまざまな Python 感情分析ライブラリの文学的分析が行われました。TextBlob、VADER、FastText、Flair などのさまざまな感情分析ライブラリを比較した結果、Flair が他の分類器よりも優れていることがわかりました。これは、VADER や TextBlob などの単純な bag-of-words 分類器では、異なる単語同士の関係を識別できなかったためと考えられます。一方、Flair は文脈上の単語ベクトルを使用して、文の単語レベルと文字レベルの関係を分析しました。このため、これらのアルゴリズムをスタンフォード感情ツリーバンク (SST) でテストし、映画レビューの感情を 1 ~ 5 のスケールで評価したところ、Flair アルゴリズムが F1 スコア 49.90% で最高のパフォーマンスを示したことがわかりました (Akbik ら、2018 年) (Rao ら、2019 年) (図 4)。そこで、Flair 感情分析ライブラリを使用してショート ポスト アルゴリズムを構築しました。長文記事アルゴリズムは、基本的には短文記事アルゴリズムと同じですが、記事内の関連する本文段落(つまり、会社名を含む段落)全体で平均化されます。


図4: SST-5データベースにおけるさまざまな感情分析アルゴリズムの精度の比較


これらの包括的なアルゴリズムは、各ソーシャル ネットワークごとにさらに最適化されました。たとえば、LinkedIn のアルゴリズムは、LinkedIn の投稿の著者のプロフィールを分析して、自己申告を排除しました。これは、幹部が前向きな取り組みや目標について話すことが多いため、他の偏りのない観察が薄れ、結果が解釈される可能性があるためです。さらに、Twitter と LinkedIn のアルゴリズムでは、テキスト内にリンク アドレスが見つかった場合、アルゴリズムはその記事を分析して評価します。


当初、分析アルゴリズムは非常に遅く、Flair が 1 つの投稿を分析するのに 3 ~ 4 秒かかりました。そのため、「Flair sentiment-fast」と呼ばれるバリエーションがインストールされました。これにより、Flair は複数の投稿を同時に分析するバッチ分析を実行できるようになりました。これにより、精度は若干犠牲になりましたが、分析時間が大幅に短縮されました。


すべての生データがスコアリングされると、スコアはまとまったスプレッドシートに平均化されます。欠落しているサブスコアデータを埋めるために、平均値補完が使用されました。これらのサブカテゴリスコアは、主要な問題に関する社会的感情の内訳を経営幹部に提供し、改善すべき領域に関する具体的な情報を提供します。図4:SST-5データベースにおけるさまざまな感情分析アルゴリズムの精度の比較。これらのスコアは、イニシアチブのガイドとして生のまま使用することも、機械学習を通じてさらにコンパイルしてESG予測を提供することもできます。

4.3. 機械学習アルゴリズム

データをコンパイルした後、さまざまな機械学習モデルをテストしました。これらのモデルの目標は、0 が最悪で 100 が最高となる 0~100 の ESG スコアを予測することでした。これらの教師あり学習モデルのほとんどは、限られたデータで非線形パターンを学習できる軽量の回帰アルゴリズムでした。これらのアルゴリズムには、ランダム フォレスト回帰、サポート ベクター回帰、K 近傍法回帰、XGBoost (極度勾配ブースティング) 回帰などがあります。ランダム フォレスト回帰は、トレーニング中に複数の決定木を構築し、平均予測を出力することで機能します (Tin Kam Ho、1995)。サポート ベクター回帰は、値のしきい値内で最適な線を識別します (Awad ら、2015)。K 近傍法回帰は、隣接するデータ ポイントの平均値に基づいて値を予測します (Kramer、2013)。 XGBoost (Extreme Gradient Boosting) 回帰では、より単純な回帰ツリーの推定値/予測値を組み合わせることで勾配ブースティングを使用します (Chen ら、2016)。


これらの回帰アルゴリズムは、19 個の機能を使用してトレーニングされました。これらの機能には、Wikipedia の追加カテゴリを含む 18 個のキーワードごとの平均感情が含まれます。既存のソリューションから大きく逸脱しないように、公開されている S&P Global ESG 格付けに合わせて調整されました。分析対象のすべての企業の S&P Global ESG スコアを取得するために、GitHub で公開されている ESG 格付けスクレーパーが使用されました (Shweta-29)。精度を高めるために、過剰適合を防ぐために正規化などの最適化手法が使用されました。


アルゴリズムを作成する前に、ESG サブカテゴリごとに記事/投稿が 5 件未満の企業は除外されました。これにより、分析対象として約 320 社が残りました。アルゴリズムを作成してテストするために、約 256 社がトレーニング データとして使用され、約 64 社がテスト データとして使用されました。これらの結果を使用して、アルゴリズムの予測能力を判断しました。


この論文は、CC BY-NC-ND 4.0 DEED ライセンスの下でarxiv で公開されています