Google の TGIF ミーティングは、長い間、社内のオープンな対話と透明性の象徴となってきました。この月例の集まりでは、従業員は厳しい質問をし、CEO のサンダー・ピチャイを含む上層部から率直な回答を聞くことができました。しかし、このミーティングの最近の変更により、多くの従業員が失望しています。
今年初め、Google は Ask という新しい AI ツールを導入しました。これは TGIF 会議での質疑応答のプロセスを効率化するものです。この動きの背後にある意図は効率化でしたが、多くの Google 社員は、AI が質問を要約するだけでなく、質問を緩和していると感じています。従業員は今、Ask が経営陣に対処してもらいたい重大な問題への対応を避けるように設計されたのではないかと疑問を抱いています。
Google の新しい AI ツールは、TGIF ミーティングの運営方法を大きく変えました。これまでは、従業員は Dory と呼ばれるプラットフォームを通じて質問を送信し、他の従業員は最も緊急または人気のある質問に賛成票を投じることができました。その後、経営陣は、たとえそれが気まずい質問であっても、最も賛成票が投じられた質問に回答していました。
しかし、Google は最近 Dory を Ask に置き換えました。Ask は AI を活用したシステムで、従業員の議論のトピックを統合して要約するようになりました。Google によると、この変更はプロセスを合理化し、繰り返しを避け、リーダーがより多くの問い合わせに対応できるようにすることを目的としたものです。
紙面上では、効率化の面での勝利のように見えます。同社は、エンゲージメントが向上したと主張しています。
誰もが納得しているわけではない。従業員の中には、Ask ツールは会議を円滑に進める以上の役割を果たしていると感じている人もいる。AI の要約は、より鋭い質問の口調を和らげ、かつては直接的で挑発的だった質問の辛辣さをなくす。批評家は、これによってリーダーシップが問題を回避し、かつては率直だった議論をより制御された、無害な応答に置き換えることができると主張している。
多くの人にとって、会議はそれほど魅力的ではなくなってきている。厳しい質問をする機会がなくなったと感じ、会議に出席しなくなった従業員もいる。その結果、Google の経営陣が Ask を使って議論をコントロールしているのではないかという懸念が高まっている。
Google の Ask ツールの導入は、重要な疑問を提起している。このような AI ツールは、Google 以外の企業でも社内コミュニケーションを変革できるのだろうか? Ask は効率性の向上を目指しているが、疑問を和らげ、ふるいにかける機能は、あらゆる企業にとって潜在的なリスクとなる可能性がある。
イベントテクノロジーが時間とお金の大幅な節約になることは間違いありません。
しかし、それはまた、指導者が難しい話題を回避する道を開くことにもなります。言葉を和らげることで、これらのツールは難しい質問に答えやすくすることができますが、それは透明性を犠牲にしています。
従業員が問題を提起するためにオープンフォーラムに頼っている職場では、AI によって台本通りの対話が増える可能性があります。従業員は、AI が懸念を弱めると考えれば、難しい質問をすることをためらうかもしれません。その結果、チームメンバーと経営陣の間の信頼関係が崩れ、企業文化が弱まる可能性があります。
さらに、企業がコミュニケーションのさまざまな側面を処理するために AI を導入するにつれて、組織は従業員を疎外するリスクを負うことになります。従業員は、これらのツールを、よりオープンな環境を促進するものではなく、経営陣を保護するための緩衝材と見なす可能性があります。
透明性は従業員のエンゲージメントにとって非常に重要であり、AIの誤用は不満やコミュニケーション不足の文化を生み出し、企業に損失をもたらす可能性がある。
Ask のようなツールは、社内対話の透明性と公平性について深刻な疑問を投げかけます。AI 駆動型システムの主な懸念は、チーム メンバーが真の懸念を表明できなくなる可能性があることです。
これらのツールは、質問を要約したり言い換えたりすることで、批判的なフィードバックの緊急性やトーンを奪ってしまう恐れがあります。これにより、リーダーが従業員の感情の現実から遮断される環境が生まれ、実際の問題が表面化しにくくなる可能性があります。
研究はこれらの懸念を裏付けています。研究によると、一部の機械学習 (ML) アルゴリズムは透明性と一貫性に欠けており、いわゆる「ブラックボックス」アルゴリズムとして知られ、バイアスの検出を妨げています。
これは、このようなシステムを使用する企業の説明責任と責任に関する問題を提起する。Googleの場合、Askツールはリーダーシップを妨げる可能性がある。
さらに、ますます多くの研究が、組織がこうした倫理的ジレンマに対処する準備をしなければならないことを示唆している。研究によると、
経営陣が従業員の質問をフィルタリングするために AI に頼っている場合、それは本当に従業員と関わっていると言えるのでしょうか? AI は大量のコミュニケーションを管理する優れたツールです。しかし、企業は AI を使用して従業員が直面している現実から距離を置くことは避けなければなりません。
AI を使用する場合、企業は透明性を優先し、従業員がアルゴリズムの干渉によって本来の意図が歪められることなく、自分の意見が明確に聞き入れられていると感じられるようにする必要があります。これを念頭に置いて、Ask などの AI ツールを使用する際に会議の透明性を維持する方法をいくつか紹介します。
AI は企業の運営方法に革命をもたらしますが、従業員は依然としてこれらのツールの使用方法に関する懸念を直接表明できる手段を持つ必要があります。企業は、AI システムがコミュニケーションにどのような影響を与えるかについて従業員に意見を述べるよう奨励する必要があります。
この戦略は、リーダーがテクノロジーがもたらす影響(透明性の向上か低下か)を認識するのに役立ちます。これにより、リーダーは AI ツールが信頼を損なう前に、オープン性や公平性の欠如に対処するための調整を行うことができます。
従業員の問い合わせをAIだけに頼るのは危険です。
また、AI のプロセスが不十分だと感じた場合、従業員に質問をエスカレーションする権限を与えることもできます。これらのオプションを有効にすることで、経営陣はデリケートな問題の処理において責任を負い続けることができます。
組織のリーダーは、回答が完全かつ公平であることも確認する必要があります。そうすることで、難しい話題をかわすためにこれらのツールを使用しているという印象を回避できます。この戦術により、AI が問題をバランスよく表現するため、より目的のある議論が保証され、信頼とオープンなコミュニケーションが促進されます。
社内コミュニケーションの管理に AI ツールを使用する企業が増えるにつれ、こうしたテクノロジーが透明性を犠牲にしないよう徹底することが極めて重要になります。AI は会議を効率化できるかもしれませんが、企業はこうしたシステムによって従業員の懸念が薄れることのないよう注意する必要があります。むしろ、従業員の信頼を維持し、テクノロジーが分断ではなくつながりを築くようにバランスを取る必要があります。