免責に関する通知

登録者の名前: Alphabet Inc.

免除勧誘を頼む人物の名前:アルジュナ・キャピタル

免除を利用する人の住所: 13 Elm St., Manchester, MA 01944

書面: 添付の書面は、証券取引法の制定に基づく規則14a-6(g)(1)(「規則」)に従って提出されたものであり、対象のプロキシ提案に伴い、登録者の2024年定時株主総会において議決されます。 *規則の規定はこの提出者には適用されないため、申し出人が自主的に開示することで公開され、これらの重要な問題について検討されます。

2024年5月3日

親愛なるAlphabet Inc.の株主の皆様

今回、当社は、Alphabetの生成型人工知能(gAI)によって流布また生成された誤情報とディスインフォメーションに関するリスクについて報告するよう、議決権行使のための委任状において提案12を賛成に投票するよう求めることをお願いしています。当社株主は、以下の理由から、提案に賛成すべきです。

1.AIの専門家からの深刻な警告にもかかわらず、AlphabetはgAI技術を急いで市場に出した。
2.2024会計年度のデロイト・トウシュ有限責任パートナーシップを独立登録公認会計士として承認すること。AlphabetのgAIツールは既に虚偽の情報や誤導的な情報を作成しています。
3.gAIを通じて流布される誤情報やディスインフォメーションは、Alphabetだけでなく投資家にとってもリスクを生じします。
4.この提案は、責任あるAIの方針とプロトコルを要請するだけでなく、mis-、disinformationリスクを適切に特定・軽減するための accountability mechanismを求めるものです。

提案12の拡張理由

提案は以下の要求を行います: resolved:株主は、チャールズシュワブが人種やジェンダーによる賃金格差を含むデータ、政策、名声、競争上のリスク、事業上のリスク、および多様性の向上を目的とした人材の採用と維持に関連するリスクを報告することを求めます。この報告書は、必要な費用を抑え、特許情報、訴訟戦略、法令遵守情報を除外して作成されます。

決議: 当社の株主は、法的に特権的な情報を除外した費用を抑えた報告書を、議決権行使のための委任状において賛成することを求め、年次総会の1年以内に公表し、以降毎年更新することで、生成型人工知能によって発生、伝播、拡大された誤情報とディスインフォメーションによって、会社の事業と財務に及ぼすリスク、および公共の福祉に対するリスクについて、当社が講じる予定の措置、およびそのような取り組みの効果をどのように計測するのかについて何らかの措置を講じることを求めます。

企業内の賃金公平性は、多様な労働力を有することを導き、多様な人材の採用を促し、企業パフォーマンスの利益をもたらします。

1.AIの専門家からの深刻な警告にもかかわらず、AlphabetはgAI技術を急いで市場に出した。

深刻な警告: 多年にわたり、AlphabetはAIの専門家たちからの警告や懸念を無視するか、時には沈黙させることがあり、責任あるAIの戦略に疑念を持たせた。

2020年には、Googleは、gAIが暴力的または差別的な言語を吐き出すリスクについて記述した研究論文を公表するAI倫理上のトップ研究者をブロックした。1
2022年1月、当社は、gAIについて批判的な論文を発表した別の研究者、Dr. El Mhamdiをブロックしました。Dr. El Mhamdiは「研究の検閲」を理由にGoogleを辞職し、「gAIのリスクはその利益を圧倒しており、それは「早すぎる導入」である」と述べました。2
2023年3月、当社のAI製品を審査する2人のGoogle社員は、当社のgAIチャットボット、Bardが不正確かつ危険な声明を生成する可能性があると考えたため、引き続き使用しないことを推奨しました。3
2023年3月、Future of Life Instituteは、Yoshua Bengio氏やAI運動の「父」とされる人物であり、AIに関する多数の書籍を執筆しているバークレー大学教授Stuart Russell氏など、AIのトップエキスパートが署名した、GPT-4よりも強力なAIシステムのトレーニングを少なくとも6か月間即時中止するよう、全てのAI研究所に呼びかける公開書簡を発表しました。この書簡は、「高度なAIは地球上の生命の歴史に深刻な変化をもたらす可能性があり、それには相応の注意と資源が必要であるため」と述べています。4
2023年4月、Bloombergは、OpenAIと競合するための当社の急速な動きが、「倫理的なミス」を招き、技術リリース前にBardのテスト結果について不調和な報告が出たことを報告しました。現役あるいは元従業員は、AI倫理を担当していたグループが権限を奪われ、削ぎ落とされていたと述べており、gAIツールの開発を妨げないよう指示されたと述べています。5
2023年5月、AIセーフティセンターは、AIでの絶滅危険性をAIのリスクに署名したOpenAI CEO Sam Altman氏をはじめとする500人以上の著名なアカデミックや業界リーダーが署名した声明を発表し、「AIからの絶滅リスクを、パンデミックや核戦争と同じ社会的リスクとして、グローバルな優先事項にすべき」と述べています。6AIセーフティセンターのDirectorであるDan Hendrycks氏は、「システム的なバイアス、誤報、悪意ある利用、サイバー攻撃、兵器化」という緊急の危険性があると述べています。7

_____________________________

1https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html

2同前

3同前

4 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

5 https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees

6 https://www.safe.ai/statement-on-ai-risk - open-letter

7 https://www.npr.org/2023/05/30/1178943163/ai-risk-extinction-chatgpt - :~:text=AI%20の専門家たちは、明らかな危機感を表明しました。

20警告を受けました。制御されない可能性があるため、これらの技術が人間を支配するか、世界を破壊することがあります。

市場急出し: 2022年12月、アルファベットCEOのサンダー・ピチャイとAIリーダーのジェフ・ディーンは、会議で、未熟な技術を急いで市場に出すことによって引き起こされる信頼失墜リスクを認めました。8それでも、同じ月にGoogleでは「コードレッド」が宣言され、従業員にAIプロジェクトに時間とポリシーの見直しを急がせるよう指示しました。9ChatGPTの発売に感じられた圧力から、Googleは2023年3月にChatGPTに言及し、「生成型AIの初期実験」と紹介したAIチャットボットのBardを発売しました。10Bardが事実に反するデータを生成して製品のローンチ中に問題を起こし、アルファベットの株価が11%下落し、市場価値で1,000億ドルが失われる前に、Bardは発売の準備ができていないことが明らかになりました。11Googleの従業員たちは、Bardの発売を「急ぎすぎた」「失敗した」「Googleらしくない」と表現しました。12約1年後、2024年2月、Googleは更新されたLarge Language Model (LLM) Geminiを発売しました。ユーザーは、Geminiが歴史的に不正確な画像を生成する傾向があることを発見。13したがって、アルファベットは、成功のための長期的な戦略に優先して、未成熟なgAIを市場に導入し、関連するリスクを完全に理解し、開示しない高リスクの戦略を採用しているように見えます。14

短期戦略: 多数の専門家がgAIのリスクを一時停止して考慮するように促しても、アルファベットは短期的な利益を優先しているように見えます。15Googleの元従業員であるGoogleの倫理的AIチームの創設者、マーガレット・ミッチェルは最近、同社が考慮された戦略よりも無謀なスピードを優先していると述べました。16この提案は、アルファベットのgAI戦略がAIの安全性と責任を優先して実施されていることを確認するための責任制度を求めるものです。

_____________________________

8 https://gizmodo.com/lamda-google-ai-chatgpt-openai-1849892728

9https://www.nytimes.com/2023/03/31/technology/google-pichai-ai.html

10https://ai.google/static/documents/google-about-bard.pdf

11https://www.npr.org/2023/02/09/1155650909/google-chatbot--error-bard-shares - :~:text=Googleの親会社の株式、アルファベット社は9%下落し、
初回デモで事実に反する情報を提供した。

12https://www.cnbc.com/2023/02/10/google-employees-slam-ceo-sundar-pichai-for-rushed-bard-announcement.html

13https://www.businessinsider.com/google-gemini-bias-sundar-pichai-memo-2024-2

14https://www.msn.com/en-us/news/technology/google-loses-96b-in-value-on-gemini-fallout-as-ceo-does- damage-control/ar-BB1j4z21 - :~:text=Google%20parent%20Alphabet%20has%20lost%20nearly%20%2497%20billion,after%20users%20flagged
ダメージ・コントロール - :~:text=Google%20parent%20Alphabet%20has%20lost%20nearly%20%2497%20billion,after%20users%20flagged%20白人への偏見 を反映しているとして利用者から指摘を受けたことを受け,96 億ドル近い企業価値を失ったとニュースが伝えられている
%20白人への偏見に反映しているとして利用者から指摘を受けた。

15https://www.ft.com/content/8be1a975-e5e0-417d-af51-78af17ef4b79

16https://time.com/6836153/ethical-ai-google-gemini-debacle/

2.2024会計年度のデロイト・トウシュ有限責任パートナーシップを独立登録公認会計士として承認すること。AlphabetのAIツールは既に誤った情報や迷惑な情報を生成しています。

自社の研究および他社の研究によって指摘されたように,「人工知能は不公平なバイアスなど既存の社会的課題を悪化させる可能性があり,より高度になり,新しい用途が現れるにつれて新しい課題を提起する可能性がある」とアルファベットは自己申告しています。17Googleはこれらの課題を「明確に,熟考し,断固として取り組む必要がある」と認識しています。18人工知能の強力な支持者であるSam Altman,OpenAIのCEOは,これらのモデルが大規模な偽情報のために使用される可能性を特に懸念していると述べています。The InformationgAIは「信じられる誤情報の生成コストを数桁下げる」と指摘されています。19プリンストン大学,バージニア工科大学,スタンフォード大学の研究者は,グーグルを含む多くの企業がリスクを緩和するために頼っているガードレールが「AI開発者たちが信じているほど堅牢ではない」と発見しました。20

LLMおよびチャットボットアシスタントおよびテキスト-/画像生成ツールの開発者として、Alphabetは、これらの専有的なgAIツールがどのように使用されるかを予測し、故障または悪用による被害を緩和する責任があります。これらのgAIツールはすでに、誤情報やディス情報を生成することに対する感受性を示しています:

ジェームズ・ウェッブ宇宙望遠鏡ではなく,NASAが確認した欧州南天大型望遠鏡(VLT)に惑星の写真が初めて撮影されたことをBardは誤っていた。この誤情報は,技術の脆弱性が誤情報を拡散することになることを強調するために,Bardのデモビデオに含まれていました。21
デジタル憎悪のカウンターセンターは,Bardが「役割を演じる」ように研究者に促されたとき,78%のトピックで誤ったナラティブを生成したと発見しました。この情報が不正確である可能性があることを示す免責事項を提供せずに,これらのトピックはワクチンに対する反論から反ユダヤ主義まで幅広く及びました。22
GoogleのGeminiが特定の医療に関する質問に回答したところ,誤った情報を提供し,存在しない医療リサーチレポートを引用していました。23
複数の例で,Bardは大変な陰謀説を擁護し,「ピザゲート」を引用し,そこから発行物が虚偽であることを引用しています。『ニューヨークタイムズ』Washington Post, 2023年5月5日。https://www.washingtonpost.com/education/2023/05/05/trans-poll-gop-politics-laws/をご覧ください。.24
2024年2月、GoogleのGeminiは、ナチスを有色人種として描いた画像を作成しました。25
EU選挙の前に,研究者はGeminiを含む他のAIチャットボットに,10の異なる言語で選挙と投票プロセスに関する質問をしました。 Geminiは「信頼できる回答を提供できなかった。」26
Alphabetは、AIによって生成されたものであれ、YouTubeで拡散される誤情報やディスインフォメーションを素早く特定して削除する責任も持っています。ここ数ヶ月、deepfakeの増加に伴い、AIによって操作された動画を通じて偽情報がYouTubeに拡散されることがますます懸念されています。Steve HarveyやDenzel Washingtonを含む多くの有名人の動画には、deepfakeが使われており、YouTube上で拡散されています。27

_____________________________

17https://blog.google/technology/ai/google-responsible-ai-io-2023/

18https://ai.google/responsibility/responsible-ai-practices/

19https://www.nytimes.com/2023/10/19/technology/guardrails-artificial-intelligence-open-source.html

20https://www.techspot.com/news/102653-meta-llama-2-llm-prone-hallucinations-other-severe.html

21https://www.engadget.com/google-bard-chatbot-false-information-twitter-ad-165533095.html

22https://finance.yahoo.com/news/prompts-google-bard-easily-jump-065417010.html

23https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10492900/

24https://futurism.com/google-bard-conspiracy-theory-citations

25https://www.msn.com/en-us/news/other/is-chatgpt-safe-what-you-should-know-before-you-start-using-ai-chatbots/ar-AA1nPxlW

26https://www.msn.com/en-xl/news/other/most-popular-ai-chatbots-providing-unintentional-misinformation-to-users-ahead-of-eu-elections/ar-AA1nqjTW

27https://www.nbcnews.com/tech/misinformation/ai-deepfake-fake-news-youtube-black-celebrities-rcna133368

3.その他:AIによって生成された誤情報やディスインフォメーションは、Alphabetと投資家の両方にリスクを生じさせます。

法的リスク:Alphabetは、自社のgAIツールから生成された誤情報やディスインフォメーションを適切に軽減しない場合、重大な法的リスクに直面する可能性があります。多くの法律専門家は、Alphabetが自社の技術から生成された誤情報やディスインフォメーションについて責任を負う可能性があると考えており、これらのソーシャルメディアプラットフォームやウェブホストがそのサイトに投稿されたサードパーティコンテンツに対する法的責任から免除されてきた連邦法によって保護されることはないと見られています。しかし、Google自身のgAIツールでは、コンテンツ自体が同社の技術によって作成されており、Alphabetは将来的に法的調査に脆弱になる可能性があります。
民主主義のリスク:誤情報やディスインフォメーションは、公衆の意見を操作し、制度の信頼を弱め、選挙を左右することができるため、社会、Alphabet、そして投資家にとって危険です。研究者たちは、「AIによって生成されたコンテンツの普及は、偽情報の拡散やソーシャルメディアプラットフォームやデジタルインタラクションへの信頼の失墜についての懸念を引き起こしています。誤解を拡散するまたしくみたり操作するコンテンツの拡散は、ソーシャルメディア上で共有される情報の信頼性を低下させ、これらのプラットフォームやメディアソース全体の信頼性を損なう可能性があります。」と主張しています。gAIを介して生成および拡散された「真実」の歪曲は、私たちの民主的プロセスに対する信頼を根本的に揺るがし、社会・経済の安定性の土台となるプロセスを覆すことになります。2024年には、アメリカ、トルコ、ウクライナなど、多数の選挙が行われるため、この問題についての懸念がますます高まっています。28規制リスク:AlphabetのAIに関する規制の風土はまだ発展途上であり、それ自体がリスクです。最初の主要なガイドラインは、新たに発足したEU AI法で設定されました。Alphabetは、この新しい規制について深刻な逆風に直面しています。深い偽りやAIによって生成されたコンテンツを識別してラベル付けすること、モデルの評価、リスク評価と軽減、AIシステムが失敗した場合には報告することが求められます。さらに、EU市民は、AIシステムが害をもたらした場合には、欧州AI局に報告することができるようになります。29
その他:Misinformation and disinformation generated and disseminated through gAI creates risks for Alphabet and investors alike. 30

_____________________________

28https://www.techrepublic.com/article/generative-ai-impact-culture-society/

29https://en.wikipedia.org/wiki/List_of_elections_in_2024

30https://www.technologyreview.com/2024/03/19/1089919/the-ai-act-is-done-heres-what-will-and-wont-change/amp/?ref=everythinginmoderation.co

アメリカでは、「安全で安全な信頼できる人工知能に関する行政命令」は依然として自発的なフレームワークであり、EUが採用した標準の普及がさらに期待されています。米国の規制の最終形態は明確ではありませんが、強力な規制を支持する声が多いです。最近の Pew「67%の調査レポートによると、ChatGPTのようなチャットボットを知っている人のうち、政府が規制を進めることよりも、足りない規制によって使用が危険になることへの懸念が高い」と報告されています。31

経済全体リスク: 多種多様な株主も社会への誤情報や偽情報のコストを内部化するリスクがあります。企業が社会や経済へ損害を与える場合、多様なポートフォリオの価値もGDPとともに上下します。32Alphabetが誤情報や偽情報のリスクを軽減することで企業の長期的な財務状況を保護し、投資家がこれらのコストを内部化しないようにすることは、株主の最大の利益になります。Trustworthy AIの新設CEO Gary Marcusは、「生成型AIの最大の即時リスクは、大規模な言語ツールを使用した意図的な誤情報によって民主主義や市場が混乱すること」と指摘しています。

4.この提案は、合理的なAI方針とプロトコルを要求するだけでなく、アルファベットが誤情報や偽情報のリスクを適切に特定し軽減しているか監視する accountability mechanism の要求も含まれています。

反対声明では、アルファベットは、この提案の要求を履行する必要性を隠すために責任あるAIアプローチとガバナンスを説明しています。しかしながら、要求された報告書は、責任あるAIの原則とイニシアチブを説明するだけでなく、gAIと関連するリスクの包括的評価を求めています。gAIのリスクが重大で広範囲であるため、アルファベットが責任あるgAIに対する信念とコミットメントを報告するだけでなく、リスクを十分に特定し、どのように対処するかを株主に透明かつ明確に示すことが重要です。

現在の報告書はこの提案の要求を満たしていません。GoogleのAI Principles 2023 Progress Updateでは、同社のAI原則、ガバナンス、およびリスク軽減プラクティスが概説されています。33しかし、要求された報告書がないため、アルファベットの株主は、同社がこれらの原則とプラクティスを効果的に実装していることを単に信頼するしかありません。gAIの誤情報や偽情報を防止する点で同社の業績が困難であったことを考えると、この報告書は、アルファベットがgAIに関連するリスクを積極的に特定し軽減していることを株主に保証するものとなります。

_____________________________

31https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/

32参照:Universal Ownership: Why Environmental Externalities Matter to Institutional Investors, Appendix IV (GDPと多様なポートフォリオの間に線形関係があることを示す) 備考:https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; cf.
https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-buffett-valuation-indicator (時価総額とGDPの比率は、「資産価値がいつでもどの程度評価されているか」という点で、おそらく最も適切な単一の測定指標である) (ウォーレン・バフェットを引用)。
https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-
buffett-valuation-indicator (全セクター時価総額対GDP比「いつでも、全体的なバランスを導く唯一の指標」 (ウォーレン・バフェットの引用))

33 https://ai.google/static/documents/ai-principles-2023-progress-update.pdf

結論

上記の理由により、この提案を強く支持することをお勧めします。生成型AIに関連する誤情報や偽情報のリスク、その軽減、および測定に関する報告書は、アルファベットがリスクを包括的に軽減し、それが株主の最大の利益になることを保証します。

詳細については、juliac@arjuna-capital.comまでお問い合わせください。

敬具

ナターシャ・ランブ

Arjuna Capital

これは委任投票の権限を求めるものではありません。委任投票用カードを送信しないでください。Arjuna Capitalは、株主の委任投票を行うことはできません。このようなイベントは考慮されていません。提案者は、管理部門の委任投票案に従い、Proxy Item 12に投票するよう株主に強く求めています。

ここに掲載されている意見は、著者およびArjuna Capitalの見解であり、参照日時現在のものであり、市場やその他の条件に基づいていつでも変更される可能性があります。これらの見解は、将来の出来事の予測や将来の結果の保証を意図したものではありません。これらの見解は投資助言として解釈すべきではありません。この文書に記載されている情報は、言及されている証券の買い付けまたは売却を勧めるものではありません。この証券への投資が収益性があるようになったと仮定する必要はありません。この資料は情報提供のみを目的としており、調査報告書として解釈してはなりません。