免責に関する通知

登録者の名前: Alphabet Inc.

免除を頼んでいる人の名前:Open MIC

免除を頼んでいる人の住所:c/o Tides Center, 1012 Torney Avenue San Francisco, CA 94129-1755。

書面:添付された書面は、有価証券取引法の「ルール」、すなわちルール14a-6(g)(1)に基づいて提出されたものであり、取締役会の2024年度の年次総会で採決される予定の委任状に関連しています。*この規則の規定により、本提出者は提出を必要としない場合がありますが、これらの重要な問題の公開開示と検討のために、プロポーネントは自主的に提出しています。

2024年5月7日

尊敬する株主の皆様へ

本文書では、アルファベットに対して提案書12番に賛成の投票を要請することを目的とします。この提案は、アルファベットの生成型人工知能(gAI)を通じて流布され、または生成された誤情報や偽情報に関連するリスクについて報告することを求めています。また、これらのリスクを低減するための計画についても報告を求めます。

提案12の拡張理由

提案は以下の要求を行います: resolved:株主は、チャールズシュワブが人種やジェンダーによる賃金格差を含むデータ、政策、名声、競争上のリスク、事業上のリスク、および多様性の向上を目的とした人材の採用と維持に関連するリスクを報告することを求めます。この報告書は、必要な費用を抑え、特許情報、訴訟戦略、法令遵守情報を除外して作成されます。

決議: 当社の株主は、法的に特権的な情報を除外した費用を抑えた報告書を、議決権行使のための委任状において賛成することを求め、年次総会の1年以内に公表し、以降毎年更新することで、生成型人工知能によって発生、伝播、拡大された誤情報とディスインフォメーションによって、会社の事業と財務に及ぼすリスク、および公共の福祉に対するリスクについて、当社が講じる予定の措置、およびそのような取り組みの効果をどのように計測するのかについて何らかの措置を講じることを求めます。

1

以下の理由から、株主にはプロポーザル12に賛成で投票することを要請します。

提案に対する反対意見では、アルファベットは2018年にAI原則を発表し、「生成型AIを含む、AIをどのように研究・開発するかについて自己責任を持つための枠組み、商品ポリシー、専任チーム、ツールを作成しています。」と述べています。企業リスクフレームワーク、プロダクトポリシー、専任チーム、ツールを作成するなど、自己規制を行うステップを踏んでいると主張する同社に対し、プロポーネントはAIの開発を指導するための原則を確立したアルファベットを称賛しますが、同社の製品コミットメント単独では、これらの非常に強力な技術を適切に管理することを確認できません。これらの技術は、人間の思考と言語に似たもので人々を欺くことが非常に簡単であるため、非常に強力であり、良心的で倫理的で人権に配慮した技術管理を確認することが重要です。1知らぬ者や悪意のある行為者の手に落ちると、この技術は虚偽や隠された動機による高いリスク決定を損なうことがあり、選挙、市場、公衆衛生、そして気候変動の進路を変える可能性があります。さらに、これらの技術はサイバーセキュリティのリスクを悪化させることが示されています。2

株主は、実際に行動で証明することによってのみ真価と継続的な信頼を確立できます。提案書12に反対する投票を支持し、自らのコミットメントへの遵守を具体的な証拠を明示せずに拒否することで、アルファベットとその取締役会は実際に自己を責任に押し付けていないのです。代わりに、株主は会社の言葉だけを信頼するべきだという前提が存在するようです。こうした状況は、株主が会社を責任を持って監督することができない、特にアルファベットの二元株式構造が大半の株主の能力を最小限に制限していることを考えると、非現実的な期待です。

アルファベットのAIフレームワーク、ポリシー、ツールの効果的なアカウンティングが行われていない場合、定量的指標、具体的な例、分析に裏打ちされたものがなければ、株主や一般市民たちは、アルファベットが技術の開発とそれを支えるデータセンターに数十億ドルを投資するにあたり、どの程度リスクを引き受けたかを判断することができません。3

提案書#12が要求する内容

プロポーザル12は、合理的なコストで年次報告書の形で、この生成型AIを搭載した技術による偽情報や誤情報の創造と拡散によって引き起こされる、企業と社会へのリスクを評価するようアルファベットに求めるものです。 同様に、Geminiのうわべだけの正確さという前例のない問題の評価を含めて、この技術の欠陥と影響に関する日々の報告を調査し、評価するための評価基準が明確に提示されるように求めます。4アンセンティックリサーチャーたちは、AIモデルが欺くためにトレーニングできることを発見5

プロポネントはアルファベットがガードレールを設置するためにフレームワーク、ポリシー、その他のツールを実装したことを認めていますが、そのガードレールがどの程度設置されていて堅牢であるかを理解しない限り、そのガードレールを評価することができません。

_____________________________

1https://techcrunch.com/2024/01/13/anthropic-researchers-find-that-ai-models-can-be-trained-to-deceive/

2https://www.pwc.com/us/en/tech-effect/ai-analytics/managing-generative-ai-risks.html

3https://www.washingtonpost.com/technology/2024/04/25/microsoft-google-ai-investment-profit-facebook-meta/

4https://youtu.be/S_3KiqPICEE

5https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/

2

ガードレールについての比喩をもっと具体的に表現すると、アルファベットが生成型AIに投資し、それを展開するスピードは、まっすぐ走るように設計されています。他方、提案書と主要提出者であるアルジュナキャピタルの豊富なカタログに記載されているように、この技術の不備やその結果生じる影響に関する毎日のニュースレポートもあります。6未来に向かう道は、ヘアピンカーブが連なる山のような土の道に似ています。どのスピードでもガードレールは効果的ではありません。

ほとんどの株主決議と同様に、理事会は、そのような報告書を公開することが「会社及び株主の最善の利益に適合しない」とは考えていないと述べています。つまり、情報エコシステムのあらゆる側面に生成型人工知能を統合することに関連する金融、法的、及び評判上のリスクについて、少なくとも不確実性があることを文書化することが理事会の利益にはならないようです。それは全体として、機関投資家と民主主義における信頼にも与えるリスクです。

生成型AIのリスク

支持者たちは、制限のない生成型人工知能は危険な投資であると主張しています。リスク評価、人権影響評価、またはその他のポリシーガードレールを導入せずに生成型人工知能を開発し、展開することは、アルファベットにとって、財政的、法的、および信頼性のリスクが伴うものです。アルファベットは人工知能に数十億ドルを投資していますが、その投資のリターンをどのように測定しているかについてはほとんど知られていません。そして、生成型人工知能が失敗すると、ジェミニの失敗に続いて、アルファベットは重大な市場価値の損失を被る可能性があります。7

著作権侵害を理由にAlphabetを含むAI企業に対して複数の訴訟が起こされています。8,9AIに基づく広告の実施について、メディア企業がアルファベットを訴えているヨーロッパでは、数十億ドルの損害賠償金が問題になっています。10プライバシーの観点からは、AIが人々の声や肖像を複製することができるという実証済みの能力が、もう1つの集団訴訟を引き起こすことになり、より多くの法的問題が生じる可能性があります。

生成型AIは、社会多様性を推進する世界的なトレンドに反することもあります。例えば、ディスインフォメーションは、すでに意思決定能力の鍵となる資源、知識、および機関的地位にアクセスできない弱い立場にいる人々を不利にします。11最近の研究によると、「方言差別」は、人々が話している内容だけで、仮想的な判断を下すよう言語モデルに求めるAIによって、既存の社会経済的な不平等を再認識させる可能性があります。12

_____________________________

6https://www.sec.gov/Archives/edgar/data/1652044/000121465924008379/o532411px14a6g.htm

7https://www.forbes.com/sites/dereksaul/2024/02/26/googles-gemini-headaches-spur-90-billion-selloff/

8https://topclassactions.com/lawsuit-settlements/lawsuit-news/google-class-action-lawsuit-and-settlement-news/google-class-action-claims-company-trained-ai-tool-with-copyrighted-work/

9https://www.reuters.com/technology/french-competition-watchdog-hits-google-with-250-mln-euro-fine-2024-03-20/

10https://www.wsj.com/business/media/axel-springer-other-european-media-sue-google-for-2-3-billion-5690c76e

11https://www.brookings.edu/articles/how-americans-confidence-in-technology-firms-has-dropped-evidence-from-the-second-wave-of-the-american-institutional-confidence-poll/

12生成型AIは、企業のダイバーシティに反する可能性があります。

3

世界的なトレンドに反することもある他、生成型人工知能には、既存の社会経済的な不平等を再認識させる可能性があります。13例えば、ディスインフォメーションは、すでに意思決定能力の鍵となる資源、知識、および機関的地位にアクセスできない弱い立場にいる人々を不利にします。14最近の研究によると、仮想的な判断を下す言語モデルを使った生成型人工知能による方言差別は、実際には有害な結果をもたらす可能性があります。15

こうした課題を認識する一方で、アルファベットとその他の大手テクノロジー企業は、しばしばロビー活動を通じて規制を回避しています。昨年、同社は、反トラスト規制に反対し、AIについて議員に教育するために、その他の活動を含めて、1,400万ドル以上をロビー活動に費やしました。16カリフォルニアでは、Alphabetなどのビッグテックからの抵抗により、アルゴリズム差別を規制し、プライバシーを強化し、住民が人工知能ツールをオプトアウトできる法案が廃止されました。17

潜在的な害を最小限に抑える

イノベーションには価値が必要です。これまでのところ、生成AIは単なるおもちゃのようなものにすぎませんでした。アルファベットは、旅行計画、買い物リストの作成、テキストの送信、ソーシャルメディアの投稿、写真からの不要なオブジェクトの削除など、gAIなしで行うことができ、環境に配慮した活動としてジェミニを推進しています。一方、アルファベットは、ジェミニが間違いを com、ユーザーに対してチャットボットの応答を細かく表示することで、チェックするように促しています。 「Geminiを含め、人々に関する不正確な情報を表示する場合がありますので、応答をダブルチェックしてください。」選挙に関する情報を検索する際には、「まだこの質問に答える方法を学んでいます。この間、Google Searchをお試しください。」という似たようなメッセージを返します。一方、多くの企業が生成AIへの投資で収益を上げることに苦戦しており、これはソーシャルメディアの登場を思い出させる状況です。18、19

テクノロジー産業とアルファベットは、ソーシャルメディアでも同じような状況を経験しており、悪影響には人間関係での暴力や心理的な害、憎悪スピーチやディスインフォメーションを広めるフィルターバブル、健康や代理店、市場を脅かすターゲット型広告や監視資本主義が含まれています。 個人的特性、好き嫌い、関係、私たちの人間性にもの以上を商品化すること。

_____________________________

13https://corpgov.law.harvard.edu/2024/03/06/global-corporate-governance-trends-for-2024/#more-163181

14https://www.cigionline.org/articles/in-many-democracies-disinformation-targets-the-most-vulnerable/

15https://arxiv.org/abs/2403.00742

16https://news.bloomberglaw.com/in-house-counsel/amazon-google-among-firms-focusing-on-ai-lobbying-in-states

17https://news.bloomberglaw.com/artificial-intelligence/californias-work-on-ai-laws-stalls-amid-fiscal-tech-concerns

18https://www.fastcompany.com/91039524/whats-the-roi-of-generative-ai

19https://www.pwc.com/us/en/tech-effect/ai-analytics/artificial-intelligence-roi.html

4

最近発表された論文で、共著者のTimnit Gebru(2020年にGoogleから大規模言語モデルの警告を発したことで解雇されました)と分散AI研究所のÉmile P。Torresは、生成AIはあくまでAGI(人工一般知能)を追求するための足がかりにすぎないと提案しています。任意の質問に答えることができるアルゴリズム・マシンゴッドとして設計されたことが言われています。彼らが書いている問題は、generative AIとその想定される後継者AGIが「スコープがなく、したがって安全ではない」ということです。 彼らは、「AGIを構築することを試みることは、科学的原理でも技術的原理でもありません。」「「いかなる環境でも学習して行動するための汎用アルゴリズム」と宣伝されるシステムの標準的な運用条件は何ですか?」と問い掛けています。 問題解決に必要なデータとタスクに関連し、解決しようとしている問題に適した「ナローAI」システムがあることを提唱しています。20、共著者Timnit Gebru(2020年にGoogleから大規模な言語モデルに警告を発したため解雇された)と分散AI研究所のEmile P.Torresこれらの技術楽観主義者が最も価値のあると考えるAGI(人工一般知能)のホーリーグレイルとして捉えています。彼らが書いている問題は、generative AIとその想定される後継者AGIが「スコープがなく、したがって安全ではない」ということです。 彼らは、「AGIを構築することを試みることは、科学的原理でも技術的原理でもありません。」「「いかなる環境でも学習して行動するための汎用アルゴリズム」と宣伝されるシステムの標準的な運用条件は何ですか?」と問い掛けています。 問題解決に必要なデータとタスクに関連し、解決しようとしている問題に適した「ナローAI」システムがあることを提唱しています。

問題は、generative AIとその想定される後継者AGIが「スコープがなく、したがって安全ではない」ということです。 彼らは、「AGIを構築することを試みることは、科学的原理でも技術的原理でもありません。」「「いかなる環境でも学習して行動するための汎用アルゴリズム」と宣伝されるシステムの標準的な運用条件は何ですか?」と問い掛けています。 問題解決に必要なデータとタスクに関連し、解決しようとしている問題に適した「ナローAI」システムがあることを提唱しています。GebruとTorresはまた、AIシステムはエネルギーを豊富に消費すること、これを不正解答された選挙クエリを問い合わせたり、広告主がバイヤーと直接対話したり、魔法の消しゴムでイメージから人々やオブジェクトを削除したりすることを可能にすることを強調しています。「世界中の多くのエンティティに行く資源は、」と彼らは指摘しています。「特定のコミュニティのニーズを満たす計算システムを構築するそれぞれのエンティティに行くことができ、AGIを構築しようとする少数の企業から吸い出されています。」

プロポーザル12の現在の一般的な政策が欠けている期間に、プロポーネントは単にアルファベットに対して、会社が自ら設定した基準に従ってその性能を測定することにより、生成AIの潜在的な被害と浪費を最小限に抑えるよう求めています。 次に、1年に1回、会社が社会、情報エコシステムを含めたアルファベットの生成AIツールの影響について、明確な画像で投資の意思決定を行なう株主が情報を共有することを求めます。 アルファベットは、生成AIに関する自らの取り組みにおいて自己を公にかつ測定可能な責任を負うことにより、技術だけでなく会社に対する消えかかっている信頼を回復し、この重要な時期に他の企業に従う基準を設定することになります。

提唱者たちは、AI、生成AIに反対しているわけではありません。 ハームや混乱を引き起こさない場合は賛成します。 パワーへのアクセスに直面しているために既に脆弱でマージナルな状況にある人々を含め、最も多くの人々に恩恵を与える場合は、特に。 彼らが必要とする力を保護するために必要な投資について、彼らが保護する必要がある家族、健康、環境、生計、そして人間および市民の権利。 私たちは、AIと生成AIがサービスを提供する人々に対して責任を負いながらのみ、それらを支持しています。

Proposal 12では、一般的な規制がない現在、プロポーネントは単にアルファベットに対して、会社が自ら設定した基準に従ってその性能を測定することにより、生成AIの潜在的な被害と浪費を最小限に抑えるよう要求します。 次に、1年に1回、会社が社会、情報エコシステムを含めたアルファベットの生成AIツールの影響について、明確な画像で投資の意思決定を行なう株主が情報を共有することを求めます。 アルファベットは、生成AIに関する自らの取り組みにおいて自己を公にかつ測定可能な責任を負うことにより、技術だけでなく会社に対する消えかかっている信頼を回復し、この重要な時期に他の企業に従う基準を設定することになります。

この提案に賛成して、人々が中心に立ち、人々に奉仕する場合にAIが価値を創造するというアルファベットに伝える最初のステップを踏み出してください。

_____________________________

20Gebru, T.、& Torres, Émile P.(2024)。TESCREALバンドル:人工汎用知能による優生学とユートピアの約束。FirstMonday, 29(4)。https://doi.org/10.5210/fm.v29i4.13636

5