豁免招標通知

註冊人姓名:Alphabet Inc.

依賴豁免的人員姓名:Arjuna Capital

依賴豁免的人的地址:馬薩諸塞州曼徹斯特市榆樹街 13 號 01944

書面材料:所附書面材料是根據1934年《證券交易法》頒佈的第14a-6 (g) (1) 條(“規則”)提交的 ,*與註冊人將在2024年年會上表決的代理提案 有關。*根據規則的條款,這個 申報人無需提交,而是為了公開披露和考慮這些 重要問題,由支持者自願提交。

2024年5月3日

親愛的 Alphabet Inc. 股東,

我們寫這封信是為了敦促你對代理卡上的第12號提案投贊成票,該提案要求Alphabet報告與通過Alphabet的 生成式人工智能(GaI)傳播或生成的錯誤和虛假信息相關的風險,並計劃降低這些風險。我們認為股東應該對該提案投贊成票,原因如下 :

1.儘管人工智能專家發出了嚴厲警告,但Alphabet還是將其GaI技術推向了市場。
2.Alphabet的GaI工具已經創造了虛假和誤導性的信息。
3.通過GaI傳播的錯誤信息和虛假信息給Alphabet和投資者都帶來了風險。
4.該提案不僅要求制定負責任的人工智能政策和協議,還要求建立問責機制以確保 Alphabet 有效識別和緩解錯誤和虛假信息風險。

提案 12 的擴展理由

該提案提出以下要求:

已解決:股東要求董事會以 合理的成本發佈一份報告,省略專有或法律特權信息,該報告將在年會後的一年內發佈,並在此後每年更新 ,評估公司 在為通過生成人工智能生成、傳播和/或放大的錯誤信息和虛假信息提供便利方面所面臨的公司運營和財務以及公共福利風險; 公司採取了哪些措施為補救這些危害而採取的計劃;以及將如何衡量這些危害這些努力的有效性。

我們認為,股東應該對提案 投贊成票,原因如下:

1.儘管人工智能專家發出了嚴厲警告,但Alphabet還是將其GaI技術推向了市場。

嚴重警告:多年來,Alphabet一直忽視人工智能專家的警告和擔憂, 有時也保持沉默,這使該公司負責任的人工智能戰略受到質疑:

2020年,谷歌阻止其頂尖的人工智能倫理研究人員發表一份研究論文,該論文描述了GaI散佈 辱罵性或歧視性語言的風險。1
2022年1月,該公司禁止另一位研究人員埃爾·姆哈姆迪博士發表批評GaI的論文。不久之後,El Mhamdi博士辭去了谷歌的職務,理由是 “研究審查”,並表示GaI的風險 “遠遠超過了” 其 的好處,而且 “過早部署”。2
2023年3月,兩名負責審查公司人工智能產品的谷歌員工建議不要發佈該公司的GaI 聊天機器人Bard,因為他們認為這可能會產生不準確和危險的陳述。3
2023 年 3 月,生命未來研究所發佈了一封來自頂級人工智能專家的公開信,呼籲所有人工智能實驗室立即暫停 對比 GPT-4 更強大的人工智能系統的培訓至少 6 個月。這些簽名者包括人工智能運動的 “開國元勛” 約書亞·本吉奧等人工智能專家,以及眾多有關人工智能的書籍的作者伯克利教授斯圖爾特·羅素。信中指出: “先進的人工智能可能代表地球生命史的深刻變化,應在相應的 護理和資源下進行規劃和管理。”4
2023年4月,彭博社報道説,該公司急於與OpenAI競爭導致了 “道德失誤”,並導致了員工在該技術發佈前對Bard測試結果的令人不安的報道。現任和前任員工表示, 從事人工智能倫理工作的小組被剝奪了權力,士氣低落,因為他們被告知不要妨礙 GaI 工具的開發。5
2023年5月,人工智能安全中心發佈了一份由500多位知名學者和行業領袖簽署的關於人工智能風險的聲明, 包括OpenAI首席執行官山姆·奧特曼,該聲明宣稱 “減輕人工智能滅絕的風險應與流行病和核戰爭等其他社會規模風險一樣,作為全球優先事項。”6人工智能安全中心主任丹·亨德里克斯(Dan Hendrycks)表示,人工智能構成 “系統性偏見、錯誤信息、惡意使用、網絡攻擊和武器化” 的緊迫風險。7

_____________________________

1 https://www.nytimes.com/2023/04/07/technology/ai-chatbots-google-microsoft.html

2同上。

3同上。

4 https://futureoflife.org/open-letter/pause-giant-ai-experiments/

5 https://www.bloomberg.com/news/features/2023-04-19/google-bard-ai-chatbot-raises-ethical-concerns-from-employees

6https://www.safe.ai/statement-on-ai-risk -公開信

7https://www.npr.org/2023/05/30/1178943163/ai-risk-extinction-chatgpt -: ~: text=ai%20experts%20issued%20a%20dire%

20Warning%20on%20on%20Tuesday%3A,取得 %20control%20over%20over%20over%20or%20or%20destroy%20the%20world。

趕上市場:2022年12月,Alphabet首席執行官桑達爾·平查伊和人工智能負責人傑夫·迪恩在一次全體員工 會議上承認,將一項毫無準備的技術推向市場會帶來巨大的聲譽風險。8然而,同月,谷歌宣佈了 “紅色代碼”,指示員工將時間和資源 轉移到人工智能項目上,並加快人工智能審查流程。9谷歌可能會感受到ChatGPT推出帶來的壓力,於2023年3月發佈了 其人工智能聊天機器人 Bard,並將其稱為 “生成式人工智能的早期實驗”。10很明顯 巴德還沒有為上市做好準備,因為該公司在產品發佈期間提供了與事實不準確的數據,這導致Alphabet的股票下跌了11% ,相當於1000億美元的市值。11谷歌員工將巴德的發佈稱為 “匆忙”、“拙劣” 和 “不合時宜”。12差不多一年後,即2024年2月,谷歌 發佈了其更新的大型語言模型(LLM)Gemini。用户發現雙子座容易生成歷史上不準確的圖像 ,例如種族多元化的納粹分子。桑達爾·平查伊承認了雙子座模型中的這種偏見,稱這 “完全 不可接受,我們錯了。”13由於雙子座的上市失敗,Alphabet股票的市值損失了960億美元。14

短期策略:儘管許多 專家敦促他們停下來考慮GaI的風險,但Alphabet似乎將短期利潤置於長期成功之上。因此, 公司似乎在採取高風險策略,在沒有充分了解或披露相關的 風險的情況下將新興的GaI推向市場。Alphabet明確表示了創建人工智能護欄和負責任地構建產品的意圖,首席執行官桑達爾·平查 表示:“但是,更重要的是競相負責任地建設人工智能,並確保我們作為一個社會把它做好。”15 但是,如果戰略不一致,良好的意願是不夠的。谷歌前員工、谷歌 道德人工智能團隊創始人瑪格麗特·米切爾最近表示,她認為公司優先考慮魯莽的速度,而不是經過深思熟慮的戰略。16 該提案要求建立問責機制,以確保Alphabet的GaI戰略實際上是在優先考慮人工智能安全和責任的情況下實施的。

_____________________________

8 https://gizmodo.com/lamda-google-ai-chatgpt-openai-1849892728

9https://www.nytimes.com/2023/03/31/technology/google-pichai-ai.html

10https://ai.google/static/documents/google-about-bard.pdf

11https://www.npr.org/2023/02/09/1155650909/google-chatbot--error-bard-shares -: ~: text=shares%20for%20google%27s%20parent%20parent%20company%2c%20Alphabet%2c%20Alpabet%2c%20dropped% 209% 25%
produced%20a%20factual%20error%20in%20in%20its%20first%20demo。

12https://www.cnbc.com/2023/02/10/google-employees-slam-ceo-sundar-pichai-for-rushed-bard-announcement.html

13https://www.businessinsider.com/google-gemini-bias-sundar-pichai-memo-2024-2

14https://www.msn.com/en-us/news/technology/google-loses-96b-in-value-on-gemini-fallout-as-ceo-does-
damage-control/ar-bb1j4z21-: ~:text=google%20parent%20alparent%20alphabet%20has%20lost%20在舉報%20用户%20之後,將近20% 2497% 200億
%20its%20bias%20Against%20White%20People。

15https://www.ft.com/content/8be1a975-e5e0-417d-af51-78af17ef4b79

16https://time.com/6836153/ethical-ai-google-gemini-debacle/

2.Alphabet的GaI工具已經創造了虛假和誤導性的信息。

Alphabet自己承認:“正如我們自己的研究和其他人的研究所強調的那樣,人工智能有潛力 加劇現有的社會挑戰——例如不公平的偏見——並隨着它變得更加先進和 新用途的出現而構成新的挑戰。”17谷歌已經認識到,必須 “明確、周到、肯定地應對這些挑戰”。18即使是人工智能最堅定的支持者也繼續 呼應對護欄和這些技術運作方式的透明度的需求。OpenAI首席執行官山姆·奧特曼曾表示,他 “特別擔心這些模型可能被用於大規模的虛假信息。” 信息已指出,GaI 將 “生成可信錯誤信息的 成本降低了幾個數量級”。19普林斯頓、弗吉尼亞理工大學和斯坦福大學的研究人員發現,包括谷歌在內的許多公司用來減輕風險的護欄 “並不像人工智能開發人員所認為的那樣堅固。”20

作為 LLM、聊天機器人助手以及依賴它們的文本- 和圖像生成工具的開發者,Alphabet 有責任預測這些專有的 GaI 工具將如何使用, 並減輕因其故障或被不良行為者濫用而可能造成的危害。這些 GaI 工具已經證明瞭它們在生成錯誤和虛假信息方面的敏感性 :

巴德將太陽系以外行星的第一張照片歸因於詹姆斯·韋伯太空望遠鏡,而不是美國宇航局證實的歐洲 南方天文臺的超大型望遠鏡(VLT)。這些錯誤信息包含在 Bard 的演示視頻中, 突顯了該技術在傳播錯誤信息方面的漏洞。21
反數字仇恨中心發現,當研究人員提示巴德進行 “角色扮演” 時,對78%的話題進行了虛假敍述,但沒有提供任何關於信息可能不正確的免責聲明。這些話題從反疫苗 言論到反猶太主義不等。22
當被問及特定的醫學問題時,巴德提供的信息不正確,並引用了不存在的醫學研究報告。23
在幾個例子中,巴德為諸如 “Pizzagate” 之類的令人震驚的陰謀辯護,他引用了出版物 中的捏造文章,例如 《紐約時報》《華盛頓郵報》.24
2024 年 2 月,谷歌的雙子座製作了將納粹描繪成有色人種的圖片。25
在歐盟大選之前,研究人員用10種不同的語言向Gemini和其他人工智能聊天機器人詢問了有關即將到來的 選舉和投票過程的問題。雙子座無法 “提供可靠可靠的答案”。26
Alphabet還有責任快速識別和刪除在Youtube上傳播的錯誤和虛假信息,無論是否由 人工智能生成。近幾個月來,隨着深度偽造或由AI 操縱的視頻在Youtube上傳播虛假信息的增加,這已成為越來越令人擔憂的問題。包括史蒂夫·哈維和丹澤爾·華盛頓在內的幾位黑人名人的深度偽造作品已在Youtube上流傳 。27

_____________________________

17https://blog.google/technology/ai/google-responsible-ai-io-2023/

18https://ai.google/responsibility/responsible-ai-practices/

19 http://www.theinformation.com/articles/what-to-do-about-misinformation-in-the-upcoming-election-cycle

20https://www.nytimes.com/2023/10/19/technology/guardrails-artificial-intelligence-open-source.html

21https://www.engadget.com/google-bard-chatbot-false-information-twitter-ad-165533095.html

22https://finance.yahoo.com/news/prompts-google-bard-easily-jump-065417010.html

23https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10492900/

24https://futurism.com/google-bard-conspiracy-theory-citations

25https://www.msn.com/en-us/news/other/is-chatgpt-safe-what-you-should-know-before-you-start-using-ai-chatbots/ar-AA1nPxlW

26https://www.msn.com/en-xl/news/other/most-popular-ai-chatbots-providing-unintentional-misinformation-to-users-ahead-of-eu-elections/ar-AA1nqjTW

27https://www.nbcnews.com/tech/misinformation/ai-deepfake-fake-news-youtube-black-celebrities-rcna133368

3.通過GaI生成和傳播的錯誤信息和虛假信息給Alphabet和投資者都帶來了風險。

法律風險:如果Alphabet不能妥善緩解通過其GaI工具生成和 傳播的錯誤和虛假信息,Alphabet將面臨重大的法律風險。許多法律專家認為,Alphabet可能對由自己的 技術生成的錯誤和虛假信息負責,因為它不太可能受到聯邦法律第 230 條的保護,該條款保護社交媒體平臺和 網絡主機免於為發佈到其網站的第三方內容承擔法律責任。但是,使用谷歌自己的GaI工具,內容 是由該公司技術本身創建的,這使得Alphabet容易受到未來的法律審查。
民主風險:錯誤和虛假信息對社會、Alphabet和投資者都是危險的,因為它可以操縱公眾的觀點,削弱機構信任並影響選舉。研究人員認為,“人工智能生成內容的盛行引發了人們對虛假信息傳播以及對社交媒體平臺和數字互動信任減弱的擔憂。傳播 誤導性或被操縱的內容會進一步削弱公眾對社交媒體上共享信息真實性的信任,從而削弱 這些平臺和媒體來源的總體可信度。”28通過GaI產生和傳播的 “真相” 的歪曲最終破壞了對我們民主進程的信任,這些進程是我們社會 和經濟穩定的基礎。這在 2024 年越來越令人擔憂,這一年將舉行大量選舉,包括 美國、土耳其和烏克蘭的總統選舉。29
監管風險:Alphabet的人工智能監管格局仍在發展中,這本身就是一種風險。第一批主要的 指導方針是由新出台的歐盟人工智能法案制定的。Alphabet在這項新規定中面臨一些嚴重的阻力。它要求 Alphabet 識別和標記 deepfake 和 AI 生成的內容,進行模型評估、風險評估和緩解措施,並報告 任何人工智能系統出現故障的事件。此外,當人工智能系統 造成傷害時,歐盟公民將能夠向歐洲人工智能辦公室報告。30

_____________________________

28https://www.techrepublic.com/article/generative-ai-impact-culture-society/

29https://en.wikipedia.org/wiki/List_of_elections_in_2024

30https://www.technologyreview.com/2024/03/19/1089919/the-ai-act-is-done-heres-what-will-and-wont-change/amp/?ref=everythinginmoderation.co

在美國,《安全可靠和可信賴的人工智能行政命令》仍然是一個自願框架,但許多人預計歐盟採用的標準將在全球範圍內得到更多采用。美國監管的最終 形式尚不清楚,但人們普遍支持強有力的監管。最近的 皮尤調查報告稱,“在熟悉 ChatGPT 等聊天機器人的人中,有67% 表示,他們更擔心 政府在監管其使用方面做得不夠,而不是走得太遠。”31

全經濟風險:多元化股東也面臨風險,因為他們將錯誤和虛假信息的社會成本內在化。 當公司危害社會和經濟時,多元化投資組合的價值會隨着國內生產總值的增長而上升和下降。32Alphabet減少錯誤和虛假信息,保護公司的長期財務健康以及 確保其投資者不會將這些成本內在化,符合股東的最大利益。新成立的值得信賴的人工智能促進中心 首席執行官加里·馬庫斯指出:“最大的短期風險 [生成式 AI]是故意使用大型語言 工具製造錯誤信息,以破壞民主和市場。”

4.該提案不僅要求制定負責任的人工智能政策和協議,還要求建立問責機制以確保 Alphabet 有效識別和緩解錯誤和虛假信息風險。

Alphabet在其反對聲明中描述了其負責任的人工智能 方法和治理,以混淆滿足本提案要求的必要性。但是,所要求的報告要求公司 不僅僅是描述負責任的人工智能原則和舉措。我們要求對與GaI相關的風險 進行全面評估,以便公司能夠有效地降低這些風險,並評估公司 應對已確定風險的有效性。由於GaI的風險嚴重且影響廣泛,因此至關重要的是,Alphabet不僅要報告其信念 和對負責任的GaI的承諾,還要透明地向股東説明它已經完全識別了風險 並正在評估其應對風險的能力。

當前的報告未滿足該提案的 請求。在谷歌的《2023年人工智能原則進展更新》中,該公司概述了其人工智能原則、治理和風險緩解 實踐。33但是,如果沒有提案要求的報告,Alphabet股東只能相信 公司正在有效實施這些原則和做法。鑑於公司迄今為止在防止GaI失誤- 和虛假信息方面的表現不佳,該報告將向股東保證,公司正在積極識別和緩解與GaI相關的風險 。

_____________________________

31https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/

32參見 普遍所有權:為什麼環境外部因素對機構投資者很重要,附錄 IV (演示了國內生產總值與多元化投資組合之間的線性關係)可在以下網址查閲
https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; cf。
https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-
buffett-valuation-Indication-Indication-Indication-Indication (總市值佔國內生產
估值在任何給定時刻都有效”) (引用沃倫·巴菲特的話)。

33 https://ai.google/static/documents/ai-principles-2023-progress-update.pdf

結論

出於上述所有原因,我們強烈敦促您支持 該提案。我們認為,一份關於與生成式人工智能相關的錯誤信息和虛假信息風險、補救措施和衡量措施的報告將 有助於確保 Alphabet 全面緩解風險,符合股東的長期最大利益。

如需瞭解更多 信息,請通過 juliac@arjuna-capital.com 與 Julia Cedarholm 聯繫。

真誠地,

娜塔莎·蘭姆

阿周那資本

這不是請求授權您對代理人進行投票。請 不要將您的代理卡發送給我們。Arjuna Capital無法對您的代理進行投票,本次來文也未考慮此類事件。 支持者敦促股東按照管理層代理郵件中提供的指示,投票支持代理項目12。

所表達的觀點是截至參考日期作者和Arjuna Capital 的觀點,並可能隨時根據市場或其他條件進行更改。這些觀點無意成為 對未來事件的預測或對未來結果的保證。這些觀點可能不能被用作投資建議。本材料中提供的信息 不應被視為買入或賣出上述任何證券的建議。不應假設 對此類證券的投資已經或將要盈利。這篇文章僅供參考,不應將 解釋為研究報告。