豁免招标通知

注册人姓名:Alphabet Inc.

依赖豁免的人员姓名:打开 MIC

申请豁免的人的地址:加利福尼亚州旧金山托尼大道1012号潮汐中心邮编 94129-1755。

书面材料:所附书面材料是根据1934年《证券交易法》颁布的第14a-6 (g) (1) 条(“规则”)提交的 ,*与注册人将在2024年年会上表决的代理提案 有关。*根据 规则的条款,本申报人无需提交,而是为了公开披露和考虑这些重要问题,由支持者自愿提交。

2024年5月7日

尊敬的各位股东,

我们写这封信是为了敦促你对代理卡 的第12号提案投赞成票,该提案要求Alphabet报告与通过Alphabet的 生成人工智能 (GaI) 传播或生成的错误和虚假信息相关的风险,并计划降低这些风险。

提案 12 的扩展理由

该提案提出以下要求:

已解决:股东要求董事会以 合理的成本发布一份报告,省略专有或法律特权信息,该报告将在年会后的一年内发布,并在此后每年更新 ,评估公司 在为通过生成人工智能生成、传播和/或放大的错误信息和虚假信息提供便利方面所面临的公司运营和财务以及公共福利风险; 公司采取了哪些措施为补救这些危害而采取的计划;以及将如何衡量这些危害这些努力的有效性。

1

我们认为,股东应该对第12号提案投赞成票,原因如下:

Alphabet在反对该提案的声明中宣称,它 于2018年发布了其人工智能原则,“以追究我们如何研究和开发人工智能,包括生成式人工智能...” 该公司断言,其自我监管措施——创建企业风险框架、产品政策、专门 团队和工具——足以防止对公司和社会造成损害。尽管支持者赞扬Alphabet制定了指导其人工智能开发的原则 ,但光靠公司的承诺——无论多么 “稳健” ——并不能确认对这些技术进行负责任、合乎道德的、 或人权的管理,这些技术非常强大,可以毫不费力地用类似人类的思想和言语来欺骗人们。1在不知情者或不良行为者手中,这种技术有可能通过虚假和隐藏的议程破坏高风险决策,有可能改变选举、市场、公共 健康和气候变化的进程。它还被证明会加剧网络安全风险。2

股东们知道,真正的价值和持续的信任来自公司 的表现而不是说出来。 Alphabet 及其董事会主张对第 12 号提案投反对票,并拒绝披露履行承诺的具体证据,实际上并未追究自己的责任。相反,人们似乎假设股东应该 信守公司的诺言。由于风险如此之高,这是不切实际的期望,特别是考虑到Alphabet的 双股结构也使大多数股东追究公司责任的能力降至最低。

如果不以既定指标、示例和分析为后盾,对Alphabet的 AI 框架、政策和工具的有效性进行一致和定期的核算,股东和公众都无法确定公司在投资数百亿美元开发该技术和支持该技术所需的数据中心时所承担的重大风险金额。3

提案 #12 要求什么

提案 #12 要求以合理的成本以年度 报告的形式进行这样的核算。支持者要求Alphabet评估利用其生成式人工智能技术(包括现在臭名昭著的不准确的Gemini)创造和传播错误和虚假信息对公司和社会构成的风险4, 是之前臭名昭著的不准确的 Bard 的继任者。5

支持者承认,Alphabet已经制定了框架、政策、 和其他工具来建立 “护栏”,但是如果不了解 现有的指标以及对这些指标的持续监测和评估,我们就无法评估这些护栏的位置和坚固程度。

_____________________________

1https://techcrunch.com/2024/01/13/anthropic-researchers-find-that-ai-models-can-be-trained-to-deceive/

2https://www.pwc.com/us/en/tech-effect/ai-analytics/managing-generative-ai-risks.html

3https://www.washingtonpost.com/technology/2024/04/25/microsoft-google-ai-investment-profit-facebook-meta/

4https://youtu.be/S_3KiqPICEE

5https://www.reuters.com/technology/google-ai-chatbot-bard-offers-inaccurate-information-company-ad-2023-02-08/

2

为了使护栏的比喻更加具体, Alphabet 投资和部署生成式人工智能的速度假设是直行的。同时,每日新闻报道 关于这项技术的缺点和由此产生的影响,如提案和主要申报人Arjuna Capital的 豁免招标通知中所述,6说明前进的道路更像是一条有急转弯的山地土路。没有 护栏在任何速度下都能发挥作用。

与大多数股东决议一样,董事会认为 发布这样的报告不符合 “公司和我们的股东的最大利益”。也就是说,记录下将生成式人工智能整合到我们信息生态系统的各个方面所面临的财务、法律和声誉风险充其量是不确定的,似乎不符合董事会的利益,更不用说对机构的信任 和整个民主所构成的风险了。

生成式 AI 的风险

支持者断言,不受限制的生成式人工智能是一项风险投资。 在没有风险评估、人权影响评估或其他政策保护措施的情况下开发和部署生成式人工智能 会使Alphabet在财务、法律和声誉上面临风险。它在人工智能上投资了数百亿美元, 但是我们对它如何衡量其投资回报率知之甚少。而且,当GaI失败时,Alphabet将损失巨大的 市值,就像今年早些时候双子座失败后一样。7

已经对包括Alphabet, 在内的人工智能公司提起了多起诉讼,指控其侵犯了版权。8,9欧洲可能面临数十亿美元的赔偿,那里的媒体公司正在就基于人工智能的广告行为起诉 Alphabet。10从隐私的角度来看,人工智能表现出的复制人们 声音和肖像的能力已经引发了一起集体诉讼,有可能为更多的法律挑战创造机会。

生成式人工智能还给Alphabet带来了巨大的声誉风险, 并正在加速源于社交媒体内容审核挑战(部分原因也是 AI)的科技反弹。此外,大型科技公司的不透明度和失误导致 “美国人对科技 ,特别是科技公司的信心明显下降——比对任何其他类型的机构都更大、更普遍。”11公共关系巨头爱德曼最近发布的一份 报告宣称 “创新面临风险”,并记录了五年内对 人工智能的信任度下降了35%。12

_____________________________

6https://www.sec.gov/Archives/edgar/data/1652044/000121465924008379/o532411px14a6g.htm

7https://www.forbes.com/sites/dereksaul/2024/02/26/googles-gemini-headaches-spur-90-billion-selloff/

8https://topclassactions.com/lawsuit-settlements/lawsuit-news/google-class-action-lawsuit-and-settlement-news/google-class-action-claims-company-trained-ai-tool-with-copyrighted-work/

9https://www.reuters.com/technology/french-competition-watchdog-hits-google-with-250-mln-euro-fine-2024-03-20/

10https://www.wsj.com/business/media/axel-springer-other-european-media-sue-google-for-2-3-billion-5690c76e

11https://www.brookings.edu/articles/how-americans-confidence-in-technology-firms-has-dropped-evidence-from-the-second-wave-of-the-american-institutional-confidence-poll/

12https://www.edelman.com/insights/technology-industry-watch-out-innovation-risk

3

生成式人工智能还可以加剧现有的社会经济差距, 与企业多元化的全球趋势背道而驰。13例如,虚假信息进一步使本已处于弱势或边缘化状态的人们 处于不利地位,因为他们无法获得对决策权至关重要的资源、知识和机构地位 。14最近的研究表明,人工智能驱动的 “方言偏见” 要求语言模型仅根据人们的说话方式对他们做出假设的决定,有可能造成有害后果。15

尽管承认这些挑战并公开呼吁通过监管 来应对这些挑战,但Alphabet及其同行经常通过游说私下避开监管。去年,该公司花费了超过1400万美元游说反对反垄断监管,对立法者进行人工智能教育等。16在加利福尼亚州,包括Alphabet在内的大型科技公司的 反击导致一项监管算法歧视、 加强隐私并允许居民选择退出人工智能工具的法案被取消。17

最大限度地减少潜在危害的不确定性

创新需要目标才能有价值。到目前为止,生成式 AI 已将 具体化为一组客厅技巧。Alphabet将双子座作为计划旅行、列出购物清单、发送短信、 撰写社交媒体帖子、从照片中移除不需要的物体、所有无需GaI即可完成且环境足迹小得多的活动的一种方式。同时,Alphabet承认Gemini犯了错误,鼓励用户对聊天机器人的 结果进行事实核对,并在页面底部显示一条精美的消息,上面写着:“双子座可能会显示不准确的信息,包括关于人的信息, ,因此请仔细检查其回复。”在搜索与选举有关的信息时,Gemini会返回一条类似的消息:“我 仍在学习如何回答这个问题。同时,试试谷歌搜索。”同时,许多企业都在努力赚取 对生成式人工智能的投资回报,这种状况可以追溯到社交媒体的首次亮相之时。18,19

科技行业和Alphabet以前曾出现过社交媒体, ,其危害包括人际暴力和心理伤害;大规模散布仇恨言论和虚假信息, 损害我们的健康、代理机构和市场的过滤泡沫;定向广告和监控资本主义,它不可挽回地将我们的言论、我们的个人属性、我们的好恶、我们的关系——无异于我们的人性。

_____________________________

13https://corpgov.law.harvard.edu/2024/03/06/global-corporate-governance-trends-for-2024/#more-163181

14https://www.cigionline.org/articles/in-many-democracies-disinformation-targets-the-most-vulnerable/

15https://arxiv.org/abs/2403.00742

16https://news.bloomberglaw.com/in-house-counsel/amazon-google-among-firms-focusing-on-ai-lobbying-in-states

17https://news.bloomberglaw.com/artificial-intelligence/californias-work-on-ai-laws-stalls-amid-fiscal-tech-concerns

18https://www.fastcompany.com/91039524/whats-the-roi-of-generative-ai

19https://www.pwc.com/us/en/tech-effect/ai-analytics/artificial-intelligence-roi.html

4

在最近发表的一篇论文中20,合著者 Timnit Gebru (因对大型语言模型发出警报而于 2020 年被谷歌解雇)和分布式人工智能研究所 的埃米尔·托雷斯认为,生成式人工智能只不过是通往技术乐观主义者的垫脚石 等人视为 AGI(人工 通用智能)的圣杯,一种可以回答任何问题的无所不知的 “机器之神”,可以解决任何 问题的灵丹妙药。

他们写道,问题在于生成式人工智能及其想象中的继任者 AGI “范围不明确,因此不安全”。他们认为,“尝试构建 AGI 既不遵循科学原则,也不遵循工程 原则。”然后问:“宣传为'用于在任何环境中学习和行动的通用算法 '的系统的标准运行条件是什么?”他们提倡范围明确、定义明确的 “狭义人工智能” 系统, 这样他们接受训练的数据和完成的任务才能与他们试图解决的问题相关。

Gebru和Torres还强调,人工智能系统是贪婪的能量消耗者,与询问未答复的选举查询、使广告商能够直接定位和与 买家交谈,以及使用魔术橡皮擦从图像中删除不需要的人和物体相比,这些系统可以用来做更好的事情。他们指出:“可以流向全球许多实体 的资源,每个实体都在构建满足特定社区需求的计算系统, 正在被抽走给少数几家试图建立人工智能的公司。”

支持者并不反对人工智能或生成式人工智能。我们支持它, 当它不会造成伤害或混乱时。当它符合解决问题的需求时,其功能不仅方便 而且是必需的。当它的使用使大多数人受益而不会造成附带损害时,尤其是那些由于在获得权力方面面临障碍而已经被边缘化 和脆弱的人,他们需要保护家庭、健康、环境、 生计以及人权和公民权利。当人工智能和生成式人工智能对它声称 服务的人负责时,我们支持人工智能和生成式人工智能。

对于第12号提案,在目前缺乏一般监管的情况下, 的支持者只需要求Alphabet根据公司为自己设定的标准衡量生成人工智能的表现 来最大限度地减少生成式人工智能潜在危害和浪费的不确定性。然后,我们要求公司每年分享一次所学到的知识,以便股东 可以在清楚地了解Alphabet的生成式人工智能工具对社会(包括信息生态系统)的影响的情况下就其投资做出明智的决策。通过公开对生成式人工智能的承诺承担可衡量的责任,Alphabet 将有助于重建对技术乃至公司日益减弱的信任,为其他公司设定在这个关键时刻可以遵循的标准。

我们鼓励你对该决议投赞成票,并迈出第一步 ,告诉 Alphabet 人工智能在以人为中心和服务时创造价值。

_____________________________

20Gebru、T. 和 托雷斯,埃米尔·P.(2024)。TESCREAL 套装:优生学和通过人工通用智能实现乌托邦的承诺。 第一个 星期一, 29(4)。https://doi.org/10.5210/fm.v29i4.13636

5