豁免招标通知
注册人姓名:Meta Platforms, Inc.
依赖豁免的人员姓名:Arjuna Capital
依赖豁免的人的地址:马萨诸塞州曼彻斯特市榆树街 13 号 01944
书面材料:所附书面材料是根据1934年《证券交易法》颁布的第14a-6 (g) (1) 条(“规则”)提交的 ,*与注册人将在2024年年会上表决的代理提案 有关。*根据规则的条款,这个 申报人无需提交,而是为了公开披露和考虑这些 重要问题,由支持者自愿提交。
2024年4月23日
尊敬的 Meta Platforms 股东,
我们写这封信是为了敦促你对代理卡上的提案 6 投赞成票,该提案要求 Meta 报告与通过生成式 人工智能 (GaI) 在其平台上传播或生成的错误和虚假信息相关的风险,并计划降低这些风险。我们认为,股东应该对提案 投赞成票,原因如下:
1. | Meta 在平台管理不善方面有着骇人听闻的记录,这最终加剧了社会危害。 |
2. | Meta 的 GaI 工具已经创建了虚假和误导性的信息。 |
3. | Meta 未能快速识别和审核在其平台上散布的 GaI 错误和虚假信息,其高级领导人 低估了与这些内容审核失败相关的风险,即使在重要的选举年也是如此。 |
4. | 通过 GaI 传播的错误信息和虚假信息给 Meta 和投资者都带来了风险。 |
5. | 该提案超越了 Meta 目前的报告,它要求建立问责机制以确保其有效识别和缓解错误和虚假信息风险。 |
提案 6 的扩展理由
该提案提出以下要求:
已解决:股东要求董事会以 合理的成本发布一份报告,省略专有或法律特权信息,该报告将在年会后的一年内发布,并在此后每年更新 ,评估公司 在为通过生成式人工智能传播或生成的错误信息和虚假信息提供便利方面发挥的作用,对公司的运营和财务以及公共福利构成的风险; 公司计划采取哪些措施补救这些危害;以及它将如何衡量有效性这样的努力。
我们认为,股东应该对提案 投赞成票,原因如下:
1. | Meta 在平台管理不善方面有着骇人听闻的记录,这最终加剧了社会危害。 |
多年来,人们一直严重担心 Meta 无法 充分评估和管理其产品。在反对声明中,该公司试图向股东保证,它正在有效地利用GaI处理错误和虚假信息的风险。但是,该公司一次又一次地证明,不能相信它能有效 减少其平台上的有害内容。如果没有按照本提案的要求建立适当的问责机制,Meta 的 GaI 工具和分布在其平台上的 GaI 内容可能会助长其毁灭性的社会危害记录。在引入 GaI 之前,其平台管理不善 导致:
a. | 放大仇恨和极端主义——ProPublica 和《华盛顿邮报》在2022年进行的一项调查发现,Facebook在传播煽动2021年1月6日美国国会大厦暴力 的虚假叙事中发挥了 “关键作用”。调查发现,Facebook在2020年大选后解散了选举诚信工作组,并 “撤销了其他密集的执法措施”。调查还显示,Facebook监管其用户 “群组” 的方式存在问题,前雇员说:“该公司的执法工作薄弱,前后矛盾,严重依赖无薪群组管理员的工作来完成审查帖子 和删除违反公司政策的帖子等劳动密集型工作。”1 |
b. | 选举虚假信息——Facebook在国会作证说, 驻俄罗斯的特工在2015年6月至2017年8月期间发布了8万篇帖子,覆盖了约1.26亿美国人,企图影响 美国总统大选。22022年,Facebook上发现了各种广告,这些广告在巴西 散布选举虚假信息,企图影响其选举。3 |
c. | 助长种族灭绝——在2017年缅甸的一次军事镇压行动中,估计有10,000名罗兴亚穆斯林遇害 。4联合国报告的主要作者称,Facebook散布仇恨言论,并在暴力事件中发挥了 “决定性作用” 。5Facebook 委托编写的一份独立报告发现,“我们在防止我们的平台被用来煽动分裂和煽动线下暴力方面做得还不够。 我们同意我们可以而且应该做得更多。”6 |
_____________________________
1https://www.propublica.org/article/facebook-hosted-surgeof-misinformation-and-insurrection-threats-in-months-leading-up-to-jan-6-attack-records-show
2https://www.businessinsider.com/how-mark-zuckerberg-reacted-to-learning-facebook-russian-election-interference-2021-7
3https://time.com/6210985/brazil-facebook-whatsapp-election-disinformation/
4https://www.bbc.com/news/world-asia-59558090
5https://time.com/5197039/un-facebook-myanmar-rohingya-violence/
6https://about.fb.com/news/2018/11/myanmar-hria/
d. | 破坏隐私——2018年,Facebook承认对政治数据分析公司剑桥分析公司不当获取的来自约8700万Facebook用户的数据进行了不当处理 。7 由于那次数据泄露,联邦贸易委员会在2019年对Facebook处以创纪录的50亿美元罚款,并迫使 该公司接受修改后的公司结构,以解决有关该公司欺骗用户 控制其个人信息隐私的能力而违反2012年联邦贸易委员会命令的指控。 |
e. | 侵犯民权——2018年对 Facebook 的第三方民权审计- 由公司本身委托 -对 “Facebook 做出的令人烦恼和令人心碎的决定表示担忧,这些决定给民权带来了重大挫折。”8《华盛顿邮报》后来透露,Facebook 没有向民权审计师通报有关该公司的算法对少数族裔造成不成比例的伤害的研究。 首席审计师劳拉·墨菲说:“我并不是在宣称有恶意意图,但令人深感担忧的是, 没有与审计师分享针对黑人、犹太人、穆斯林、阿拉伯和LGBTQIA用户的仇恨所产生的不成比例的影响。”9 |
f. | 伤害年轻人——2021年,Facebook前雇员兼举报人 弗朗西斯·豪根向美国证券交易委员会提供了文件,并在美国参议院就Facebook系统 作证,她声称该系统加剧了在线仇恨和极端主义,未能保护年轻人免受有害内容的侵害。 豪根说,除其他指控外,Facebook的内部研究发现,该公司的Instagram社交媒体平台加剧了少女的饮食失调 和自杀念头。 |
g. | 未能补救危害——根据Facebook 举报人豪根提供的文件,《华尔街日报》发表了一系列重要的调查报告,得出的结论是:“Facebook Inc.非常清楚其平台充斥着造成伤害的缺陷,通常只有公司才能完全理解... 文件显示,Facebook的研究人员一次又一次地发现了该平台的不良影响。尽管国会 听证会、自己的承诺和大量媒体曝光,但该公司一次又一次地没有兑现这些承诺。”10 |
很明显,Meta 过去在减轻其平台助长的 毁灭性社会危害方面做得还不够。该提案旨在确保 Meta 主动识别与 GaI 相关的所有风险 ,并对积极缓解这些风险负责。
_____________________________
7https://www.businessinsider.com/cambridge-analytica-a-guide-to-the-trump-linked-data-firmthat-harvested-50-million-facebook-profiles-2018-3
8https://about.fb.com/wpcontent/uploads/2020/07/Civil-Rights-Audit-Final-Report.pdf
9https://www.washingtonpost.com/technology/2021/11/21/facebook-algorithm-biased-race/。
10https://www.wsj.com/articles/thefacebook-files-11631713039
2. | Meta 的 GaI 工具已经创建了虚假和误导性的信息。 |
据 Meta 自己承认,”[a]解决生成式人工智能系统中的潜在偏见 是一个新的研究领域,” 考虑到这一点,这尤其令人担忧”[t]基础模型... 有可能产生虚构的回应或加剧它可能从训练数据中学到的陈规定型观念。”11 即使是人工智能最坚定的支持者也继续呼应护栏和提高这些技术运作方式的透明度。OpenAI首席执行官山姆 奥特曼曾表示,他 “特别担心这些模型可能被用于大规模的虚假信息。” 《信息报》指出,GaI 将 “生成可信错误信息的成本降低了几个数量级”。12 普林斯顿大学、弗吉尼亚理工大学和斯坦福大学的研究人员发现,包括Meta在内的许多公司依赖 来降低风险的护栏 “并不像人工智能开发人员想象的那么坚固”。13
作为大型语言模型 (LLM)、聊天机器人助手 和依赖它们的图像生成工具的开发者,Meta 有责任预测这些专有的 GaI 工具将如何使用, 减轻因其故障或被不良行为者滥用而可能造成的任何危害。这些 AI 工具已经证明了它们在生成错误和虚假信息方面的敏感性 :
a. | 在最近的一项测试中,支持其人工智能助手的 Meta 的 Llama 2 仅通过了 13 个风险评估类别中的 4 个,并显示 的幻觉率为 48%,几乎相当于每两个正确答案中只有一个答案。14该测试提出的其他担忧 包括该模型容易受到即时注入的操纵、个人身份信息泄露、 过度编辑信息以及其他随机数据泄露。 |
b. | Meta 的人工智能助手于 4 月中旬在其平台上推出,据报道,许多人冒充人类,拥有虚构的生活经历。 一位人工智能助手在Facebook的私人群组中冒充母亲,而另一位则主动提出在Facebook论坛上赠送不存在的物品。 在WhatsApp上,人工智能聊天机器人指控一名用户抄袭,为这篇 “抄袭” 博客文章提供了正式引文。Meta 承认了这些失误,他说:“这是一项新技术,它可能并不总是能返回我们想要的回应, 所有生成式人工智能系统都是如此。”1516 |
c. | 在 数十次询问之后,Meta 的 Imagine 图像生成器拒绝创建东亚男性和白人女性的图像,从而挑战了现实。17 |
d. | Meta 最新的生成式 AI 模型 Llama 3,18依赖于合成数据或人工智能生成的数据,这些数据可以推断 在现实世界中可能发生的事情,但这并不代表现实世界的事件本身。随着时间的推移,此类数据可能会导致 “模型 退化”,从而引入偏差和其他不准确之处,从而对结果产生负面影响。19 |
_____________________________
11https://about.fb.com/news/2023/09/building-generative-ai-features-responsibly/
12 http://www.theinformation.com/articles/what-to-do-about-misinformation-in-the-upcoming-election-cycle
13https://www.nytimes.com/2023/10/19/technology/guardrails-artificial-intelligence-open-source.html
14https://www.techspot.com/news/102653-meta-llama-2-llm-prone-hallucinations-other-severe.html
15https://www.wral.com/story/metas-newest-ai-model-beats-some-peers-but-its-amped-up-ai-agents-are-confusing-facebook-users/21387175/
16https://www.washingtonpost.com/politics/2024/04/16/chatbots-flaws-arent-stopping-tech-giants-putting-them-everywhere/
17https://www.theverge.com/2024/4/3/24120029/instagram-meta-ai-sticker-generator-asian-people-racism
18https://techcrunch.com/2024/04/18/meta-releases-llama-3-claims-its-among-the-best-open-models-available/
19https://www.forbes.com/sites/forbestechcouncil/2023/11/20/the-pros-and-cons-of-using-synthetic-data-for-training-ai/?sh=3e9c030a10cd
3. | Meta 未能快速识别和审核在其平台上散布的 GaI 错误和虚假信息,其高级领导人 低估了与这些内容审核失败相关的风险,即使在重要的选举年也是如此。 |
Meta 必须通过快速识别和删除违反其政策的内容(包括广告)(无论是否由 AI 生成的 )来解决 GaI 在其平台上传播的错误信息和虚假信息。然而,在过去的一年中,GaI的错误和虚假信息在该公司的平台上广泛传播,包括Facebook、WhatsApp、 和Instagram。例如:
a. | 人工智能生成的五角大楼爆炸图像已在包括Facebook在内的各种社交媒体平台上发布, 导致股市短暂下跌。2021 |
b. | 在Instagram上投放了宣传生成式人工智能工具的广告,这些工具允许人们在未经这些图像的主体许可的情况下创建裸照 ,只有在记者要求该公司发表评论后才被删除。22 |
c. | 人工智能生成的性化、未经同意的泰勒·斯威夫特照片在包括Facebook和Instagram在内的多个平台上流传。23 此案以及对涉及知名女性的未经同意的 “女性公众人物的露骨人工智能图片” 的处理,一起 在印度,一起在美国,促使Facebook监督委员会重新审议 Meta 对人工智能生成的 露骨图像的政策和执法做法。24 |
同时, Meta 的高级领导人,包括全球事务副总裁 Nick Clegg, 公开淡化了 GaI 的威胁,无视人工智能生成的图像和竞选活动已经对今年的选举 产生的影响。尽管有许多关于台湾选举结果的新闻报道,25印度尼西亚,26阿根廷,27 印度,28其他国家也受到了GaI图片、聊天机器人和广告定位的影响。与 事实相反,克莱格断言:“令人惊讶的是,系统地使用这些工具来真正试图颠覆和破坏 选举的次数如此之少。”29加剧这些负面影响的是,Facebook在审核非英语 内容方面的投资不足,这是有据可查的。30
_____________________________
20https://www.washingtonpost.com/technology/2023/05/22/pentagon-explosion-ai-image-hoax/
21 https://www.business-humanrights.org/en/latest-news/us-image-produced-by-generative-ai-spreads-fear-over-fake-pentagon-explosion/
22https://www.404media.co/email/d2bebba9-5808-44fc-8352-d93d1791a5ff/?ref=daily-stories-newsletter
23https://www.telegraph.co.uk/business/2024/04/16/facebooks-investigates-deepfake-nudes-taylor-swift/
24https://www.oversightboard.com/news/361856206851167-oversight-board-announces-two-new-cases-on-explicit-ai-images-of-female-public-figures/
25https://foreignpolicy.com/2024/01/23/taiwan-election-china-disinformation-influence-interference/
26https://www.codastory.com/newsletters/elections-indonesia-ai-abuse/
27https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://www.nytimes.com/2023/11/15/world/americas/argentina-election-ai-milei-massa.html&ved=2ahUKEwjFr7er-9WFAxVbSzABHck6DDIQFnoECBMQAQ&usg=AOvVaw00KHWYIb0RIfyH_Xl3BTDa
28https://www.aljazeera.com/economy/2024/4/12/before-india-election-instagram-boosts-modi-ai-images-that-violate-rules
29https://www.theguardian.com/technology/2024/apr/09/metas-nick-clegg-plays-down-ais-threat-to-global-democracy
30https://dig.watch/updates/the-consequences-of-metas-multilingual-content-moderation-strategies
随着不良行为者在操纵GaI方面变得越来越复杂, 如果没有适当的护栏, GaI的严重后果必然会增加。此外,随着不良行为者试图规避 Meta 处理错误和虚假信息的举措,操纵 GaI 的策略将随着时间的推移而演变。Meta 必须对这些新策略保持领先 ,以确保它能有效地控制错误和虚假信息。该提案要求公司每年 评估这些风险,并报告其缓解这些风险的有效性。
4. | 通过 GaI 传播的错误信息和虚假信息给 Meta 和投资者都带来了风险。 |
a. | 法律风险:如果 Meta 不能妥善缓解其平台上的错误和虚假信息, 随着 GaI 的加入,这种错误和虚假信息可能会加剧。在开发GaI之前,该公司已经因其在错误和虚假信息中的作用而面临各种诉讼。 2021年,该公司因允许 “虚假信息和仇恨 言论在其网络上蓬勃发展” 而被无国界记者组织起诉。31Meta 还因其在散布引发缅甸罗兴亚种族灭绝的错误信息和仇恨言论中所起的作用而面临两起价值超过 1500 亿美元的集体诉讼。322022年,Meta因其在放大错误信息和仇恨言论的传播中所起的作用而面临 20亿美元的集体诉讼,这些错误信息和仇恨言论助长了埃塞俄比亚的政治暴力 。33此外,许多法律专家认为,Meta 可能对自己的 技术产生的错误和虚假信息负责,因为它不太可能受到联邦法律第 230 条的保护,该条款保护社交媒体平台和 网络主机免于为发布到其网站的第三方内容承担法律责任。但是,使用 Meta 自己的 GaI 工具,内容是由公司的技术本身创建的,这使得 Meta 容易受到未来的法律审查。 |
b. | 民主风险:错误和虚假信息对社会、Meta和投资者都是危险的,因为它可以操纵公众舆论, 加剧偏见,削弱机构信任并影响选举。研究人员认为,“人工智能生成的 内容的盛行引发了人们对虚假信息传播以及对社交媒体平台和数字互动信任减弱的担忧。 传播误导性或被操纵的内容会进一步削弱公众对 社交媒体上共享信息真实性的信任,从而破坏这些平台和媒体来源的总体可信度。”34通过GaI生成和传播的 “真相” 的歪曲最终破坏了对我们民主进程的信任,这些进程是我们社会和经济稳定的基础。这在 2024 年越来越令人担忧,这一年将举行大量选举,包括美国、土耳其和乌克兰的总统 选举。35 |
_____________________________
31https://www.theguardian.com/technology/2021/mar/23/facebook-lawsuit-deceptive-practices-disinformation
32https://www.zdnet.com/article/meta-slapped-with-two-class-action-lawsuits-worth-in-excess-of-150b-for-its-role-in-rohingya-genocide/
33https://www.nbcnews.com/tech/misinformation/facebook-lawsuit-africa-content-moderation-violence-rcna61530
34https://www.techrepublic.com/article/generative-ai-impact-culture-society/
35https://en.wikipedia.org/wiki/List_of_elections_in_2024
c. | 监管风险:Meta人工智能的监管格局仍在发展中,这本身就是一种风险。第一批主要的 指导方针是由新出台的欧盟人工智能法案制定的。Meta 在这项新法规中面临一些严重的阻力,因为它威胁 一些依赖社交评分和预测监管的人工智能工具的存在,要求 Meta 识别和标记 deepfake 和 AI 生成的内容,并要求该公司进行模型评估、风险评估和缓解措施,并报告任何 AI 系统出现故障的事件 。此外,当人工智能系统造成伤害时,欧盟公民将能够向欧洲人工智能办公室报告。36男爵 指出:“《人工智能法》中包含的潜在处罚是相当可观的,包括公司在上一财政年度因违规涉及被禁止的人工智能应用程序的违规行为而占公司 全球年营业额的7%。” |
在美国,拜登行政命令仍然是一个自愿框架, 但我们可以预计,“布鲁塞尔效应” 将导致欧盟采用的标准在全球范围内得到更多采用。美国监管的最终 形式可能尚不明确,但人们普遍支持强有力的监管。最近的 皮尤调查报告 “熟悉 ChatGPT 等聊天机器人的人中有67% 表示,他们更担心 政府在监管其使用方面做得不够,而不是走得太远。”37
d. | 全经济风险:多元化 股东也面临风险,因为他们将错误和虚假信息的社会成本内在化。当公司危害社会和 经济时,多元化投资组合的价值会随着国内生产总值的增长而上升和下降。38为了保护公司的长期财务健康并确保其投资者不会 将这些成本内在化,Meta 减少错误和虚假信息,符合股东的最大利益。新成立的可信人工智能促进中心首席执行官加里·马库斯指出:“ 最大的短期风险 [生成式 AI]是故意使用大型语言工具制造错误信息,以破坏民主和 市场。” 39 |
_____________________________
36https://www.technologyreview.com/2024/03/19/1089919/the-ai-act-is-done-heres-what-will-and-wont-change/amp/?ref=everythinginmoderation.co
37https://www.pewresearch.org/short-reads/2023/11/21/what-the-data-says-about-americans-views-of-artificial-intelligence/
38 参见 普遍所有权:为什么环境外部因素对机构投资者很重要,附录 四(演示了国内生产总值与多元化投资组合之间的线性关系),网址为 https://www.unepfi.org/fileadmin/documents/universal_ownership_full.pdf; cf. https://www.advisorperspectives.com/dshort/updates/2020/11/05/market-cap-to-gdp-an-updated-look-at-the-buffett-valuation-indicator (total 市值占国内生产总值的比例 “可能是衡量任何给定时刻估值状况的最佳 单一衡量标准”)(引用沃伦·巴菲特的话)。
39https://www.techrepublic.com/article/un-ai-for-good-summit/
5. | 该提案超越了 Meta 目前的报告,它要求建立问责机制,以确保公司 有效识别和缓解错误和虚假信息风险。 |
在反对声明中,Meta 描述了其负责任的 AI 方法和治理,以混淆满足本提案要求的必要性。但是,所要求的报告要求公司 不仅仅是描述负责任的人工智能原则。我们要求对与GaI相关的 风险进行全面评估,以便公司能够有效地降低这些风险,并评估公司处理已确定的 风险的有效性。由于 GaI 的风险严重且影响广泛,因此至关重要的是,Meta 不仅要向负责任的 GaI 报告其信念和承诺 ,还要向股东透明地表明它已经完全识别了风险并正在评估 其解决风险的能力。
Meta 还在其反对声明中描述了其目前正在开发的工具 ,以帮助识别人工智能生成的错误和虚假信息。由于这些工具仍在开发中, 并且鉴于公司在内容治理方面的历史表现不佳,本提案要求承担适当的责任, 确保这些工具有效。
此外,当前的报告未满足该提案的 请求。Meta 的社区标准执行报告追踪了公司在各种内容审核政策方面的进展, 但没有专门针对错误和虚假信息评估内容审核情况。在 24 年第四季度监督委员会季度更新中,董事会 建议 Meta 提供有关错误信息的季度执法数据。该公司尚未实施该建议, “这项工作错综复杂,需要大量资源。”然而,鉴于上文概述的有关错误- 和虚假信息的严重风险,Meta 提供足够的资源以确保其有效识别和缓解错误- 和虚假信息至关重要。
结论
出于上述所有原因,我们强烈敦促您支持 该提案。我们认为,一份关于与生成式人工智能相关的错误信息和虚假信息风险的报告将有助于确保 Meta 全面缓解风险,符合股东的长期最大利益。
如需了解更多 信息,请通过 juliac@arjuna-capital.com 与 Julia Cedarholm 联系。
真诚地,
娜塔莎·兰姆
阿周那资本
这不是请求授权您为代理人投票。请 不要将您的代理卡发送给我们。Arjuna Capital无法对您的代理进行投票,本次来文也未考虑此类事件。 支持者敦促股东按照管理层代理邮件中提供的指示,投票支持代理项目6。
所表达的观点是截至参考日期作者和Arjuna Capital 的观点,并可能随时根据市场或其他条件进行更改。这些观点无意成为 对未来事件的预测或对未来结果的保证。这些观点可能不能被用作投资建议。本材料中提供的信息 不应被视为买入或卖出上述任何证券的建议。不应假设 对此类证券的投资已经或将要盈利。这篇文章仅供参考,不应将 解释为研究报告。