美国对 Meta 的谴责

Un jurado de Nuevo México (EEUU) determinó este martes que la empresa tecnológica Meta deberá pagar 375 millones de dólares por ocultar información sobre deficiencias en sus plataformas y prácticas comerciales que facilitaban la explotación sexual infantil. [–>[–>[–> Después de siete semanas de juicio, un jurado de Santa Fe Nuevo México argumentó que Meta, propietaria […]

新墨西哥州社交媒体损害诉讼以 3.75 亿美元判决结束

周二,新墨西哥州的陪审员们超越了加利福尼亚州的陪审员,以危害儿童为由对 Meta 做出了 3.75 亿美元的赔偿判决,而洛杉矶县的类似诉讼仍在审理中。 圣达菲的陪审团在短短几个小时内就做出了决定,而洛杉矶陪审团则艰难地进行了第八天的审议,指控 Facebook 和 Instagram 的母公司故意诱骗未成年用户。 新墨西哥州律师表示:“陪审团的裁决对于每个为 Meta 选择将利润置于儿童安全之上而付出代价的儿童和家庭来说是一次历史性的胜利。”劳尔·托雷兹 (Raúl Torrez) 将军于 2023 年提起诉讼,指控社交媒体巨头的平台“让恋童癖者和掠夺者能够对儿童进行性剥削”。 托雷兹补充道:“陪审团命令 Meta 支付的巨额赔偿应该向大型科技公司高管发出一个明确的信息,即没有一家公司可以逃脱法律的制裁。” 梅塔发誓要对这一决定提出上诉。 梅塔在周二的声明中表示:“我们谨表示不同意这一判决,并将上诉。” “我们努力确保人们在我们平台上的安全,并清楚识别和删除不良行为者或有害内容的挑战。我们将继续积极捍卫自己,并对我们保护在线青少年的记录充满信心。” 新墨西哥州的诉讼只是进入陪审团的第二起此类诉讼,该诉讼是在加州审判于 1 月 27 日在洛杉矶高等法院开庭后大约一周开始的。许多相同的专家证人在这两项审判中作证,试图表明 Meta 知道年幼的孩子使用其产品,并且其产品的设计方式会让这些儿童受到伤害。 加州案件的争议点在于 Instagram 和共同被告 YouTube 是否旨在让孩子上瘾,以及这些公司是否未能警告家庭这些危险。 圣达菲陪审团仅审议了 7 个小时就做出了判决——这只是该州要求的 20 亿美元的一小部分。 与此同时,洛杉矶的陪审员已向法院提出问题,表明他们正在就一名被告的损害赔偿问题做出决定,并可能在另一名被告的责任问题上陷入僵局。 悲伤的父母在法庭走廊里扎营了一个多星期,听到加州的判决,他们在直播中观看新墨西哥州的判决时欢呼雀跃。他们和其他人希望这些早期决定能够颠覆社交媒体巨头对待儿童安全的方式,并重写其最小用户的参与规则。 2026-03-24 22:38:00 1774394786

具有里程碑意义的 Meta 和谷歌成瘾试验陪审团难以达成共识

洛杉矶社交媒体成瘾审判的陪审团周一告诉法官,他们很难与一名被告达成共识。 被告是谷歌和Meta,但陪审团没有具体说明具体指的是哪一家。 法官卡罗琳·B·库尔(Carolyn B. Kuhl)表示,如果可以的话,陪审团应该做出裁决,并补充说,如果不能达成协议,则必须由新的陪审员组重新审理此案。 Meta 首席执行官马克·扎克伯格上个月作证。 盖蒂图片社 陪审团在一项审判中审议了一个多星期,该审判涉及一名年轻女性,她说自己年轻时就沉迷于谷歌的 YouTube 和 Meta 的 Instagram。 法新社通过盖蒂图片社 陪审团在一项审判中审议了一个多星期,该审判涉及一名年轻女性,她说自己年轻时就沉迷于谷歌的 YouTube 和 Meta 的 Instagram。 她的案件的结果可能会影响家长、总检察长和学区针对科技公司提起的数千起类似案件。

Signal 的创建者正在帮助加密 Meta AI

莫克西·马林斯派克 隐私倡导者创建了安全通信应用程序 Signal 及其广泛使用的开源加密协议, 说 本周,他的专注于隐私的人工智能平台, 授予,将开始将其技术整合到 Meta 的人工智能系统中。 每天,通过 Signal、Meta 的 WhatsApp 和 Apple 的 Messages 发送的数十亿条聊天消息都受到端到端加密的保护。该功能使科技公司和除发送者和接收者之外的任何人都无法窥探您的消息,该功能在过去十年中已成为主流。然而,随着生成式人工智能平台的爆炸性普及,人们现在每天也与不提供端到端加密保护的人工智能聊天机器人交换数十亿条消息,这使得人工智能公司可以轻松访问你所谈论的内容。 这是设计使然,因为平台通常希望在尽可能多的用户数据上训练其人工智能模型,并且很难选择不将您的信息用作训练数据。但随着聊天机器人和人工智能代理的能力变得越来越强大,一些技术人员和公司正在推动创建更加受限和注重隐私的系统。 “随着法学硕士继续能够做更多的事情,我们应该期望更多的数据流入他们,”马林斯派克在一份报告中写道 简短的博客文章 关于他与 Meta 的合作于周二发表。 “目前,这些数据都不是私有的。它们与人工智能公司、其员工、黑客、传票和政府共享。与未加密数据的情况一样,它最终将不可避免地落入坏人之手。” Marlinspike 写道,他将“努力整合 Confer 的隐私技术,使其成为 Meta AI 的基础。”他还强调,Confer, 首次亮相 今年年初,将继续独立于 Meta 运营。 Marlinspike 补充说,该项目的目标是提供一种技术,“让每个人都能获得人工智能的全部力量以及加密对话的完全隐私。” 2016 年,Marlinspike 与 Meta 旗下的 WhatsApp 合作,同时向超过 10 亿个账户推出端到端加密。去年,WhatsApp 在其应用程序中引入了 Meta AI 聊天机器人,该机器人不像个人聊天那样不受公司的影响。 WhatsApp 负责人 Will Cathcart […]

法官介入,谷歌和 Meta 审判出现惊人转折

一场轰动一时的社交媒体成瘾审判的陪审员们正在努力达成一致的决定——这引发了人们对这起可能在硅谷掀起轩然大波的案件进行全面重做的担忧。 该委员会正在权衡针对科技巨头谷歌和 Meta 的索赔,但陪审员没有透露是哪家公司造成了僵局。 法官卡罗琳·库尔 (Carolyn B. Kuhl) 敦促他们继续努力。 原告“KGM”(中)于 2026 年 2 月 26 日抵达洛杉矶高等法院。 Getty Images 她表示,如果可以的话,陪审团应该做出裁决,并警告说,如果不能达成协议,则必须由新的陪审员组重新审理此案。 高风险小组已经在备受关注的洛杉矶审判中审议了一个多星期,该审判可能会影响全国各地家长、总检察长和学区提起的数千起类似诉讼。 原告安妮·麦克格拉斯(右)和洛里·肖特(右二)手举已故孩子的照片,乔安·博加德在社交媒体审判期间在洛杉矶高等法院外发表讲话。乔安·博加德在一次流行的网络挑战中失去了 15 岁的儿子梅森。法新社通过盖蒂图片社 该案的核心人物是一名现年 20 岁的女性,她的名字仅是 KGM,她声称自己小时候就沉迷于 YouTube 和 Instagram,并带来了毁灭性的后果。 2 月底,她出庭作证,描绘了一幅被屏幕吞噬的童年的悲惨画面,她告诉陪审员,她从 6 岁起就开始使用社交媒体,并很快对社交媒体产生了依赖。 她的律师辩称,毒瘾加剧了多年的焦虑、抑郁和身体畸形。 “我会感到非常沮丧和悲伤,感觉自己不值得,”她作证说,描述了未能获得点赞、评论或订阅者的帖子带来的毁灭性打击。 Meta 首席执行官马克·扎克伯格于 2026 年 2 月 18 日星期三抵达洛杉矶,接受具有里程碑意义的审判。美联社 证词的情感如此强烈,以至于有人看到一名女候补陪审员在法庭上擦眼泪。 Meta 首席执行官马克·扎克伯格 (Mark Zuckerberg) 二月份承认,在 Instagram 上实施年龄限制很困难。 原告 Kaley 总经理的律师马克·拉尼尔 […]

加州考虑限制儿童社交媒体

Meta、YouTube 和 Snapchat 已经因其给年轻人带来的风险而受到密切关注。现在他们在家乡面临着另一个障碍。 加州立法者正在考虑立法限制青少年和 16 岁以下儿童使用社交媒体。议员乔什·洛文塔尔(D-Long Beach)和其他人提出了一项两党法案,禁止社交媒体平台允许 16 岁以下的用户创建或维护帐户。 这项立法出台之际,人们越来越担心社交网络如何影响年轻人的心理健康。随着平台和人工智能聊天机器人与人们的日常生活越来越紧密地交织在一起,家长和立法者的焦虑加剧。 上个月,包括 Meta 首席执行官兼联合创始人马克·扎克伯格在内的科技高管在洛杉矶举行的一场具有里程碑意义的审判中就一项指控社交媒体令人上瘾并伤害儿童的诉讼作证。 该审判的重点是 Meta 旗下的 Instagram 和 YouTube 等科技公司是否因涉嫌推广有害产品并让用户沉迷于其平台而承担责任。 加州此前曾通过旨在提高社交媒体平台和聊天机器人安全性的立法,但遭到科技行业团体的抵制,这些团体已提起诉讼,要求阻止新法律生效。科技公司的回应是针对年轻用户发布更多家长控制和限制。 其他国家一直在推进对社交媒体的限制。去年,澳大利亚禁止 16 岁以下儿童拥有社交媒体账户。 TechNet 的成员包括 Meta 和谷歌,该公司在一份声明中表示,尚未对加州法案表明立场,但不认为禁令将有效实现立法机构的目标。 “我们支持平衡、基于证据的解决方案,加强对年轻人的保护,为家长提供有意义的工具,并确保跨平台的问责制。我们的公司在青少年安全和家长控制方面进行了大量投资,我们仍然致力于在这一进展的基础上再接再厉,”加州和西南部 TechNet 执行董事 Robert Boykin 在一份声明中表示。 年轻人对社交媒体的使用让科技高管产生了分歧。 Pinterest 首席执行官 Bill Ready 在一篇专栏文章中写道 时间 周五发布的一份报告称,如果科技公司不优先考虑安全,各国政府应效仿澳大利亚的做法,禁止 16 岁以下儿童使用社交媒体。 他说:“社交媒体目前的配置对于 16 岁以下的年轻人来说并不安全。相反,它的设计目的是最大限度地延长观看时间,让孩子们紧盯着屏幕而不顾他们的健康。” 洛文塔尔的法案列举了社交媒体的危险,例如“接触有害内容、强迫性使用模式、剥削以及对心理健康和福祉的不利影响”。 “现有的基于年龄的限制主要依赖于用户自我证明,但事实证明是无效的,并且给儿童和家庭带来了不合理的负担,而不是给设计、运营社交媒体平台并从中获利的实体带来了不合理的负担。” 账单 州。 洛文塔尔的发言人没有立即回应置评请求。

Instagram 用户敦促在该功能消失之前保存加密的私信

图片:Solen Feyissa(Unsplash) 在私信中选择额外隐私的 Instagram 用户可能希望开始保存这些对话。 Meta 计划从 2026 年 5 月 8 日开始关闭 Instagram 直接消息的端到端加密消息传递。该公司表示,在该功能消失之前,进行加密对话的用户将收到有关如何下载消息和媒体的应用内说明。 此举删除了一个可选的安全层,该安全层允许 Instagram 用户发送消息和拨打电话,只有对话参与者才能阅读或听到。 虽然该功能是作为 Meta 推动私人消息传递的一部分而推出的,但该公司现在表示,采用率一直受到限制。这一变化凸显了主要社交平台上隐私保护和安全监管之间持续存在的紧张关系。 Meta 指出加密 DM 的使用率较低 Meta 确认了这一决定 Instagram 帮助文档 以及向媒体发表的声明。 该公司在其官方文件中表示:“2026 年 5 月 8 日之后,Instagram 将不再支持端到端加密消息传递。” 该公司补充说,受影响的用户将在应用程序内收到说明,解释如何在该功能消失之前下载他们想要保留的消息和媒体。 Meta 在文件中表示:“如果您的聊天受到此更改的影响,您将看到有关如何下载您可能想要保留的任何媒体或消息的说明。” 在给 The Verge 的一份声明中Meta 发言人 Dina El-Kassaby Luce 表示,该应用程序正在断开该功能,因为“很少有人”在他们的 DM 中使用 E2EE。 “任何想要通过端到端加密保持消息传递的人都可以在 WhatsApp 上轻松做到这一点,”El-Kassaby […]

Meta 通过将 AI 集成到 Instagram 和 Facebook 中,彻底改变了对不当内容的控制

元 已宣布推出 支持助理 人工智能(AI)在 脸书和Instagram,改进了系统 应用内容标准。 Facebook 和 Instagram 的所有者多年来一直在使用人工智能 检测垃圾邮件 以及在其网络上滥用职权的出版物,并且还聘请了 人类主持人 像这样的公司 埃森哲公司 审查并删除不适当的帖子。 为了实施更有效的人工智能,这家社交媒体巨头已开始测试 更先进的工具,基于大语言模型,过滤出版物并确保其内容符合标准。这些进步 它们促进了控制。 现在, 整合Meta的AI 在他们的社交网络上 现在可以让您检测诈骗, 识别冒充名人的人并检测成人的性诱惑等。该公司在其博客上宣布其新系统“获得 持续取得更好的结果 比我们当前的内容控制方法。 全天24小时支持 事实上,新的集成提供了“可靠的 24/7 支持”,并且可以“响应者 通常要求 不到五秒”,帮助用户重置密码、管理设置和报告诈骗。Meta 补充说,其先进的人工智能可以“发现更多违规行为 更准确”,同时减少审核错误。 它不会导致人工审核员被解雇 据彭博社报道,Meta 长期以来一直依赖于 数千名外部承包商 对于内容审核,审阅者是人类。结果,这些人接触到了一些 黑暗且令人不安的图像和视频 来自互联网。 最后,梅塔说,现在“这些系统将能够承担更适合技术的任务”,并补充说 过渡将需要数年时间 并且那 人们将继续参与 在最复杂的决策中。自从引入 AI 代理来帮助调度以来,Meta 的生产力提高了 30%。 1773968929 #Meta #通过将 #集成到 #Instagram […]

“恐怖谷”:英伟达的“人工智能超级碗”、特斯拉令人失望,以及 Meta 的 VR Metaverse“关闭”

本周于 恐怖谷节目中,主持人布莱恩·巴雷特 (Brian Barrett) 和佐伊·希弗 (Zoë Schiffer) 讨论了 Nvidia 年度开发者大会的亮点,以及为什么特斯拉最近在网上与一些最忠实的粉丝发生了麻烦。此外,Meta 最初决定关闭 Quest 耳机上的 Horizo​​n Worlds VR,这标志着 Metaverse 梦想的终结。 (Meta 已经收回了这一点,表示将在“可预见的未来”为该平台提供有限的支持。) 本期提到的文章: 您可以在 Bluesky 上关注 Brian Barrett: @brbarrett 和 Zoë Schiffer 在 Bluesky 的节目 @zoeschiffer。写信给我们: [email protected]。 如何聆听 您始终可以通过此页面上的音频播放器收听本周的播客,但如果您想免费订阅以获取每一集,请按以下步骤操作: 如果您使用的是 iPhone 或 iPad,请打开名为“播客”的应用程序,或者只需点按 这个链接。您还可以下载 Overcast 或 Pocket Casts 等应用程序,然后搜索“Uncanny Valley”。我们在 Spotify 也。 成绩单 注意:这是一个自动记录,可能包含错误。 佐伊·希弗: 布莱恩,你好。当我不再每五秒在 Slack […]

界面设计作为Meta平台治理的补救条件

当程序保障存在于纸面上但在实践中却看不见时,它们几乎无法提供有意义的保护。正式的制度设计和实际的用户体验之间的差距在社交媒体平台如何传达内容审核决策方面最为明显。所涉及的保证不仅仅是愿望。它们源自一个新兴的国际人权标准——《联合国工商业与人权指导原则》——尽管该原则在国际法上不具有约束力,但已被正式纳入其中。 通过 Meta 作为管理其自身人权承诺的框架。根据这些原则,企业不仅承担避免伤害的消极义务,而且还承担积极主动的义务,以确保受影响的用户能够有效地识别、获取和行使可用的补救措施。 考虑这种情况。 Vipashyana 是印度的一名(虚构的)执业律师,习惯​​于在分层程序系统中工作——提出投诉、跟踪机构回应,并在必要时援引上诉补救措施。她在 Instagram 上发现了似乎构成公然仇恨言论的内容,她认为这些内容违反了 Meta 自己的社区标准和适用的印度国内法律。她本着职业本能和公民责任,通过平台指定机制进行举报。 一段时间后,Meta 向 Vipash 发送通知。它嵌入在例行警报中,视觉上模糊不清,显眼程度适中,并且所使用的语言不会立即透露它是否包含对报告状态的实质性确定(尽管确实如此)。没有明确的线索表明,如果 Vipash 不同意最初的报告决定,她可能会要求进一步审查。除了第一次审查之外,还没有明确表明存在额外的、更独立的论坛。由于情况不明,维帕什认为此事已经结束。 这里值得注意的是,即使是习惯于机构审查的老练的行为者也可能无法意识到进一步追索的可用性,而这种追索的信号没有得到充分的体现。潜在治疗行动的正式架构保持不变;而通往该行动的体验途径则不然。 Meta 系统中设计与发现之间的差距 今天印度在数字治理领域正在发生的事情与这种情况有着令人不安的相似之处。从理论上讲,Meta 制定了行业最高标准 自我调节,有一个复杂的、分层的、结构正式的系统,类似于司法正当程序。其架构正式运行分三个阶段:1)用户可以举报有害内容; 2)他们可以要求对平台的决定进行审查; 3) 他们可以向独立的元监督委员会提出上诉,该委员会审查内容审核决定并针对个别案例发布具有内部约束力的决定。 这种“正当程序”模式与宪政民主国家所熟悉的司法等级制度相呼应。在全球政策讨论中,监督委员会甚至被 描述的 作为内容审核的“最高法院”,并被称为社交媒体平台的规范制定者。 然而,在实践中, 民意调查 在印度进行的关于用户对 Meta 内容审核框架的认识的调查揭示了制度设计与用户生活体验之间的显着脱节。使用过 Meta 报告机制的受访者对后续程序选择知之甚少。报告内容的很大一部分用户要么无法清楚地识别有关其报告结果的通知,要么不知道他们可以要求对 Meta 的决定进行进一步审查。超过一半的受访者从未听说过监督委员会,而在经历过报告流程的受访者中,对被拒绝审查升级的可能性知之甚少。 Meta 通过 Instagram 心形通知图标上的小红点来指示报告状态的任何更新,这种设计选择使它们在视觉上与“喜欢”和“关注”等常规警报没有区别。这种设计选择并不是中立的。在人机交互学术中,在放大参与驱动信号的同时模糊或取消优先级信息的界面决策越来越被描述为“深色图案“——以颠覆知情选择的方式操纵用户注意力的设计架构。通过使如此重要的裁决更新变得不那么明显,该平台淡化了审核结果的程序意义,人们没有“充分”获悉已根据他们的报告做出决定。 如果单击小红点,此后的决定将显示在通用标签“支持请求”下。它没有明确表明它包含报告的结果(根据他们的社区标准),也没有表明可以行使进一步的审查或上诉选项。因此,用户不太可能将通知视为需要关注的正式裁决结果。正式存在的三步流程在体验上被扁平化为例行通知流。在消费者保护方面 教义,损害知情决策的不透明度本身可能构成不公平的设计。这里的界面不仅作为中立的渠道,而且作为获得补救的结构化条件——这一点在社交媒体上受到了关注 奖学金。其结果是一个尴尬的悖论:一个复杂的救济系统在形式上存在,但对于许多试图使用它的人来说,在功能上仍然难以接近。 要理解这种设计的重要性,必须从首要原则开始。奖学金由来已久 杰出的 之间 法律合法性——决策仅符合既定规则和流程——以及 社会学的 或者 道德合法性,这取决于受影响的行为者是否能够有意义地感知、参与和接受管理他们的流程。任何提供权利(或声称提供权利)的机构不应仅仅满足于程序的正式存在;合法性取决于决策过程是否透明、参与性和可体验性。一项仅作为内部结构而存在,但无法在实践中被发现、理解或行使的权利,可能满足法律形式的要求,但不具备社会学和道德的合法性。在这种情况下,机构权威可能会显得孤立而不是负责任。 让权利可见的企业责任 社交媒体平台已成为一系列国际公认权利可能被行使和侵犯的场所。网上有害内容的传播可能涉及尊严权、平等权和不受歧视的权利,特别是当言论针对基于宗教、种姓、性别或受适用的特定法律框架(特别是某些国内法律框架)保护的其他特征的个人或社区时。与此同时,平台删除、限制或降低内容优先级的决定可能会涉及《公民权利和政治权利国际公约》第十九条所承认的言论自由的反补贴保障。因此,内容审核可以在相互竞争的权利主张范围内展开。而在这种复杂的情况下,平台治理的合法性不能仅仅依赖于审核结果的实质性正确性。它还必须依赖于受影响的用户可以识别、质疑和寻求对这些结果进行审查的程序的可用性。正是在这一框架内,获得补救的问题以及在何种条件下才有意义地获得这种补救的问题显得尤为重要。 《联合国工商业与人权指导原则》的指导原则 […]