IT之家 11 月 23 日消息,根据美国加利福尼亚北区联邦法院最新公开的诉讼文件,Meta 被指控长期纵容、对其平台上的未成年人安全风险忽视不见。原告方提交的简报显示,Meta 内部明知数百万陌生成年人通过其平台骚扰未成年人,导致青少年心理健康问题加剧,甚至还有涉及自杀、儿童性剥削的内容却极少删除,该公司系统性隐瞒风险并掩耳盗铃拒绝整改。Instagram 前安全主管瓦伊什纳维・贾亚库马尔在证词中透露,2020 年入职时 Meta 有一项堪称离谱的规定:“涉及性交易或招嫖的账户需违规 16 次,直至第 17 次才会被封禁”,她称这一标准“远超行业任何合理阈值”;原告称该证词获内部文件佐证。超过 1800 名原告(包括未成年人及其父母、学区及州检察长)在诉讼中指控,Meta、Snapchat 和 YouTube 等大型社交媒体平台“不计后果地追求增长,无视产品对儿童身心健康的危害”。Meta 发言人辩称这一指控“断章取义误导公众”,并强调公司十年来持续推出青少年保护功能,如 2024 年推出的“Instagram 青少年账户”默认隐私设置、夜间禁用通知、限制陌生成人私信等功能。但诉讼简报揭示了多项关键指控,IT之家总结如下:1. 内容审查机制失效Meta 平台未提供简易的儿童性虐待内容举报通道,却允许用户便捷举报“垃圾信息”“知识产权侵权”等低风险违规。内部政策允许性交易账户违规 16 次而不被封禁,公司却从未向公众披露过此政策。2. 向国会隐瞒平台危害研究2019 年 Meta 内部研究发现:Facebook 和 Instagram 用户“脱坑”一周后焦虑、抑郁类情况显著缓解,但公司以“受媒体舆论干扰”为由终止研究并隐瞒该结果。2020 年 12 月,Meta 在回应国会质询时否认“少女用户增长与抑郁焦虑存在关联”,仅答“否”。3. 放任陌生人接触未成年人2019 年研究…
