2026年3月30日,澳大利亚监管机构正式对包括 TikTok、Meta 及 YouTube 在内的五家科技平台展开调查,重点审查这类平台是否落实了针对16岁以下未成年人使用社交媒体的限制措施。这是澳洲电子安全委员办公室((eSafety Commissioner)迄今为止所发出的最强烈讯息,代表澳洲政府首次公开评估社群平台的法律遵守情况。

本轮调查中,TikTok作为涉案的中国企业,由字节跳动运营,是当前全球用户规模最大的短视频平台之一,其在青少年用户保护和算法推荐方面长期受到各国监管关注。
此次行动源于澳大利亚在2024年通过的《网络安全修正案(社交媒体最低年龄)》,该法案于2025年12月正式实施。法律要求平台采取“合理措施”阻止未满16岁的用户注册或继续使用账号,否则可能面临最高达4950万澳元(约合3400万美元)的罚款。
依据该法案,监管机构重点关注平台在年龄验证机制、内容推荐控制及用户保护措施方面的落实情况。报道指出,监管方已对多家企业发出信息披露要求,调查其是否存在规避监管或执行不力的情形。
从监管机构公布的初步调查情况来看,平台的实际执行与法律预期之间存在明显落差。监管报告指出,一些平台允许用户反复尝试年龄验证直至“通过”,或者在账号被封禁后仍可轻易重新注册;部分平台甚至未建立有效的家长举报机制。更关键的是,尽管已有数百万未成年账户被清理,调查仍发现有相当比例的青少年通过虚假信息继续使用平台,这使得法案的实际效果大打折扣。
澳大利亚电子安全专员朱莉·英曼·格兰特(Julie Inman Grant)表示:“虽然社交媒体平台已经采取了一些初步措施,但通过我们的合规监督,我担心有些平台可能并未充分履行遵守澳大利亚法律的义务。”澳大利亚政府层面也强调,平台如欲继续在澳大利亚运营,必须严格遵守本地法律,而非依赖行业惯常的最低限度合规。
本次调查本质上是澳大利亚在未成年人保护领域对平台责任边界的一次前置性执法测试,其法律基础来自刚刚实行的未成年人社交媒体限制制度。从监管逻辑看,核心不在于个案违规,而在于要求平台建立“可验证的合规体系”,包括真实年龄识别、算法降风险设计以及持续性审计机制。这意味着平台责任正在从“事后删除”转向“事前预防”。
此外,澳大利亚颁布针对未成年人使用社媒平台的法案并非孤例,英国议会近期已讨论引入类似禁令,美国多州、马来西亚、法国、印度尼西亚等也在推动未成年人网络保护立法。虽然目前尚不存在统一的国际条约直接规制社交媒体平台责任,但以《儿童权利公约》(Convention on the Rights of the Child)为代表的国际规范,正在被各国转化为更具操作性的国内监管规则。
这启示中国企业,真正的挑战不在于应对单一国家规则,而在于能否建立一套在不同法域下均具可验证性的合规体系,否则类似调查可能会成为常态。