当AI生成内容无处不在,我们如何看清真相?
AI生成的文案、图片、音频甚至视频,如今已频繁出现在社交平台、新闻页面和我们的日常聊天中。技术在带来便利与创意的同时,也带来真假难辨的信息混杂与信任危机。据中国互联网络信息中心统计,截至2024年12月,国内已有 2.49亿人使用过生成式人工智能产品。然而,虚假新闻、网络诈骗、“AI换脸”等安全事件也随之激增。自2025年9月1日起,《人工智能生成合成内容标识办法》(以下简称《办法》)正式施行,首次以部门规章的形式对 AI生成内容提出统一的标识要求。在这一背景下,我们开展了一项针对AI生成内容标识落地的调研,尝试从责任分配标识分级与平台管理三个维度,探讨如何构建更加清晰、可行的治理机制。
责任谁来负?从“控制能力”和“收益程度”入手
《办法》虽然提出“谁提供谁负责”,但现实中AI内容生成链条复杂,技术提供者、服务提供者以及传播者往往分离,法律责任应如何具体划分?
调研发现,单纯按主体类型划分责任并不合理更应依据实际“控制能力”与“收益程度”进行判断。例如,某些AI绘画小程序不仅提供生成服务,还能对输出结果进行筛选和编辑--这类服务提供者由于对内容具有较强控制力且直接面向用户收费,应当承担主要标识责任。相反,若技术提供者仅提供标准化 API接口、未参与具体内容生成,则责任应相对有限。这一思路也呼应了法学中的“红旗原则”:即当侵权或造假内容已显而易见如“红旗”,任何相关主体均不应回避自身责任。
如何科学标识?建立分级体系,告别“一刀切”
是不是所有 AI生成内容都该打上同一标签?答案是否定的。AI写的一首诗和一条仿冒名人声纹的诈骗语音,风险完全不同,标识也理应釋飭讦擠籮贐绻所差异。
充分调研后,我们提出了“一基双规”的判定框架,作为落实《办法》中“防止公众混淆或误认”的具体路径:“一基”指以“使用深度合成技术”作为判断前提;而“双规”则包括“内容敏感性”和“人机贡献比例”。基于此,我们可以将AI生成内容划分为多个风险等级。例如换脸视频、仿冒音频这类涉及个人生物特征的内容属于“最高敏感级”,必须强制显性标识;而文学创作和艺术设计等低风险内容可采用隐性标识或不标识。
其中,特别值得关注的是“人机协作”这类模糊地带。比如一篇文章中AI贡献超过70%,就应标明“AI生成为主,人类辅助”;如果AI参与度约50%,可标识为“人机协作创作”;至于仅使用 AI进行润色或修改(参与度30%以下)则可采用隐性标识或部分豁免。这一精细化的分类方式,既呼应了法律中的“比例原则”,也体现了治理手段与风险水平相适应的理念
平台不能缺席:“权责一致”实现治理闭环
《办法》另一重要突破,是将传播平台明确列为“把关人”,要求其承担标识审核与提示义务,从而填补了以往“重生成、轻传播”的监管空白。
根据我们的调研发现,目前各大平台已形成不同的管理风格。例如抖音采用“水印+元数据”双重标识,未标识的内容会由平台补充“疑似 AI生成”的提示;微博则依靠算法识别加用户投诉的双通道机制,还专门设立了“未添加AI标识”投诉分类;而B站、知乎等平台更倾向于社区自治,鼓励Up主和答主主动声明 AI使用情况。这些多元化的实践无一例外地体现出“权责一致”的内在逻辑:平台既然享有内容传播带来的流量与收益,就必须承担相应的管理责任。理想的治理模式应当结合技术检测、人工审核和堎部行户监督,构建多方参与的管理闭环。
结语:以标识为起点,走向更负责的AI时代
标识不只是技术动作,更是责任宣言。只有当每段AI内容自带说明书,我们才能更安心的拥抱智能时代的便利和精彩。《办法》的出台为 A1生成内容治理奠定了制度基础,而真正落地仍面临责任如何厘清、标识如何分级、平台如何履职等一系列现实问题。技术的未来离不开规则的守护。只有当每一段AI生成内容都带有真实、清晰的“说明书”,我们才能在拥抱智能时代的同时,不致迷失于虚拟和真实之间。
社会实践报告推荐