对话上海市政协常委方建安:AI生成内容冲击学术生态,高校不能只靠“堵”

2026-04-06 03:29:50

3月28日,上海杨浦V聚场,“清朗浦江·2026”网络生态治理旬开放日活动在此举行。台下听众中,有一位身份特殊的参与者——上海市政协常委,东华大学图书馆馆长、知识产权信息服务中心主任方建安。

作为知识产权信息服务领域的专家,方建安对去年9月起施行的《人工智能生成合成内容标识办法》及配套强制性国家标准很是关注。这项旨在让AI内容“源头可追溯、传播可核验”的政策,在他看来,成效与挑战并存:头部、主流平台的合规率大幅攀升,但长尾应用中的“标识隐形”、恶意“去水印”软件泛滥,让监管的“最后一公里”尚未完全打通。而作为高校图书馆的“守门人”,他更深的关切在于:当AI生成的论文初稿、实验图像甚至参考文献开始涌入学术殿堂,高校究竟该如何守住诚信的防线?

开放日当天,方建安就这些问题接受了澎湃新闻(www.thepaper.cn)的专访。

标识监管的“最后一公里”尚未完全打通

澎湃新闻:2025年9月1日,《人工智能生成合成内容标识办法》及配套强制性国家标准正式施行,至今已半年有余。从您的角度观察,这项政策在实际落地中效果如何?您认为标识制度是否达到了预期的“源头可追溯、传播可核验”目标?

方建安:《人工智能生成合成内容标识办法》施行半年多来,成效是显著的,初步构建起了我国AI内容治理的“四梁八柱”。

首先,“源头可追溯”的技术底座已经基本夯实。从行业协会组织的覆盖全国9省市、700余家企业的宣贯活动,到头部企业贡献的文本、图像、视频等模态的元数据标识实践指南,行业已形成了较为统一的技术共识。我注意到,像中国软件评测中心近期的测评也显示,主流多模态大模型在文生图和文生视频场景的完全合规率已达到80%-90%左右,这说明强制性国家标准确实起到了立竿见影的规范作用。

其次,“传播可核验”的显式标识让用户感知度明显提升。现在大家在社交媒体上刷到AI生成的图片或视频时,通常能在角落看到“XXAI生成”的水印,或者听到语音提示,这大大增强了公众对AI内容的辨识能力。

然而,要说完全达到“源头可追溯、传播可核验”的终极目标,我们还有一段路要走。目前的成效主要体现在“头部”和“主流”,但在更广阔的互联网空间,尤其是长尾应用中,监管的“最后一公里”尚未完全打通。

部分标识沦为应付检查的“马奇诺防线”

澎湃新闻:在您的调研和观察中,标识制度实施过程中遇到了哪些具体困难?比如,有用户反映部分平台的AI生成内容标识“字体过小、颜色对比度低、位置边缘化”,导致普通用户难以辨识。您如何看待这些执行层面的问题?这是否削弱了标识政策的初衷?

方建安:在调研中,我确实发现了执行层面的“温差”,这些问题如果处理不好,可能会架空政策的良好初衷。

第一个困难是技术上的“猫鼠游戏”。目前的标识制度主要依赖技术手段,但技术对抗始终存在。比如《法治日报》近期的调查就揭示了一个严峻现实:市面上存在大量“去水印”软件,只需几块钱,就能轻松抹去AI生成内容的水印;甚至有AI软件将“去水印”作为高级会员的付费功能。一旦隐式元数据被剥离、显式水印被清除,内容就像脱缰的野马,溯源链条就此断裂。

第二个困难是您提到的“视觉隐形”问题。部分平台为了用户体验,将标识做得“字体过小、颜色对比度低、位置边缘化”,这在本质上是一种“合规性敷衍”。虽然形式上满足了“有标识”的要求,但实际并未起到“提醒用户辨别”的作用,反而让标识沦为了应付检查的“马奇诺防线”。这确实在一定程度上削弱了标识政策的初衷——保障公众知情权。

澎湃新闻:您作为知识产权信息服务领域的专家,如何看待“数字标识”与“知识产权保护”之间的关系?《标识办法》要求服务提供者在生成合成内容的文件元数据中添加隐式标识,这为知识产权溯源提供了技术可能。在您看来,这一机制未来能否延伸用于更广泛的知识产权保护场景?

方建安:在我看来,“数字标识”与“知识产权保护”之间存在着从“源头可溯”到“价值可护”的递进关系。

《标识办法》要求的隐式标识,本质上是在解决“身份认证”问题。它在元数据中嵌入了内容的生成者、生成时间等关键信息,为后续的权利主张提供了“出生证明”。这在知识产权领域意义重大——过去我们面对AI生成内容侵权时,往往连“作者是谁”都难以确定,现在有了合规的隐式标识,权利主体更加明确。

这一机制未来完全可以延伸用于更广泛的知识产权保护场景。比如,我们可以借鉴“量子云码”或“纸纹技术”的思路,将这种数字标识与物理载体或商业应用深度绑定。在高校的知识产权信息服务中,我们经常处理专利、软件著作权、科研数据的流转问题。如果未来能建立一套基于元数据标识的“数字对象标识符”体系,让每一份科研数据、每一个AI训练模型、甚至每一个高价值专利文件都自带不可篡改的权属标识,那么知识产权溯源、交易、维权都将变得有据可依。这不仅能解决AI内容的版权困境,更有望构建起数字时代知识产权保护的新型基础设施。

应对AI生成内容,高校不能仅靠“堵”

澎湃新闻:从高校图书馆馆长的视角看,AI生成内容正在改变学术创作、信息传播的方式。在您的日常工作中,是否观察到AI生成内容对学术诚信、信息真实性的冲击?高校应该如何应对这一挑战?

方建安:作为图书馆馆长,我深切感受到AI对学术生态的冲击是根本性的。目前我们观察到的主要挑战集中在学术诚信的模糊地带和信息真实性的甄别难度上。

在学术创作中,学生甚至部分研究者开始利用AI生成论文初稿、实验数据甚至参考文献。更隐蔽的是,像“AI生成图像替代实验图像”“AI润色导致文本原创性模糊”等问题,正在挑战传统的学术不端检测体系。

面对这些挑战,高校不能仅靠“堵”,更要靠“疏”和“立”。

第一,建立“强制披露”与“划定红线”并重的制度。一方面,学校应该出台相关的规定,要求学生在论文中必须声明AI工具的使用情况,并明确禁止将AI列为共同作者、禁止直接生成核心结论等“红线”。另一方面,我们图书馆作为学术规范服务的核心部门,应该主动牵头构建包含内容评估、伦理安全、法律版权在内的学术规范资源体系。

第二,将AI素养纳入信息素养教育的核心。我们图书馆正在从传统的“文献检索”教育转向“人机协作”能力培养,旨在教会学生的不仅是“如何用AI查资料”,更是“如何辨别AI信息的真伪”“如何在合规的前提下利用AI辅助创新”。这本质上是重塑数字时代的信任机制。

第三,依托知识产权信息服务中心,提供技术核验支持。我们正在探索引入AI生成内容检测工具,为导师和评审专家提供技术支持,帮助他们在论文评审中识别可能存在问题的AI生成内容,守住学术诚信的最后一道防线。