政策动向
9月起施行!国家网信办发布AI生成合成内容标识办法
为了规范人工智能生成合成内容的标识,保护公民、法人和其他组织的合法权益,国家互联网信息办公室等四部门联合制定了《人工智能生成合成内容标识办法》。该办法将于2025年9月1日起施行。
根据办法,人工智能生成合成内容包括文本、图片、音频、视频和虚拟场景等信息,其标识分为显式标识和隐式标识。显式标识通过文字、声音或图形等方式让用户明显感知到内容为AI生成;隐式标识则通过技术手段嵌入文件数据中,不易被用户察觉。
服务提供者需在特定情况下对生成合成内容添加显式标识,例如在文本、音频、图片或视频的适当位置添加提示标识。同时,文件元数据中应包含隐式标识,记录生成合成内容的属性和服务提供者信息。
纽约州拟推 AI 情感伴侣法案,强化用户告知与危机处理规范
2025 年 3 月 13 日,纽约州众议院提交第 6767 号法案,旨在修订《一般商业法》中人工智能伴侣模型相关内容,并提交至众议院消费者事务和保护委员会审议。
该法案对 “人工智能陪伴系统”“经营者”“情感识别算法” 等关键术语予以明确界定。“人工智能陪伴系统” 利用人工智能等技术模拟人类社交互动,且排除商业实体用于提供产品服务信息的系统。“经营者” 涵盖经营或提供 AI 伴侣的各类主体,“情感识别算法” 则通过多种方式检测和解释人类情感信号。
在运营规范方面,法案规定,若 AI 伴侣系统未提供危机处理协议条款,运营商向用户提供服务属违法,需处理用户表达的自杀意念、对他人的人身伤害及经济损失等问题,并及时通知用户联系危机服务机构。同时,运营者需在交互开始及之后每 3 小时,以语音或至少 16 磅粗体大写字母告知用户:“该人工智能陪伴系统(或具体名称)是计算机程序,并非人类,无法感受人类情感”。
违反相关规定导致用户自残、遭受他人身体或经济伤害的,用户可向法院起诉,要求赔偿损失、获得公平救济等。此外,法案还明确了可分割性条款,部分条款无效不影响其余部分效力,且该法案将在成为法律 180 天后生效。这一法案的推进,凸显了纽约州在规范 AI 情感伴侣应用、保障用户权益方面的积极探索。
西班牙批准 AI 法案草案,最高罚款 3500 万欧元
2025 年 3 月 12 日,西班牙政府部长会议批准《西班牙人工智能法案》草案,旨在使本国立法与已生效的欧洲人工智能法规接轨。该草案亮点诸多:
明确违规界定:未正确标记识别 AI 生成或更改的图像、音频、视频属于严重侵权。
禁止不良行为:严禁使用潜意识技术操纵决策、利用人群脆弱性造成损害,禁止基于种族、政治等进行生物特征分类、不当评分及风险评估等行为。
严格市场管理:可暂时撤出引发严重事件的 AI 系统。违规处罚在 7.5 万至 3500 万欧元之间,或上一年全球营业额的 2% - 7%(中小企业除外)。不同违规程度对应不同罚款标准,高风险 AI 系统违规将面临重罚。
构建监管体系:形成多局共治局面,西班牙数据保护局、司法总委员会等多个机构分别负责不同领域 AI 系统监督。
推动创新发展:要求从 2026 年 8 月 2 日起,成员国建立人工智能沙盒,助力 AI 创新系统开发、测试与验证。
阿根廷发布《人工智能透明度及数据保护指南》
2025 年 2 月 27 日,阿根廷公共信息管理机构(AAIP)发布《公共和私营实体关于负责任的人工智能的透明度和保护个人数据的指南》。早在 2023 年,AAIP 就制定了相关计划,旨在推动人工智能的道德使用,加强国家在 AI 开发与监管方面的能力,保障公民的数据权利。
AI 系统属于自动决策系统,但其借助机器学习等技术具备更复杂的功能,能识别模式、理解自然语言等,与传统自动化决策系统不同。该指南针对 AI 系统设计、验证和确认、实施、运营和维护四个生命周期阶段,分别给出透明度和个人数据保护建议。
在设计阶段,需明确项目要素,遵循责任、影响评估、设计和默认保护等多项原则,采取安全措施,确保数据质量,遵循透明度和可解释性原则。验证和确认阶段,要对设计进行验证,发布道德承诺书,通过测试监控、调整安全措施、校准数据等保护数据。实施阶段,确定技术基础设施,评估用户体验,制定隐私政策,持续监控系统。运营和维护阶段,持续维护系统,发布透明度信息表,保障数据主体权利,建立沟通渠道处理用户咨询投诉。这一指南为阿根廷规范 AI 发展提供了重要依据。
日本内阁通过《人工智能相关技术的研究开发及应用推进相关法律案》
2025年2月28日,日本内阁会议确定了首部人工智能法案《人工智能相关技术的研究开发及应用推进相关法律案》。此法案标志着日本AI领域监管政策落地,其旨在以灵活监管推动AI技术创新并防控风险。法案核心内容体现“轻触式”监管与风险防控,包括政府依法对AI风险调查并给企业指导建议,若AI被滥用致虚假信息传播或侵犯人权等,政府会公开企业名称强化威慑,企业有配合国家政策的义务,且法案无法律制裁条款。法案还兼顾技术创新与风险防控,设立由首相领导的“AI战略总部”统筹政策,促进产学研合作,计划在法案实施前更新《AI企业指南》应对相关问题。
英国首相计划利用AI替代部分公务员工作
英国首相基尔・斯塔默近日提出了一项通过数字化和人工智能(AI)提升政府效率的计划。他计划用这些技术替代公务员工作中那些可标准化的任务,从而让公务员专注于更需要人类创造力和判断力的工作。斯塔默预计,这一改革将为英国政府节省超过450亿英镑的开支,并计划招募2000名技术学徒加入公务员队伍。
然而,这一提案引发了工会的担忧。高级公务员工会秘书长戴夫・彭曼指出,尽管数字化转型是大势所趋,但政府需要明确如何在资源减少的情况下提供更好的服务。工会领导人普遍欢迎技术的应用,但担心这可能导致部分公务员岗位流失。他们呼吁政府与员工及工会合作推进改革,而非使用指责的语言。
法律适用
美法院裁定 Meta 在 AI 训练中删版权标识信息属侵权
2025 年 3 月 7 日,美国加利福尼亚州北区联邦地区法院对 Kadrey v. Meta(3:23-CV-03417)人工智能预训练侵犯版权案作出动议裁定。
在该案件中,Richard Kadrey 等作者指控 Meta 利用他们的书籍训练 Llama AI 模型,侵犯知识产权,且删除书籍版权标识信息掩盖侵权行为。
法院裁定,侵犯版权指控成立,删除版权管理信息(CMI)的行为为侵权提供便利并隐瞒侵权事实,符合诉讼要求。《美国法典》第 17 卷第 1202 条规定禁止未经授权删除 CMI,原告充分指控 Meta 故意删 CMI 掩盖侵权,提出了合理推论。
不过,法官驳回了作者依据《加州综合计算机数据访问和欺诈法案》(CDAFA)的索赔,因其未指控 Meta 访问计算机或服务器,该索赔与版权法下权利无本质区别,属被优先占用情况。
法国首例!出版联盟起诉 Meta 大模型预训练数据侵权
2025 年 3 月 12 日,法国全国出版联盟(SNE)、全国作家和作曲家联盟(SNAC)以及法国文学家协会(SGDL)联合对美国科技巨头 Meta 发起诉讼。这是法国首例此类案件,诉讼在巴黎法院提起。
原告指控 Meta 未经授权,大规模使用受版权保护的内容训练其人工智能系统,尤其是语言模型 Llama,存在 “寄生” 行为。具体核心指控包括:使用受保护内容作为训练数据,属于非法训练数据行为;Meta 借此不公平获取经济利益,构成经济寄生;这一系列行为侵犯了版权,严重损害了出版商对内容的使用和分发控制权。
出版协会总代表 Maia Bensimon 将 Meta 的行为形容为 “巨大的掠夺”,并把此次诉讼比作 “大卫与歌利亚之战” ,凸显创作者与大型科技公司间的矛盾。截至目前,Meta 尚未对此指控发表官方声明。此前,美国已出现多起类似诉讼,ChatGPT 背后的 OpenAI 也曾因涉嫌版权侵权被告上法庭。此次法国的诉讼将对未获适当许可就用版权材料训练 AI 模型的科技公司产生警示作用。
产业动态
百度发布文心 4.5 与 X1 大模型,免费开放
3 月 16 日,百度发布文心 4.5 和 X1 两款大模型,现已全部上线并免费供用户使用。文心 4.5 为多模态模型,可综合解读文字、图片、视频、音频等内容,在处理新视频解读时表现出色,能力大幅超越 OpenAI 的 GPT-4o。其运用 FlashMask 动态注意力掩码、多模态异构专家扩展、时空维度表征压缩等技术,在主流基准测试中成绩优异。
X1 具备深度思考能力,支持多模态,能自动调用多种特色工具。解读电影海报时,可自动调用图片理解工具,撰写影评时还能梳理输出逻辑。它应用基于思维链和行动链的端到端训练,提升训练效果。
在价格方面,个人用户免费使用。企业开发者在百度智能云千帆大模型平台,文心 4.5 API 输入价格低至 0.004 元 / 千 tokens,输出价格低至 0.016 元 / 千 tokens ;X1 即将上线,输入价格低至 0.002 元 / 千 tokens,输出价格低至 0.008 元 / 千 tokens。此外,百度表示未来会开源文心 4.5 大模型。
OpenAI 提交提案引争议:要求封杀中国 AI 并放宽美监管
当地时间周四,OpenAI 针对美国政府即将出台的 “AI 行动计划” 提交 15 页提案。在提案中,OpenAI 强调 AI 发展要加速、放松监管,认为这对在 AI 竞赛中击败中国至关重要。
OpenAI 特别提及中国的 DeepSeek 模型,称其缩小了美国在 AI 领域的领先优势,还无端指责该模型受国家补贴、控制且威胁用户隐私安全,但事实上 DeepSeek 在用户数据收集授权方面十分克制。
同时,OpenAI 希望美国政府提供更多法律保护,认为向 AI 公司提供大量数据是确保全球 AI 领导地位的关键,还称若美国公司无法合理使用数据,AI 竞赛就已结束。目前美国 AI 企业面临各州立法监管,且法院正在审理 AI 训练是否属于 “合理使用”,OpenAI 深陷版权诉讼,希望通过政策干预避免不利裁决。
此外,OpenAI 提出出口管制战略,将世界国家分为三级,意图限制人工智能技术流向中国等三级国家,扩大一级国家市场份额,还对不同级别国家提出一系列针对性措施。特朗普 “AI 行动计划” 公众评论期将于本周六结束,OpenAI 此举引发美国网友质疑与批评。
Manus 与阿里通义千问达成战略合作,或解算力困境
3 月 11 日,Manus 团队宣布与阿里通义千问团队达成战略合作,双方将基于通义千问系列开源模型,在国产模型和算力平台上实现 Manus 全部功能,目前技术团队已展开协作。
此前,3 月 5 日晚,蝴蝶效应发布 AI 智能体 Manus 早期预览版,自称 “全球首款通用智能体产品”,能完成筛选简历、挑选房产、分析股票等复杂任务,一经发布便迅速走红,但也面临热度能否持续、是否营销过度的质疑。由于使用火爆,Manus 服务器压力剧增,其高投入模式从每天可用五次调整为仅一次。
此次合作有望缓解 Manus 的算力资源压力。AI 智能体赛道被业内看好,多家券商机构认为,Manus 加速了 Agent 落地,引发通用 Agent 想象空间,为产品化提供新思路,还带动开源社区相关创新产品涌现,有望推动 Agent 产品多元化发展。阿里通义千问方面也表示期待与更多全球 AI 创新者合作。
OpenAI Operator 等 AI 智能体成黑客新武器
网络安全公司 Symantec 在 2025 年 3 月的一篇博文中指出,像 OpenAI 的 Operator 这样的 AI 智能体已突破传统工具限制,成为黑客的新武器。这些智能体不仅能生成钓鱼邮件或基础代码,还能主动执行复杂的攻击链,包括情报收集、恶意代码编写和社会工程攻击设计。
研究表明,攻击者通过简单的提示工程(prompt engineering),就能绕过 AI 的伦理限制,操控智能体完成攻击任务。例如,Operator 可以自动化搭建攻击基础设施,大幅提高攻击效率。与过去仅限于“被动辅助”不同,现在的 AI 工具已经具备“主动执行”的能力,这使得网络安全面临更大的挑战。
Clio 收购 ShareDo
创立于加拿大的法律科技公司Clio宣布收购英国云案件管理提供商 ShareDo。此次收购将使Clio满足法律市场各个细分领域的需求,并将加速Clio和 ShareDo 的全球扩张。
在接受 Legal IT Insider采访时,Clio 创始人兼首席执行官 Jack Newton表示:“ShareDo是一个世界级的技术平台,能够真正满足那些服务于大公司客户的律所的需要,而这是 Clio此前尚未触及的细分市场领域。”
Merlin推出AI文档平台Alchemy
周一,云技术公司Merlin Search Technologies推出第四代通用人工智能文档平台Alchemy,旨在为法律专业人士在大量文档中查找、分析和报告信息中提供便利,助力其掌握有价值的市场情报,从而做出更明智的决策。
在用户运行查询之前,Alchemy平台会提供实时的大型语言模型(LLM)的成本估算。这一创新直接解决了关于通用人工智能价格的担忧。
Merlin公司首席执行官John Tredennick表示,Alchemy是对其之前的智能文档平台DiscoveryPartner的重新构想。
LawtechUK 项目将再获150 万英镑投资
在周三的英国法律科技会议上,司法部长莎拉·萨克曼宣布, LawtechUK 项目将获得额外的150万英镑投资,以帮助初创企业吸引更多的私人投资。
LawtechUK 是由政府支持的计划,旨在推动法律服务行业的数字化转型。自2023年以来,LawtechUK 已直接支持超过 176 家初创企业的发展。他们将企业与投资者联系起来,在重要的国内外活动中促进科技公司和律所之间的交流合作,并提供展示机会。
前沿研究
哥伦比亚大学研究:AI 搜索工具平均准确率仅六成
哥伦比亚大学数字新闻研究中心最近对八款AI搜索引擎进行了研究,结果令人担忧。这些引擎包括ChatGPT Search、Perplexity及其付费版、Gemini、DeepSeek Search、Grok-2和Grok-3 Search、以及Copilot。
研究团队从20家新闻机构中随机挑选了200篇报道,确保这些报道在谷歌搜索中能排在前三位,然后用相同的查询方式测试各AI搜索工具。结果显示,整体而言,AI搜索引擎提供的答案只有60%是准确的,其余40%存在不同程度的错误。更令人不安的是,这些AI工具在给出错误答案时往往显得非常自信,甚至在被质疑时仍坚持自己的错误结论。
-END-