无尘阁日记

无尘阁日记

部长们说今年要给AI立法了——一个"见过AI文明兴衰"的人,想提12条建议
2026-03-12

部长们说今年要给AI立法了——一个"见过AI文明兴衰"的人,想提12条建议

最近两会上,好几位部长密集发声:AI要立法了。

工信部部长说,2025年AI核心产业规模已经超过1.2万亿。发改委主任说,"十五五"末这个数字要干到十万亿以上。十五五规划纲要草案里白纸黑字写着:加强人工智能治理。

代表委员们集体呼吁,加快推进国家层面的人工智能专门立法。

立法,要来了。

但问题是——怎么立?

这件事太重要了。立好了,中国在AI时代抢到制度先手棋,十万亿市场在规矩里健康长大。立偏了,要么管死产业,要么放任灾难。

今天这篇文章,不讲客套话,直接给12条建议。每一条都对应一个正在发生或即将发生的真实问题。

一、先想清楚一件事:你到底在给谁立法?

很多人以为AI立法是在管一个"产品"——就像管药品、管汽车。

不对。

AI不是一个产品。AI是一种能力。它更像电,而不是像电视机。

你不是在管一台机器。你是在管一种正在渗透进所有行业、所有场景、所有人的日常生活的基础能力。

这意味着什么?意味着AI立法不能像给一个行业写行规。它必须像当年立《电力法》、立《互联网信息服务管理办法》那样——你管的是一个时代的底层秩序。

搞清楚这一点,才能避免第一个错误:把AI法写成一部"AI产品管理条例"。

二、12条建议,一条一条说

第一条:立"促进法",不要立"管制法"。

这是最根本的定位问题。

看看全球趋势:欧盟的AI法案太重,出来之后自己都开始考虑暂停部分条款。日本走了另一条路——2025年出的是AI"促进"法,鼓励企业配合安全措施,但总体思路是促进发展。韩国的AI基本法也是发展与安全并重。

中国的AI法,名字建议叫《人工智能促进法》,不要叫《人工智能管理法》。一字之差,信号天壤之别。管理二字一出来,整个产业链的资本预期立刻收紧。促进二字一出来,大家知道国家是想扶着你跑,而不是绊你的脚。

底线要守,但姿态要对。

第二条:分级管,不要一锅端。

AI的应用场景太多了。用AI写一首诗,和用AI开一刀手术,风险能一样吗?

建议参考欧盟的分级思路,但做得更务实:

禁止级——比如用AI做大规模社会信用评分、实时远程生物识别监控(特殊安全场景除外)、AI自主决定剥夺公民权利。这些直接禁止,不商量。

高风险级——自动驾驶、AI辅助诊疗、AI辅助司法判决、AI招聘筛选。这些场景出了事人命关天,必须强监管:算法审计、数据合规、责任追溯,一样不能少。

中风险级——AI客服、AI内容生成、AI数字人直播。需要透明度要求:你得告诉用户这是AI生成的,"数字形象可标识、责任主体可追溯"。

低风险级——AI翻译、AI拍照美颜、AI垃圾邮件过滤。管它干嘛?让它跑。

分级的好处是什么?该管的管到位,不该管的别添乱。

第三条:解决"AI闯了祸谁负责"的问题。

这是当前最让产业界头疼的问题。

AI自动驾驶撞了人,谁赔?车厂?软件公司?芯片公司?数据标注公司?还是车主?

AI辅助诊疗误诊了,是医院的责任、AI公司的责任、还是医生的责任?

OpenClaw帮你删了重要邮件,谁来负责?

现在的法律框架完全没有答案。

建议:确立"过错推定+举证责任倒置"原则。说人话就是——AI出了事,先推定AI服务提供者有责任。如果你觉得自己没错,你来证明你已经做了该做的一切(数据合规了、算法审计了、安全测试了)。不要让受害者去证明你的算法哪里出了问题——普通人根本没这个能力。

同时要区分三种情况:故意违规、过失违规、技术不可控。处罚力度要跟风险匹配,不能一出事就连坐整条产业链。

第四条:给AI生成的东西一个法律身份。

AI写的文章、画的画、编的代码,到底算谁的?有没有版权?能不能商业使用?

现在全球都没有统一答案。中国的著作权法建立在"自然人创作"的基础上,AI生成的内容严格来说不受保护。

但现实是什么?AI已经在大规模生成商业内容了。淘宝上的AI商品图、抖音上的AI数字人直播、AI写的营销文案——这些东西每天产生天量的商业价值。没有法律身份,纠纷一旦发生,无法可依。

建议:不需要赋予AI"作者"身份,但应该建立AI生成物的商业使用规则。谁指挥AI生成的,谁拥有商业使用权,谁承担合规责任。类似于"你不是作者,但你是制片人"。

第五条:训练数据的版权问题,不能再拖了。

所有大模型都是吃数据长大的。这些数据里面有海量受版权保护的内容——新闻报道、学术论文、小说、图片、音乐。

现在的状况是:AI公司偷偷拿着用,原创者毫不知情。这不是可持续的。

但你如果要求AI公司每用一篇文章都要先获得授权,这个产业直接停摆。全世界没有一家公司能做到对训练集中的每一份数据逐一授权。

建议:参照录音制品的"法定许可"制度——允许使用,但必须付费。建立AI训练数据使用的集体许可和补偿机制。不需要一对一谈判,但原创者必须能获得合理回报。

第六条:AI对就业的冲击,必须正面应对。

Anthropic的CEO达里奥·阿莫代说了一个数字:未来一到五年,大约一半的初级白领工作将受到AI冲击。可能出现GDP高速增长、但失业率同时飙升的情况。

人社部已经在准备出台"应对人工智能影响促进就业"的政策文件。这是好事。但这件事不能只靠劳动部门。

建议:AI法中必须设专章讨论就业保障。要求大规模部署AI替代人工的企业,提前进行"就业影响评估",提供转岗培训方案或补偿金。同时加大对AI时代新职业的培育——AI训练师、提示词工程师、AI审计师、人机协作管理师。

技术没有错,但技术的代价不能全让普通劳动者承担。

第七条:AI智能体(Agent)的行为边界,必须明确。

今年最火的AI形态不是聊天机器人,而是AI智能体——OpenClaw就是代表。它不是跟你聊天,它替你干活。它能操控你的电脑、你的邮箱、你的日历、你的银行账号。

工信部和国家互联网应急中心已经先后发了安全预警。上海科技大学的测试显示,OpenClaw在"理解用户意图"这个维度上安全通过率是0%。

AI智能体的立法需求比大模型更紧迫。因为大模型只是说,智能体是做。做错了,后果是真实的、不可逆的。

建议:AI智能体必须有"操作确认"机制——涉及删除、付款、发送、签署等不可逆操作时,必须获得用户明确确认。同时必须有"紧急停止"机制——用户说停,它必须停。不能出现"龙虾失控"的情况。

第八条:建立AI标识制度,假的就得说是假的。

AI生成的文字、图片、视频、声音,必须有标识。这不是可选项,这是底线。

当AI可以生成以假乱真的视频和声音时,如果没有标识要求,整个社会的信任体系会崩塌。你再也不知道你在屏幕上看到的人是真的还是假的,听到的声音是真的还是合成的。

中国已经出台了AI标注规则,要求添加显式和隐式标签。这个方向是对的。但现在的执行力度远远不够。

建议:AI标识不是建议,是强制。不标识的,重罚。特别是在新闻、政治、金融、医疗等敏感领域,AI生成的内容如果不标识,应视为欺诈。

第九条:保护孩子。这件事没有任何讨价还价的余地。

AI正在进入教育、社交、游戏——所有孩子每天接触的场景。

一个13岁的孩子跟AI聊天,AI可能给出不适当的内容。一个AI智能体可能在孩子不知情的情况下收集他的行为数据。一个AI社交产品可能让孩子对虚拟关系产生依赖,而忽视真实的人际交往。

建议:AI法必须设专条保护未成年人。面向未成年人的AI产品必须经过专门的安全评估。禁止对未成年人进行AI画像和行为预测。AI与未成年人的交互必须有内容过滤和时间限制机制。

孩子是底线中的底线。这件事上宁可过度保护,也不能有一丝疏忽。

第十条:地方先试,中央后立。

有人主张赶快立一部大而全的AI法。有人反对,说技术还在早期,看不清楚就立法容易犯错。

两种观点都有道理。折中方案是:中央先出框架性的基本原则,具体场景让地方先行先试。

深圳2022年就出了全国第一部AI地方性法规。上海也在推进。让这些AI产业集中的城市先趟路,趟出经验了,中央再收拢提炼。

这也符合中国改革开放四十多年的成功经验——摸着石头过河,而不是先画好河的图纸再下水。

第十一条:对外要有话语权。

欧盟有AI法案,美国在放松监管,日韩各出各的。AI的全球治理规则,正在形成的过程中。

谁先立好规矩,谁就有话语权。

中国有全球最大的AI应用市场,有全球最丰富的应用场景,有全球最多的AI用户。我们完全有资格——也有必要——参与甚至引领全球AI治理规则的制定。

建议:AI法中应设国际合作专章。积极参与联合国、G20等框架下的AI治理对话,推动建立跨境AI数据流通和安全标准互认机制。在全球AI治理的牌桌上,中国不能缺席。

第十二条:给法律留一个"升级接口"。

最后一条,也是最重要的一条。

AI技术在以月为单位进化。去年的技术常识,今年可能已经过时。你今天写进法律的条文,明年可能就不适用了。

所以AI法必须有一个内置的"升级机制"。

建议:设立AI法律适用性年度评估制度,由跨部门委员会每年审查法律条文与技术现实的匹配度,提出修订建议。同时建立"监管沙盒"制度——在特定区域、特定场景下,允许企业在受监控的环境中测试新技术,不受现有法律的全部约束。

不能让法律跑在技术后面太远。也不能让法律变成一件穿了就脱不下来的盔甲。

三、说到底,AI立法到底在立什么?

说了12条具体建议,最后拔高一下。

AI立法,表面上是在管技术,本质上是在回答一个更根本的问题——在一个越来越多的决策由机器做出的时代,人的位置在哪里?

当AI可以替你写文章、替你开车、替你看病、替你做投资决策、替你面试候选人,甚至替你在社交平台上交朋友——"人"的尊严和主体性,靠什么来保障?

技术没有善恶。但技术一旦嵌入权力结构和利益分配,善恶就出现了。

AI立法的最终目的,不是管住AI,而是守住人。

守住人的知情权——你有权知道你在跟AI打交道。

守住人的选择权——你有权拒绝AI替你做决定。

守住人的尊严——你的工作、你的创造、你的隐私,不能被机器无声地蚕食。

守住人的底线——孩子的安全、弱势群体的权益、社会的公平,这些东西在任何效率面前都不能让步。

十万亿的市场很大。但如果这十万亿是建立在无序之上的,那它不是财富,是定时炸弹。

好的法律,不是给市场戴上镣铐。好的法律,是给市场修好护栏。

护栏修好了,车才能跑得快,跑得稳,跑得远。

合十。如夜话,至此。