Linux内核发布AI代码新规:允许使用Copilot,但人类为一切Bug负责
4月13日,据科技媒体Tom's Hardware报道,经历数月争论后,Linux内核维护团队终于为AI生成代码制定了正式准则。新规允许使用GitHub Copilot等辅助编程工具,但明确规定:所有Bug、安全问题最终都要由提交代码的人承担责任。
这项政策出台前,开源社区围绕AI的争论已经持续很长时间,并在今年1月达到高潮。当时,英特尔工程师Dave Hansen和甲骨文员工Lorenzo Stoakes就“是否严格限制AI工具”产生激烈争吵。最终,Linux创始人Linus Torvalds亲自下场终结了这场争论,称全面禁止AI只是“毫无意义的作秀”。
Torvalds的立场非常纯粹:AI只是工具。他认为,提交垃圾代码的人本来就不会遵守规则,因此与其限制开发者用什么工具,不如直接追究“提交者”的责任。这种强调结果的现实主义,与部分开源社区“见AI就踩一脚”的态度形成鲜明对比。
政策出台之前,各大开源项目的做法各有不同。NetBSD、Gentoo直接禁止AI生成代码,后者甚至认为大模型生成内容在法律上属于“污染”,因为训练数据的版权来源并不明确。这就带出了另一个争议焦点:原创声明(DCO)。它要求开发者必须确保自己提交的代码拥有所有权,但AI大模型训练时使用的很多代码都受GPL等许可证约束。等于说,开发者无法完全保证AI生成代码的来源合法性。
除了合规问题,开源社区维护者现在每天都要面对大量AI垃圾代码。cURL项目被大量幻觉代码淹没,被迫关闭漏洞奖赏计划;Node.js和OCaml收到上万行AI补丁,引发内部争议。更让社区成员反感的是隐瞒使用AI的行为。例如,开发者Sasha Levin曾在未披露的情况下提交AI生成的Linux补丁,虽然代码能跑但性能非常差,连Torvalds都承认评审不充分。
Linux的新规非常直截了当:不禁止AI,但要求所有开发者必须写明代码是否由AI生成,同时将失误责任明确划分给人类开发者。等于是将“谁签字,谁负责”换成了“谁点提交,谁负责”。