Après des mois de débats, Linus Torvalds et les mainteneurs du noyau Linux ont finalisé une politique formelle encadrant l’utilisation d’outils d’IA pour les contributions au noyau. L’objectif : permettre l’utilisation d’assistants d’IA tout en protégeant la qualité, la licence et la responsabilité humaine sur le code.
Contexte
Les discussions ont été déclenchées notamment après une soumission de patch entièrement générée par une IA (par l’ingénieur Sasha Levin) qui n’avait pas été annoncée comme telle. L’incident a posé la question de la transparence et de la responsabilité quand des modèles génèrent du code destiné au noyau, un composant critique et largement utilisé.
Les principes clés de la nouvelle politique
- Signature DCO par des humains uniquement : les agents d’IA ne peuvent pas apposer de Signed-off-by. Seul un humain peut certifier la Developer Certificate of Origin (DCO) et assumer la responsabilité des implications de licence.
- Attribution obligatoire Assisted-by : tout patch aidé par des outils d’IA doit inclure une étiquette Assisted-by détaillant le modèle/agent et les outils auxiliaires (ex. : « Assisted-by: Claude:claude-3-opus coccinelle sparse »).
- Responsabilité humaine totale : le contributeur humain qui soumet le code reste pleinement responsable de sa qualité, de sa conformité aux licences et des éventuels bogues ou failles.
Pourquoi Assisted-by (et pas Generated-by ou Co-developed-by) ?
Les mainteneurs ont choisi Assisted-by pour refléter le plus fidèlement l’usage réel des IA : la plupart des cas sont d’ordre assistif (complétion, refactorisation, génération de tests), pas une co-auteur à part entière. Le libellé s’aligne aussi sur le format des autres tags metadata (Reviewed-by, Tested-by, etc.) sans stigmatiser l’utilisation d’IA.
Comment la politique sera appliquée
- Transparence : l’Assisted-by sert aussi de drapeau pour demander un examen plus attentif.
- Revue humaine : les mainteneurs comptent sur l’expertise technique, la relecture approfondie et les tests plutôt que sur des outils automatiques de détection d’IA. L’idée : repérer les « patches crédibles » qui cacheraient des problèmes subtils.
- Sanctions dissuasives : en cas de manœuvres malhonnêtes (par ex. soumettre du code délibérément cassé), les conséquences peuvent être sévères, y compris exclusion des processus de contribution.
Enjeux et limites
- Patches crédibles et pièges à long terme : le vrai risque vient des contributions qui semblent correctes (respect du style, compilation, tests locaux) mais introduisent une dette technique ou des failles subtiles.
- Détection difficile : les outils de détection d’IA ne sont pas la solution miracle — l’expertise humaine et la revue restent centrales.
- Questions légales et de propriété : même si l’IA a aidé, la responsabilité légale et les obligations de licence reposent sur le contributeur humain.
Conseils pratiques pour les développeurs de noyau
- Déclarez toujours l’usage d’IA via Assisted-by et documentez les modèles/agents et prompts si possible.
- Ne laissez pas l’IA prendre la responsabilité : testez, auditez et adaptez le code manuellement.
- Respectez le DCO : ne signez que si vous assumez pleinement la provenance et la licence du code.
- Ajoutez des tests et des commentaires clairs, et soyez prêt à défendre la logique lors de la revue.
- En cas de doute, demandez l’avis des mainteneurs avant soumission.
Impacts pour les organisations
- Politique à intégrer : entreprises et équipes qui utilisent l’IA pour générer du code destiné à des projets open source devront mettre à jour leurs processus internes (traçabilité, revue, approbations légales).
- Formation : renforcer la culture de revue et d’audit humain pour compenser la montée d’outils d’IA.
Conclusion
La nouvelle politique du noyau Linux adopte une approche pragmatique : encourager l’utilisation d’outils modernes tout en préservant la responsabilité humaine et la qualité du code. Elle mise sur la transparence (Assisted-by) et la rigueur humaine plutôt que sur la prohibition ou la chasse technologique aux preuves d’IA. Pour les développeurs, la règle est simple : vous pouvez vous servir d’IA, mais c’est vous qui signez et vous qui assumez.
Ressources et liens utiles
- Politique officielle
- Article source (ZDNet)
- Pour aller plus loin : LKML (linux kernel mailing list) et documentation DCO (Developer Certificate of Origin)