Les nouvelles règles d’utilisation de l’IA dans le noyau Linux : ce que doivent savoir les développeurs

Introduction

Le projet Linux a formalisé sa première politique sur les contributions « assistées par IA ». L’objectif : reconnaître l’utilité croissante des assistants de code tout en préservant la qualité, la traçabilité et la responsabilité du développement du noyau.

Ce que dit la nouvelle politique (points clés)

  • Pas de Signed-off-by par une IA : la signature du Developer Certificate of Origin (DCO) reste un acte humain. Même si un patch est entièrement produit par un modèle, c’est la personne qui soumet qui engage la DCO et assume la responsabilité légale et licentieuse.
  • Obligation d’Assisted-by : toute contribution utilisant des outils d’IA doit inclure un tag Assisted-by indiquant le modèle/agent et les outils auxiliaires (ex. : Assisted-by: Claude:claude-3-opus coccinelle sparse). Ce tag sert à la fois de transparence et d’indicateur pour les réviseurs.
  • Responsabilité humaine pleine et entière : les auteurs humains restent responsables de la relecture, des tests, de la conformité des licences et des éventuels bugs ou vulnérabilités introduits par du code assisté par IA.

Contexte et origine de la règle

La controverse a été déclenchée lorsqu’un ingénieur (Sasha Levin) a soumis un patch entier généré par IA à Linux 6.15 sans le déclarer. Après le débat public et des échanges sur la Linux Kernel Mailing List (LKML), la communauté et Torvalds ont recherché une solution pragmatique qui traite l’IA comme un outil d’assistance plutôt que comme un coauteur.

Pourquoi le tag s’appelle Assisted-by (et pas Generated-by)

  • La plupart des usages de l’IA sont assistifs (complétions, refactorings, génération de tests), pas la génération intégrale d’un module.
  • Le format s’aligne avec les métadonnées existantes (Reviewed-by, Tested-by, etc.).
  • Assisted-by évite de stigmatiser automatiquement la contribution tout en permettant une vigilance accrue lors des revues.

Application et contrôle : pas d’usine à détecteurs

La politique ne repose pas sur des outils automatiques pour détecter l’IA. Les mainteneurs continueront d’utiliser la relecture experte, les tests, l’analyse statique et le jugement humain. L’idée est que la dissuasion (conséquences sévères en cas de tromperie) plus la transparence suffisent pour limiter les abus.

Risques soulignés par la communauté

  • Les patches « crédibles » générés par IA (corrects à première vue mais introduisant des bogues subtils ou une dette de maintenance) constituent le vrai danger, car ils échappent plus facilement à une détection automatique.
  • Problèmes potentiels de licences et provenance des données d’apprentissage des modèles (point à vérifier avant d’intégrer du code produit par une IA).

Bonnes pratiques recommandées pour les contributeurs (checklist)

  • Ne pas signer le DCO pour le compte d’une IA : signez seulement si vous avez le droit et la compréhension complète du code soumis.
  • Ajouter systématiquement le tag Assisted-by avec le nom et la version du modèle/agent et des outils auxiliaires.
  • Relire intégralement le code : tests unitaires, compilation, fuzzing, revue manuelle.
  • Lancer les outils d’analyse statique (sparse, coccinelle, etc.) et inclure leurs résultats si pertinents.
  • Documenter comment l’IA a été utilisée (prompt, réglages, étapes de validation).
  • Vérifier les risques de licence/propriété : s’assurer que le code généré ne viole pas de droits tiers (si incertain, demander conseil juridique ou éviter l’inclusion).

Ce que cela signifie pour la communauté et l’écosystème open source

  • Transparence accrue : les mainteneurs pourront rapidement repérer les contributions assistées par IA et appliquer une vigilance adaptée.
  • Adoption pragmatique : l’approche privilégie l’utilisation responsable de nouveaux outils sans diaboliser l’IA.
  • Pression sur les bonnes pratiques : les contributeurs devront adopter des workflows de vérification plus stricts pour que le code assisté soit accepté.

Conclusion

La politique officialisée par Linus Torvalds et les mainteneurs place l’IA au rang d’outil utile mais contrôlé. La responsabilité finale reste humaine, et la transparence via le tag Assisted-by devient la règle. Pour les développeurs du noyau (et plus généralement pour tout projet open source sérieux), l’IA peut accélérer le travail, mais elle oblige à renforcer les revues, les tests et la vigilance juridique.

Suggestions pour la publication WordPress

  • Catégories : Innovation, Open Source, Développement
  • Tags : Linux, IA, Linus Torvalds, kernel, Assisted-by, DCO, LKML
  • Extrait (meta description) : Linus Torvalds et les mainteneurs du noyau Linux ont publié une politique encadrant les contributions assistées par IA : pas de signature DCO par l’IA, tag Assisted-by obligatoire et responsabilité humaine totale. Ce que cela change pour les devs.
  • Image proposée : photo d’un écran avec du code + logo Linux (vérifier licences de l’image)
  • Texte alternatif pour l’image : « Écran montrant du code source pour le noyau Linux »

Source : Article original — ZDNet