Introduction
Après des mois de débats sur la liste de diffusion et lors d’événements de la communauté, Linus Torvalds et les mainteneurs du noyau Linux ont finalisé la première politique officielle sur les contributions assistées par intelligence artificielle. L’objectif : encadrer l’utilisation d’outils d’IA sans interdire leur emploi, tout en conservant la responsabilité humaine et l’exigence de qualité qui font la réputation du projet.
Principes clés de la politique
-
Pas de Signed-off-by par une IA
La certification juridique du Developer Certificate of Origin (DCO) reste un acte humain : un agent d’IA ne peut pas apposer de Signed-off-by. Si un patch est produit ou aidé par une IA, c’est la personne qui le soumet qui assume la responsabilité légale et morale. -
Attribution « Assisted-by » obligatoire
Toute contribution faisant appel à des outils d’IA doit inclure une baliseAssisted-byprécisant le modèle/agent et les outils auxiliaires utilisés (par exemple : « Assisted-by: Claude:claude-3-opus coccinelle sparse »). Cette mention sert à la fois de transparence et de signal pour que les relecteurs examinent plus soigneusement le patch. -
Responsabilité humaine totale
Le contributeur humain est entièrement responsable du contenu final — conformité des licences, qualité, sécurité et tests. Les conséquences en cas de fraude ou de dissimulation peuvent être sévères : exclusion d’un rôle de contributeur reconnu et perte de crédibilité.
Contexte et pourquoi la règle s’imposait
La règle s’est accélérée après un incident où un développeur (Nvidia/Sasha Levin) a soumis un patch généré par IA sans le déclarer, provoquant une forte réaction de la communauté. Ces échanges ont poussé à formaliser des règles qui reconnaissent l’utilité des assistants tout en évitant les risques d’opacité.
Rôle de l’IA : outil, pas coauteur
Le choix du terme Assisted-by (plutôt que Generated-by ou Co-developed-by) a été délibéré : il reflète le fait que l’IA est majoritairement utilisée pour de l’assistance (completion, refactor, génération de tests) plutôt que pour être un véritable coauteur. La formulation s’aligne aussi sur le format des métadonnées existantes (Reviewed-by, Tested-by, etc.) sans stigmatiser l’usage.
Application pratique et contrôle
Les mainteneurs n’entendent pas recourir massivement à des logiciels de détection d’IA ; ils comptent sur l’expertise technique, la relecture attentive et des processus existants pour repérer les patches douteux. La stratégie vise à rendre les conséquences de dissimulation suffisamment dissuasives pour limiter les tentatives malveillantes ou négligentes.
Limites et défis restants
Le principal défi n’est pas la « pâte » grossièrement produite par IA, facile à rejeter, mais les patches crédibles et bien formatés qui respectent le style, compilent proprement et comportent néanmoins des bugs subtils ou une dette de maintenance. Détecter ce type de problème reste une tâche humaine exigeante.
Conseils pratiques pour les contributeurs
- Déclarez toujours l’usage d’outils d’IA via Assisted-by et détaillez les versions/modèles utilisés.
- Testez et relisez intégralement le code fourni par l’IA : vous êtes responsable.
- Vérifiez la compatibilité des licences et l’origine des snippets (éviter les extraits dont la provenance est douteuse).
- Considérez l’IA pour la génération de tests, la documentation ou la proposition d’idées, mais pas comme substitut à l’examen humain.
Pour les mainteneurs et organisations
- Renforcer les processus de revue spécialisés pour les contributions assistées par IA.
- Documenter les workflows recommandés et former les reviewers à repérer les pièges possibles.
- Évaluer périodiquement l’efficacité des balises d’attribution et ajuster les règles selon l’évolution des outils.
Conclusion
La politique adoptée par Torvalds et les mainteneurs représente un compromis pragmatique : accepter l’apport concret des assistants d’IA tout en restant inflexible sur la responsabilité humaine et la transparence. Pour les développeurs du noyau, le mot d’ordre est clair : vous pouvez utiliser l’IA, mais assumez entièrement ce que vous soumettez.
Appel à l’action
Si vous contribuez au noyau, ajustez vos workflows dès maintenant : documentez tout usage d’IA, renforcez vos tests et lisez la politique officielle pour rester en conformité.