Pour une meilleure expérience de navigation et bénéficier de l'ensemble des fonctionnalités de credit-agricole.com, nous vous conseillons d'utiliser le navigateur Edge.
  • Taille du texte
  • Contraste

L’intelligence artificielle transforme les métiers techniques sans en supprimer les fondamentaux. Elle accélère l’écriture du code, l’analyse de contenus, la génération de tests ou la supervision de systèmes, mais elle ne remplace ni le jugement, ni la responsabilité. Sa valeur dépend surtout de la capacité des organisations à définir des règles d’usage, contrôler les résultats et préserver la compréhension humaine des systèmes qu’elles conçoivent.

À l’occasion de Devoxx 2026, plusieurs keynotes ont abordé l’IA sous des angles complémentaires : éthique, développement logiciel, agents, tatouage numérique et lecture du code. Leur convergence tient dans une même lecture : les modèles ne créent de valeur que lorsqu’ils s’inscrivent dans des pratiques explicites, vérifiables et transmissibles.

Laurence Devillers, professeure en intelligence artificielle à Sorbonne Université, chercheuse au CNRS (Centre national de la recherche scientifique), au LISN (Laboratoire interdisciplinaire des sciences du numérique) et présidente de la Fondation Blaise Pascal, a posé le socle éthique et cognitif de cette séquence. L’IA calcule, recombine et amplifie. Elle ne comprend en revanche pas ce qu’elle produit et ne porte aucune responsabilité propre.

« L’IA n’est ni ange ni démon. Elle calcule pour répondre. Elle n’a pas d’intention, ni émotion, ni compréhension de ce qu’elle dit, et pas de responsabilité non plus. C’est vous qui êtes responsable quand vous demandez à la machine de faire quelque chose. Il faut l’apprivoiser, comprendre comment elle fonctionne et ne pas désensibiliser le regard de l’humain à ce que sont les émotions », déclare Laurence Devillers.

Dans le secteur du développement logiciel, Matthieu Vincent, Deputy Group Software Engineering CTO et Platform Engineering CTO chez Sopra Steria, et Yann Gloriau, Directeur technique France de Sopra Steria, ont proposé une analyse plus opérationnelle. Deux ans après les annonces de remplacement massif des développeurs par l’IA, les équipes restent présentes. L’IA n’a pas mécaniquement généré plus de tests, de documentation ou de modernisation applicative. Elle a surtout amplifié les pratiques déjà installées.

« Ce n’est pas l’outil qui fait le projet, c’est le projet qui fait l’outil. Les équipes qui produisaient déjà des tests unitaires ont continué à le faire. En revanche, celles qui n’en écrivaient pas ne s’y sont pas mises pour autant. Le même constat vaut pour la documentation, la modernisation ou le traitement du legacy : sans démarche projet, l’IA ne transforme pas à elle seule les pratiques », déclare Yann Gloriau.

 

Du développeur assisté à l’orchestrateur d’agents

La keynote d’OpenAI a prolongé cette réflexion sous un angle plus prospectif. Théophane Gregoir, Forward Deployed Engineer chez OpenAI, a présenté l’agent de codage « Codex ». Dans cet environnement, l’ingénieur ne se limite plus à demander une complétion de code. Il prépare les agents, leur fournit du contexte, les équipe avec des plugins, leur assigne des missions et supervise plusieurs tâches en parallèle. La fonction de développeur se rapproche alors d’un rôle de responsable d’agents IA.

« La période où nous nous demandions comment améliorer le développeur, ou comment en faire simplement quelqu’un qui code plus vite, touche un peu à sa fin. Désormais, le sujet consiste davantage à savoir comment gérer une équipe de sous-agents et de coéquipiers IA pour travailler avec eux. Cela suppose notamment de leur fournir un cadre d’intégration, des outils, des plans d’exécution et des mécanismes de revue de code », déclare Théophane Gregoir.

 

Vibe coding : un risque de détachement

Cette évolution vers l’orchestration d’agents ne supprime cependant pas les risques. Elle les déplace vers la précision des consignes, la qualité des revues et la capacité du développeur à rester impliqué dans ce qui est produit. Matthieu Vincent a ainsi insisté sur le risque de détachement introduit par le « vibe coding », pratique qui consiste à déléguer une grande partie de l’écriture du code à l’IA à partir d’instructions parfois très vagues.

« Très vite, le code généré n’est plus perçu comme le sien par le développeur. L’IA devient une forme d’exécutant auquel nous déléguons des tâches, pendant que notre attention se porte ailleurs. Cette distance peut conduire à une perte d’implication dans la conception, la qualité et la compréhension de ce qui est réellement produit », note Matthieu Vincent.

Cette perte de maîtrise peut prendre plusieurs formes. Dans le code, elle porte sur la compréhension de ce qui a été généré, sur la capacité à relire, tester et assumer le résultat. Dans les contenus produits par IA, elle se déplace vers une autre question : comment savoir si une image, une voix ou un texte provient d’un système génératif lorsque le contenu circule, se transforme et sort de son environnement d’origine ?

 

Le watermarking, sceau invisible pour tracer les contenus générés par IA

Chez Meta, Pierre Fernandez, Research Scientist à FAIR Paris (Fundamental AI Research), et Tom Sander, Research Scientist chez Meta Superintelligence Labs, FAIR, travaillent précisément sur cette provenance, la protection des contenus et le watermarking. Les métadonnées disparaissent facilement lors d’un changement de plateforme ou d’une capture d’écran. La détection passive devient aussi plus fragile à mesure que les images, voix et textes générés se rapprochent des productions humaines. Le tatouage numérique propose une autre approche : inscrire un signal invisible dans le contenu, puis le retrouver statistiquement après certaines transformations.

« Le principe consiste à intégrer, dès la génération, un watermark invisible dans l’image afin de pouvoir ensuite vérifier sa présence. Si cette trace est retrouvée, nous pouvons en déduire que l’image a été générée par IA. Dans le cas d’une image, le tatouage numérique revient à la modifier de manière imperceptible pour l’œil humain, tout en conservant une trace détectable même après certaines transformations ou transmissions entre utilisateurs », explique Pierre Fernandez.

Le texte impose une mécanique différente. Il ne s’agit plus de modifier quelques pixels, mais d’agir sur la génération token par token par les grands modèles de langage, avec un choix pseudo-aléatoire corrélé à un secret privé détenu par le propriétaire du modèle. Cette logique permet ensuite de mesurer statistiquement si un texte provient d’un système donné.

 

Rendre le code généré compréhensible

Cette question devient d’autant plus sensible que l’IA produit davantage de code. Plus les équipes délèguent l’écriture, plus elles doivent préserver les conditions de lecture, de revue et de compréhension. Nicolas Delsaux, architecte et référent technique chez Zenika, ainsi que Clément Bout, ingénieur logiciel et accompagnateur DevOps chez Zenika, ont rappelé que lire du code n’a rien d’une opération neutre. Le cerveau ne fonctionne pas comme un interpréteur : il ne stocke pas toute l’information, mais reconstruit des blocs de sens à partir de ce qu’il reconnaît.

Cette contrainte rend la lisibilité plus importante encore lorsque le code est généré par IA. Les pull requests, les diagrammes, les API Fluent et les ADR (Architecture Decision Records) ne relèvent donc pas seulement de la documentation. Ils réduisent la charge cognitive et rendent le code plus transmissible.

Ces quelques keynotes dessinent une même trajectoire : l’IA prend en charge une part croissante de l’exécution, mais elle augmente en retour l’exigence de supervision humaine. La maturité technique ne se mesure plus seulement à la capacité d’utiliser un modèle, mais à la qualité du cadre qui l’entoure : règles explicites, tests fiables, procédures de revue, documentation vivante et traçabilité des contenus comme du code. La question ne porte donc pas sur l’effacement des métiers techniques, mais sur leur évolution autour de trois exigences : exercer un jugement, produire des preuves et transmettre un contexte compréhensible.

Articles associés

IA
Devoxx : le Crédit Agricole conjugue IA, Clean Code et qualité logicielle
29 avr. 2026

Si vous souhaitez exercer votre droit d’opposition au traitement de vos données personnelles à des fins de mesure d’audience sur notre site via notre prestataire AT internet, cliquez sur le bouton ci-dessous.