Parallèle entre l’IA générative et le No-Code / Low-Code (2018-2022)
1. Le contexte historique (2018-2022)
Durant cette période, l’industrie technologique a vu l’essor fulgurant des plateformes No-Code et Low-Code (Mendix, OutSystems, Bubble, PowerApps, etc.).
La promesse
Ces plateformes promettaient une révolution :
- Démocratisation : permettre à des « non-experts » (les experts du domaine métier) de créer des applications.
- Vélocité : une promesse de développement « 10× plus rapide » qu’un cycle de développement logiciel traditionnel.
- Autonomie : la fin de la dépendance envers les départements IT souvent surchargés.
La crainte (le « grand remplacement » des développeurs)
Une inquiétude palpable s’est installée chez certains professionnels de l’informatique :
- la peur d’être remplacé par des outils graphiques « drag-and-drop » ;
- l’idée que la compétence technique pure (savoir écrire du C++, du Java ou du Python) allait perdre toute sa valeur face à des interfaces visuelles.
2. Le parallèle avec l’adoption du codage par IA (aujourd’hui)
Aujourd’hui, l’arrivée des LLM (Large Language Models) et des assistants de codage (GitHub Copilot, ChatGPT, etc.) réactive des mécanismes similaires.
- Nouvelle interface : le langage naturel remplace l’interface graphique du No-Code. Au lieu de glisser-déposer un bouton, on demande à l’IA « crée un bouton bleu ».
- Nouvelle promesse de vitesse : on parle à nouveau de gains de productivité massifs.
- Retour de la crainte : la question « l’IA va-t-elle remplacer les développeurs ? » est omniprésente.
3. Analyse : la réalité du terrain
Avec le recul, on constate que la crainte des développeurs n’était pas justifiée, et ce pour deux raisons majeures qui s’appliquent aussi à l’IA aujourd’hui.
A. L’incontournable besoin de spécification
Ce qui s’est réellement passé, c’est que les « usagers experts » (citizen developers) qui se sont lancés ont vite heurté un mur : la logique.
- Le code n’est pas le seul obstacle : même en mode No-Code, il est impératif de savoir ce que l’on veut réaliser.
- Rigueur et design : on ne peut pas se contenter de « brancher un paquet de fils ensemble » en espérant un résultat magique. Cela demande une capacité à rédiger des spécifications claires, à avoir une stratégie et à faire un minimum d’analyse et de design système.
- Parallèle IA : aujourd’hui, le « prompt engineering » n’est rien d’autre qu’une forme de spécification très précise. Si l’utilisateur ne sait pas structurer sa demande, l’IA produira du code incohérent.
B. Le piège de la plateforme (vendor lock-in) et l’architecture propriétaire
Un obstacle majeur à l’adoption massive fut la structure même du marché No-Code.
- L’effort d’enrobage (the wrapper tax) : chaque plateforme devait fournir un effort considérable pour « enrober » (wrap) des librairies standards et les exposer sous forme de composants visuels (« wiring available »). L’utilisateur était donc limité à ce que le vendeur avait choisi d’implémenter et de maintenir.
- Le rejet stratégique : le réflexe des décideurs a souvent été de rejeter ces plateformes malgré la promesse d’efficacité. L’adoption devenait synonyme de « vendor lock-in » immédiat. C’est une cause fondamentale de la non-adoption : le risque de dépendance technologique l’emportait sur le gain de productivité théorique.
- Prisonniers de l’outil : il n’y a pas d’interopérabilité. Migrer d’une solution No-Code à une autre est un cauchemar, car la logique métier est enfermée dans un format propriétaire.
- L’importation à sens unique : les nouveaux venus offrent des outils d’importation pour capter le marché, mais l’exportation est inexistante.
C. La rupture : l’interchangeabilité des modèles IA
La différence fondamentale avec l’assistance au codage moderne réside dans l’absence de verrouillage :
- Interchangeabilité : les modèles LLM sont interchangeables. Les « building blocks » ne sont pas des widgets propriétaires, mais des librairies standards (ex. : Spring Security). Un modèle entraîné peut exploiter ces standards pour générer du code à partir de spécifications, sans attacher l’utilisateur à une plateforme unique.
Nuance pratique : l’interchangeabilité n’est pas gratuite
Si l’interchangeabilité est techniquement réelle (contrairement au No-Code), elle n’est pas sans friction :
- Variabilité des capacités : les modèles diffèrent en taille de contexte, qualité du raisonnement, langages supportés. Un prompt optimisé pour GPT-4 nécessitera des ajustements pour Claude ou Gemini.
- Écosystèmes d’intégration : les outils créent une forme de « soft lock-in » (GitHub Copilot ↔ VS Code, Cursor avec ses fonctionnalités propriétaires). Migrer implique de réapprendre des workflows.
- Investissement en prompt engineering : les techniques d’ingénierie de prompt ne sont pas universelles. Le passage d’un modèle à l’autre demande un effort de réapprentissage.
Cependant, cette friction est d’une nature fondamentalement différente du vendor lock-in du No-Code : la logique métier reste dans du code standard (Java, Python, etc.), pas dans un format propriétaire. La migration est un coût d’adaptation, pas une réécriture complète. C’est un progrès majeur, même s’il ne faut pas le présenter comme un transfert à coût zéro.
Amplification des capacités
- Pour le non-expert : l’accès à la création d’applications via le « vibe coding » ou l’approche « spec-first ».
- Pour l’expert : l’IA agit comme un amplificateur. L’expert gagne en efficacité car il possède la capacité de donner des orientations précises pour une génération de code optimale.
Nuance importante : les niveaux d’autonomie réelle
Il est crucial de distinguer deux réalités :
- Prototypage et exploration : un non-expert peut effectivement créer rapidement des prototypes fonctionnels avec l’IA. C’est une avancée réelle qui démocratise l’expérimentation et la validation d’idées.
- Production et maintenance : créer du code qui fonctionne ≠ créer du code professionnel. La capacité à évaluer la qualité du code généré (sécurité, performance, maintenabilité, respect des standards) reste une compétence d’expert. Un code « qui marche » n’est pas nécessairement un code « qui devrait être déployé ».
L’IA ne remplace donc pas l’expertise, elle déplace le curseur de compétence : là où il fallait 5 ans d’expérience pour être productif, peut-être qu’aujourd’hui 2–3 ans suffisent. Mais le saut direct de « non-développeur » à « développeur professionnel autonome » reste un mythe. L’IA est un accélérateur, pas un substitut à l’apprentissage fondamental.
4. La constante : l’ingénierie de contexte (Spec-First)
Malgré la rupture technologique, une vérité demeure immuable entre l’époque Low-Code et l’ère IA : le besoin de spécifications claires.
On ne peut pas faire l’économie de la réflexion. Pour qu’un système (Low-Code ou IA) produise un résultat valide, il faut une stratégie et un design.
C’est ce qu’on appelle aujourd’hui le context engineering ou l’approche Spec-First. L’efficacité de la génération dépend directement de la qualité du cadre et des spécifications fournis au modèle.
La difficulté sous-estimée : bien spécifier est un art
Il est facile de dire « il suffit de bien spécifier », mais c’est un raccourci trompeur :
- Expertise requise : rédiger des spécifications complètes, non ambiguës et structurées demande de l’expérience. C’est une compétence qui se développe avec le temps et la pratique.
- Équilibre délicat : trop de détails → l’IA est contrainte et perd en créativité. Pas assez → le code généré part dans la mauvaise direction. Trouver le bon niveau d’abstraction est un exercice itératif.
- Coût temporel réel : écrire des specs de qualité prend du temps. Pour certaines tâches simples, coder directement reste plus rapide que de spécifier puis faire générer.
L’approche pragmatique
- Commencer léger : pas besoin d’un framework lourd (BMAD) pour toutes les tâches. Adapter le niveau de cérémonie au risque et à la complexité.
- Itérer et apprendre : les premières specs seront imparfaites. C’est normal. L’IA elle-même peut aider à raffiner les spécifications (feedback loop).
- Capitaliser progressivement : documenter les patterns qui fonctionnent, créer des templates réutilisables. L’investissement dans le Spec-First se rentabilise sur la durée, pas au premier coup.
Le Spec-First n’est donc pas une « solution miracle », mais une discipline progressive qui, bien maîtrisée, amplifie considérablement l’efficacité de l’IA. C’est un investissement, pas un prérequis parfait dès le jour 1.
5. Stratégie : vers une documentation hybride et code-first (take-away)
Pour réussir l’adoption de l’IA en développement, il faut résoudre le défi de la stratégie documentaire. L’IA a besoin de contexte pour être performante, ce qui impose de repenser où et comment nous documentons nos systèmes.
Le défi : Confluence / Jira vs code-first
Il existe une tension naturelle entre les outils traditionnels et les besoins de l’IA :
- Confluence & Jira : restent stratégiques pour la vision produit, les besoins du Product Owner (PO) et l’architecture de haut niveau.
- Documentation code-first : pour que l’IA soit efficace (« context engineering »), elle doit avoir accès à des spécifications techniques, des mappings et des flux fonctionnels détaillés directement dans le contexte du code (repository).
Évaluer les ponts externes (approche MCP et similaires) : question de contexte
Une approche possible consiste à tout garder dans Confluence / Jira et à utiliser des ponts techniques (ex. : serveurs MCP, plugins d’intégration) pour connecter l’IA à ces sources externes. Cette stratégie a ses mérites, mais mérite une évaluation contextuelle :
Quand les ponts peuvent avoir du sens
- Documentation produit vivante : si vos spécifications métier évoluent quotidiennement dans Confluence et que votre équipe PO y est fortement ancrée, maintenir une source unique de vérité peut justifier l’investissement.
- Équipes distribuées : lorsque plusieurs équipes (QA, PO, Dev) collaborent sur les mêmes artefacts, centraliser dans un outil partagé a une valeur organisationnelle réelle.
- Conformité et audit : certains contextes réglementaires exigent une traçabilité centralisée que les outils enterprise offrent nativement.
Les coûts cachés à considérer
- Surcharge technique : configuration initiale, maintenance des authentifications, gestion des versions d’API, débogage des intégrations. Chaque développeur doit configurer et comprendre ces outils.
- Latence cognitive : l’IA doit naviguer entre contextes (code + wiki externe), ce qui peut diluer la précision et augmenter les coûts de tokens.
- Dette technique : les ponts créent des dépendances supplémentaires. Que se passe-t-il si le fournisseur du pont disparaît ou change son API ?
La recommandation : séparation des préoccupations
Pour la majorité des cas, une approche hybride et pragmatique reste préférable :
- Vision et besoins (Confluence / Jira) : le « pourquoi », les user stories, l’architecture de haut niveau.
- Spécifications techniques (in-repository) : le « comment », les analyses détaillées, les règles de mapping, les contrats d’API — tout ce dont l’IA a besoin pour générer du code de qualité.
Cette séparation réduit la complexité technique tout en respectant les workflows existants. Mais ce n’est pas un dogme : si votre organisation a déjà investi massivement dans des intégrations MCP et qu’elles fonctionnent bien, il n’y a aucune raison de tout remettre en question. L’important est de mesurer le retour sur investissement réel et de ne pas adopter ces ponts par défaut sans évaluer les alternatives plus simples.
Les niveaux de cérémonie (frameworks de spécification)
Plusieurs approches émergent pour structurer cette documentation « in-repo », avec différents niveaux de formalisme (« cérémonie »). Le paysage a évolué depuis les premiers assistants de codage dans l’IDE : les grands éditeurs proposent désormais des flux de type plan (faible cérémonie dans l’éditeur), tandis que des formats légers in-repo comme Open Specs se rapprochent des spec kits au niveau medium.
- No ceremony (exploration libre) : aucune structure prédéfinie. Essentiel pour l’exploration conceptuelle fluide, où suivre une checklist ou un template deviendrait un frein à la créativité.
- Low ceremony (ex. : mode plan dans l’IDE) : structuration offerte par les principaux IDE de codage avec IA (écosystème VS Code, Cursor, etc.) — l’intention et les étapes sont cadrées dans l’éditeur avant la génération de code, sans adopter encore un cadre de spécification in-repo dédié.
- Medium ceremony (ex. : Open Specs, GitHub Copilot Spec Kit) : capture légère et informelle de l’intention et du design dans le dépôt, complétée par des gabarits plus standardisés (spec kits) — assez de structure pour une consommation fiable par l’IA à partir de textes écrits, sans la lourdeur d’un BMAD.
- High ceremony (ex. : BMAD) : un cadre très formel, consommateur de ressources (humaines et IA), pour des systèmes critiques nécessitant une précision absolue.
L’IA comme partenaire de premier plan (interaction fluide)
Au-delà de la documentation, la modalité d’interaction change. L’IA n’est plus juste un outil de complétion, c’est un partenaire de réflexion.
- Interaction vocale (ex. : Wispr Flow) : l’usage de la voix permet une fluidité inégalée pour clarifier des idées, débloquer des analyses ou faire du « pair programming » avec l’IA.
- Collaborateur actif : considérer l’assistant AI comme un collaborateur de premier plan pour le débogage et l’analyse comportementale est une stratégie gagnante.
Note sur les données et l’expérimentation
Ce document présente une analyse qualitative basée sur l’observation des tendances de marché et l’analogie historique avec le No-Code. Il est important de reconnaître que :
Les métriques varient selon le contexte
Les gains de productivité rapportés avec l’IA vont de 20 % à 200 % selon les études, les langages et les tâches. Cette variance indique qu’il n’y a pas de « chiffre magique » universel.
Les études actuelles (GitHub, McKinsey, Stack Overflow Developer Survey 2024–2025) convergent sur des gains réels, mais contexte-dépendants : tests unitaires (+40–60 %), refactoring (+30–50 %), exploration de nouvelles bases de code (+70–100 %).
Invitation à l’expérimentation mesurée
Plutôt que de se fier uniquement à des métriques externes, chaque équipe devrait :
- Mener ses propres pilotes : sélectionner 2–3 développeurs volontaires, définir des KPIs clairs (temps de complétion de tâches, qualité du code via revue, satisfaction développeur).
- Mesurer avant / après : établir une baseline sur des tâches types avant l’adoption d’IA, puis comparer après 4–6 semaines d’utilisation.
- Documenter les apprentissages : les échecs sont aussi instructifs que les succès. Quels types de tâches bénéficient le plus ? Lesquelles sont mal servies ?
Ressources recommandées pour aller plus loin
- GitHub Next Research (github.com/github-next) : études empiriques sur Copilot.
- State of AI Report (annuel) : tendances macro du marché.
- Votre propre expérience : le meilleur « chiffre » est celui que vous mesurez dans votre contexte.
L’objectif de ce document n’est pas de prouver par A+B que l’IA est « la solution », mais de structurer la réflexion stratégique pour une adoption éclairée et pragmatique.
Conclusion : l’approche hybride
La clé du succès n’est pas de tout mettre dans le code, ni de tout laisser dans le Wiki. Il faut une approche hybride :
- Dans Confluence / Jira : la vision, le « pourquoi », les requis d’affaires.
- Dans le code (Spec-First) : le « comment », les analyses techniques détaillées, les règles de mapping.
C’est en adoptant cette discipline de spécification (context engineering) que l’on transforme l’IA d’un simple gadget de complétion de code en un véritable partenaire de développement système.
English : Same article in English
Voir aussi : Manifeste — Le futur du codage est déjà là