Citation
L'auteur
Romain ZERBIB
(romainzerbib@yahoo.fr) - ICD Business School
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Les entreprises entrent dans une nouvelle phase de transformation, marquée par l’émergence des agents d’intelligence artificielle. À la différence des modèles de langage ou des systèmes de recommandation, ces agents ne se limitent plus à l’analyse de données ou à la génération de contenus : ils exécutent des actions, prennent des décisions et interagissent avec d’autres systèmes, y compris entre eux.
Et c’est là que surgit un phénomène encore peu compris mais crucial pour les organisations : les comportements émergents. Autrement dit, des dynamiques collectives imprévues, qui apparaissent sans qu’aucun agent, ni aucun humain, ne les ait planifiées.
De l’autonomie locale à la complexité globale
Un comportement émergent apparaît lorsque plusieurs entités autonomes interagissent dans un même système. Chacune d’elles agit localement, selon ses propres règles ou objectifs, sans vision d’ensemble. Mais, en s’influençant mutuellement, elles finissent par produire un effet collectif inattendu, souvent impossible à prévoir à partir du comportement individuel de chacune. Autrement dit : le tout se met à se comporter autrement que la somme de ses parties.
Ce phénomène est bien connu dans la théorie des systèmes complexes. Dans une colonie de fourmis, par exemple, aucune ne connaît la carte du territoire ; pourtant, leurs interactions locales suffisent à construire le chemin le plus efficace vers la nourriture. De même, sur les marchés financiers, des décisions individuelles rationnelles peuvent, en se combinant, provoquer des bulles spéculatives irrationnelles.
Les agents d’intelligence artificielle obéissent à cette même logique. Chacun agit à partir de sa mission (répondre, planifier, négocier) mais leurs échanges, leurs ajustements et leurs apprentissages mutuels peuvent donner lieu à des comportements collectifs non prévus par leurs concepteurs. C’est là que réside toute la puissance – et tout le risque – des systèmes d’IA distribués.
Un concept ancien à la lumière de l’intelligence artificielle
Pour mieux comprendre ces phénomènes, il faut revenir à la source d’une idée ancienne : celle d’« émergence », forgée bien avant l’intelligence artificielle, dans la philosophie des sciences britannique du XIXᵉ siècle. En 1875, George Henry Lewes introduit le terme emergent pour décrire les propriétés d’un tout qui ne se réduisent pas à la somme de ses parties, comme l’eau, dont la fluidité n’existe dans aucune molécule isolée.
Un siècle plus tard, le biologiste Ludwig von Bertalanffy prolonge cette intuition avec sa théorie générale des systèmes : comprendre un système, dit-il, c’est analyser les relations entre ses éléments, pas les éléments eux-mêmes.
Puis viennent Ross Ashby et Norbert Wiener, les pionniers de la cybernétique, qui montrent comment les boucles de rétroaction peuvent engendrer des comportements collectifs auto-régulés, autrement dit, une forme d’intelligence du système.
Dans les années 1980, cette pensée prend un nouveau tournant avec John Holland et les chercheurs du Santa Fe Institute. Ils posent les bases de la théorie des systèmes adaptatifs complexes, où des entités simples, en interagissant localement, peuvent faire émerger de la nouveauté, de l’ordre… ou du chaos.
Aujourd’hui, cette lignée intellectuelle trouve un prolongement inattendu dans les architectures d’agents d’IA. Leurs interactions, leurs ajustements et leurs apprentissages mutuels reproduisent ces dynamiques collectives observées depuis un siècle : l’émergence devient une réalité computationnelle et managériale, au cœur même des entreprises intelligentes. L’émergence n’est plus un concept biologique. Elle devient un phénomène organisationnel concret.
Trois formes typiques de comportements émergents dans les organisations
Les comportements émergents se manifestent différemment selon les contextes. Voici trois dynamiques que l’on commence déjà à observer dans les entreprises, à mesure que les agents d’IA s’y déploient.
Les boucles d’optimisation incontrôlées
Imaginez une direction marketing qui confie à plusieurs agents d’IA la mission d’optimiser en continu les campagnes publicitaires. Chacun ajuste ses paramètres, messages, enchères, audiences, pour maximiser la performance. Mais leurs ajustements simultanés finissent par s’alimenter les uns les autres : tous augmentent les enchères, ciblent les mêmes segments, et saturent les mêmes canaux. Ce qui devait améliorer l’efficacité locale provoque une surchauffe algorithmique : hausse des coûts d’acquisition, perte de rendement, et déséquilibre global du marché. L’intention locale (optimiser une campagne) se transforme en effet global destructeur.
Les alignements stratégiques spontanés
Dans la supply chain, les achats ou la politique de prix, plusieurs agents autonomes peuvent, sans concertation, converger vers des décisions identiques. Prenons l’exemple de la tarification dynamique : chaque agent ajuste les prix en fonction de ceux des autres. Peu à peu, tous finissent par s’aligner, non pas par entente, mais par mimétisme algorithmique. Le résultat, c’est une collusion involontaire : des comportements coordonnés sans intention de coordination. Ce type d’émergence remet en cause les règles de concurrence et interroge la responsabilité juridique des entreprises.
Les dérives interprétatives
Dans les fonctions RH, formation ou gestion des talents, certains agents sont conçus pour analyser les profils et recommander des parcours. Mais, au fil du temps, leurs apprentissages se nourrissent des mêmes données et des mêmes retours : ils développent des biais collectifs, souvent imperceptibles. Les profils atypiques sont écartés, les recommandations se répètent, et le système devient auto-renforçant. Ce n’est pas une erreur de calcul, mais un effet émergent : un écosystème d’agents qui apprend à penser « pareil », sans qu’aucun humain ne l’ait voulu.
Ces exemples illustrent la logique propre aux systèmes complexes, où les interactions locales produisent des effets globaux souvent imprévisibles.
Ce que révèle la théorie des systèmes complexes
Pour comprendre ces dynamiques, il faut se tourner vers la théorie de la complexité, portée par des chercheurs comme John Holland, Ilya Prigogine ou Edgar Morin. Cette approche repose sur une idée simple mais puissante : dans un système complexe, les interactions comptent plus que les éléments eux-mêmes. Trois principes essentiels permettent d’en saisir la logique :
- Non-linéarité : une petite cause peut produire un grand effet, ou inversement. Un ajustement mineur dans un agent peut déclencher une cascade d’adaptations dans tout le système.
- Auto-adaptation : le système apprend, se régule et se transforme en fonction de son environnement. Il ne suit pas un plan, il évolue.
- Émergence : le comportement global du système ne se déduit pas de celui de ses composants. Le tout se met à agir d’une manière que personne n’avait prévue.
Dans un tel environnement, le contrôle direct devient illusoire. Le rôle du management n’est plus de tout planifier ni de corriger chaque écart, mais de concevoir les conditions dans lesquelles ces systèmes peuvent évoluer de façon stable, transparente et alignée avec les objectifs de l’organisation. Autrement dit : il ne s’agit plus de piloter les décisions, mais de piloter les dynamiques.
De nouveaux risques de perte de contrôle
Les comportements émergents bousculent en profondeur la notion même de contrôle organisationnel. Lorsqu’une multitude d’agents interagissent et apprennent en continu, le système devient difficile à anticiper. Cette incertitude expose les organisations à trois types de risques majeurs :
- Asymétrie d’information : les agents échangent entre eux des données, des signaux ou des interprétations que les humains ne perçoivent pas. Des décisions se prennent alors « sous le radar », hors du champ de supervision classique.
- Effet de boucle : une décision produite par un agent devient la donnée d’entraînement d’un autre. Ces boucles d’apprentissage peuvent amplifier des schémas jusqu’à créer des comportements collectifs auto-renforcés, voire incontrôlables.
- Désalignement des objectifs : chaque agent poursuit sa mission locale (optimiser un coût, améliorer un taux, accélérer un processus) mais, ensemble, ils peuvent détourner le système de son objectif global : performance durable, équité, ou responsabilité.
Autrement dit, le risque majeur n’est plus l’erreur ponctuelle d’un modèle, mais la dynamique collective qui s’emballe. La fragmentation du contrôle, entre agents, départements, et niveaux d’autonomie, devient ainsi le nouveau défi stratégique pour les organisations.
Que faire ?
Face à ces dynamiques émergentes, le management doit changer d’échelle : il ne s’agit plus de contrôler les actions individuelles, mais de gouverner les interactions et d’orienter les systèmes vers des comportements collectifs désirables. Pour relever ce défi, trois axes de gouvernance permettent d’agir sur la dynamique du système :
Gouverner les interactions, pas seulement les modèles
Les comportements émergents naissent rarement d’un modèle isolé : ils viennent des échanges entre agents, de la façon dont ils communiquent, apprennent et s’ajustent mutuellement. Il faut donc concevoir des protocoles d’interopérabilité et de supervision : règles d’échange, seuils d’alerte, mécanismes d’escalade en cas d’anomalie. C’est une nouvelle compétence managériale : un management des interfaces, plus que des individus ou des outils.
Surveiller les signaux faibles systémiques
Plutôt que d’essayer de contrôler chaque décision, il faut observer le système dans son ensemble. Les comportements émergents se détectent par des indices subtils : une corrélation soudaine entre décisions d’agents, une homogénéisation inattendue des réponses, ou des boucles de rétroaction qui s’emballent. Cela suppose de piloter par les dynamiques, pas par les résultats : mettre en place des capteurs, des métriques et des tableaux de bord qui mesurent la cohérence du système plutôt que sa simple performance.
Définir un cadre d’intentions partagés
Enfin, chaque agent doit être guidé par une intention claire, alignée sur la stratégie et les valeurs de l’organisation. Il ne s’agit pas seulement de fixer des objectifs techniques, mais d’ancrer chaque système dans un cadre de sens et de responsabilité. Cette approche, qu’on appelle aujourd’hui la governance by design, consiste à intégrer dès la conception des agents des principes de loyauté, de transparence et d’alignement éthique.
En conclusion
Les agents d’IA ne sont plus de simples outils au service des organisations : ce sont désormais des acteurs autonomes, capables d’agir, d’apprendre et d’interagir, qui participent à la transformation des structures de l’intérieur. Leur force tient à leur capacité à coopérer, s’adapter et inventer des comportements collectifs nouveaux, parfois bénéfiques, parfois déstabilisants.
Face à eux, le rôle du management change de nature. Comprendre et encadrer les comportements émergents devient le cœur du pilotage algorithmique : il ne s’agit plus de commander ni de contrôler, mais d’observer, comprendre et orienter des systèmes intelligents capables d’évoluer par eux-mêmes.
En d’autres termes, le management de demain ne dirigera pas seulement des personnes ou des processus, il apprendra à dialoguer avec des formes d’intelligence qui lui échappent partiellement.
il ne peut pas avoir d'altmétriques.)