Citation
L'auteur
Philippe JEAN-BAPTISTE
(philippejb@icloud.com) - LEST - Laboratoire d'Économie et de Sociologie du Travail UMR 7317 I CNRS – Aix Marseille Université - ORCID : https://orcid.org/0000-0003-0656-7588
Copyright
Déclaration d'intérêts
Financements
Aperçu
Contenu
Ce volet 4 s’inscrit dans la série L’intelligence artificielle en action. après avoir examiné la reconnaissance d’image – « Voir comme une machine » – et ses limites managériales (Jean-Baptiste, 2025a), puis la reconnaissance vocale – « Ecouter comme une machine » – et ses implications en contexte de travail (Jean-Baptiste, 2025b), et enfin la traduction automatique – « Parler toutes les langues comme une machine » – et ses usages/contraintes organisationnels (Jean-Baptiste, 2025c), nous abordons ici la génération de texte : que signifie, pour une IA, « Ecrire comme une machine » ?
Depuis la sortie de ChatGPT en novembre 2022, les outils de génération automatique de texte sont entrés dans l’usage quotidien d’un nombre croissant d’undividus, de professionnels et d’organisations. Alimentés par des modèles de langage de grande taille (LLMs), tels que GPT-3.5, GPT-4 (OpenAI et al., 2024), Claude (Anthropic) ou Gimini (Google DeepMind), ces systèmes sont capables de rédiger des textes cohérents, pertinents, et parfois créatifs, en réponse à des consignes formulées en langage naturel.
Ces modèles ont été entraïnés sur des milliards de mots extraits d’Internet, de livres, d’articles scientifiques, de forums ou de scripts informatiques. Leur fonctionnement repose sur une capacité statistique à prédire la probabilité d’occurence d’un mot donné, en fonction des mots précédents dans la séquence (Brown et al., 2020). En d’autres termes, ils ne comprennent pas le sens des mots comme un humain, mais produisent des textes qui « font sens » par imitation des régularités linguistiques du corpus d’apprentissage (Bender et al., 2021).
La diffusion massive de ces technologies transforme en profondeur les pratiques d’écriture dans de nombreux secteurs : communication, marketing, administration, éducation, journalisme, recherche… Des tâches autrefois longues et complexes – comme la rédaction d’un rapport, la synthèse d’un article ou la reformulation d’un mail – peuvent désormais être automatisées, au moins partiellement.
Mais cette automatisation de l’écriture soulève également de nombreux débats : quelles sont les limites cognitives de ces systèmes ? Dans quelle mesure peuvent-ils produire des bisiais, halluciner des faits, ou masquer l’origine des sources ? quel impact sur les compétences humaines d’écriture, de critique, de style ? Et comment repenser l’éthique de l’écrit à l’ère des machines scriptrices ?
Pour les managers, la question n’est pas seulement « que peut écrire la machine ? », mais « comment organiser un processus éditorial augmenté où la responsabilité, la qualité et l’éthique restent humaines ». Ce volet propose des repères opérationnels (rôles, rituels, indiateurs) pour piloter l’écriture assistée sans perdre le sens, ni la confiance.
Usages professionnels : déléguer l’écriture
L’introduction des modèles de génération automatique de texte dans les organisations bouleverse les routines d’écriture traditionnelles. De nombreux métiers autrefois fondés sur la production rédactionnelle voient désormais émerger de nouvelles pratiques hybrides, dans lesquelles l’humain oriente, valide ou ajuste le contenu généré par la machine.
Dans le secteur du marketing, par exemple, les plateformes basées sur GPT (comme Jasper.ai, Copy.ai ou Writesonic) sont utilisées pour générer des slogans, des descriptions de produits, des publications pour les réseaux sociaux, ou des emails commerciaux personnalisés à grande échelle (Kshetri et al., 2024; Kumar et al., 2024). Ces outils permettent de produire rapidement des variantes textuelles, d’optimiser le référencement (SEO) ou de tester différents tons de communication, tout en réduisant les délais de création. Côté management, formaliser un guide de style (ton, registres, inclusivité), imposer des A/B tests avant diffusion, et exiger des sources pour toute affirmation factuelle. le manager valide la pertinence (message / marque) et la licéité (claims, conformité).
➜ « Du prompt au brouillon : Copilot pour Word & Powerpoint.« Cette vidéo illustre la génération multivariants et l’orchestration éditoriale : Lien YouTube
Dans le domaine de la relation client, des IA génératives composent des réponses automatiques à des demandes fréquentes, enrichies de données contextuelles issues des CRM. Microsoft a annoncé Dynamics 365 Copilot, qui intègre des modèles GPT via Azure OpenAI Service pour assister les agents (Lamanna, 2023), et détaille l’usage GPT-4 pour améliorer en continu les modèles au sein de Dynamics 365 et Power Platform (Team, 2023). Des retours clients documentent par ailleurs des gains opérationnels liés à l’adoption d’Azure OpenAI Service (Microsoft Customer Story, 2024). Manager de plateau : définir qui signe les réponses, activer la traçabilité (prompts, versions de modèles), restreindre les connecteurs (principe du moindre privilège) et instaurer un stop-ship en l’absence de relecture sur messages sensibles (juridique, commercial, crise).
➜ « Assistance à la rédaction de réponses clients dans Dynamics 365. » Cette vidéo illustre la génération multivariants et l’orchestration éditoriale : Lien YouTube
Les services juridiques ou financiers explorent également l’automatisation partielle de la rédaction de documents types : lettres de relance, contrats standardisés, synthèses réglementaires. Dans ces cas, l’IA sert à produire un premier jet, que le professionnel vient relire, adaptater et valider, dans une logique d’assistance augmentée plutôt que de substitution. En contexte sensible, l’IA produit un brouillon, jamais un document exécutoire. le manager impose : check-list factualité / citations, validation métier obligatoire, et archivage de la preuve de source (URL, date, auteur).
Dans le journalisme, la génération de textes par IA est expérimentée pour produire des articles factuels simples, comme les résultats sportifs ou les bulletings économiques, sur la base de données structurées. L’agence Associated Press l’utilise depuis 2015 pour publier automatiquement des milliers de brèves économiques (Graefe, 2016). Le management éditorial met en place un comité de relecture et une politique de transparence (mention d’assistance IA quand pertinent). Objectif : protéger la marque et la crédibilité.
Enfin, les usages dans l’enseignement supérieur et la recherche font l’objet de débats plus vifs : si des chercheurs utilisent GPT pour reformuler un abstract ou générer des titres provisoires, certains étudiants y recourent pour rédiger partiellement des devoirs, suscitant des craintes sur la perte d’autonomie cognitive et la trice académique (Cotton et al., 2023). Manager pédagogique : publier une charte d’usage (ce qui est permis / interdit), expliciter les critères d’évaluation (démarche, sources, analyse), et prévoir un dispositif d’accompagnement (méthodo, éthique).
Dans tous ces cas, l’IA n’écrit pas seule. Elle devient un partenaire rédactionnel, dont la valeur dépend étroitement de la capacité de l’humain à formuler une bonne consigne, à relier avec esprit critique, et à contextualiser la production. Le métier d’écrivain professionnel se transforme : il ne s’agit plus seulement de « produire un texte », mais de co-concevoir une intention, un style et une responsabilité de l’écrit.
Manager : votre grille d’aide à la décision (RACI & KPIs)
- Rôles (RACI) : Auteur métier (R), Relecteur critique (A), Data owner des sources / RAG (C), Conformité / DPO (C), Communicationb / Legal (I).
- Rituels : brief de consigne (prompt) ➜ 1er jet IA ➜ double relecture ➜ validation ➜ diffusion.
- KPIs : temps de cycle, % de contenus sourcés, taux d’erreurs factuelles détectées, conformité guide de style, incidents (sécurité / PII).
- Règles d’or : jamais de diffusion externe sans relecture humaine; sources visibles; journalisation (prompts / versions); « no-train-on-outputs » par défaut.
Risques, limites… et garde-fous pour l’écriture assistée
Malgré leurs performances, les modèles génératifs restent sujets à des erreurs factuelles (« hallucinations »), à la propagation de biais, et à des fragilités de sécurité (prompt injection, fuites de données). Ces limites prennent une dimension opérationnelle dès lors que l’on confie à l’IA une part du travail d’écriture dans l’entreprise (Weidinger et al., 2021).
Factualité et « hallucinations »
Les modèles génératifs peuvent produire des textes plausibles mais factuellement faux – noms inventés, dates erronées, références inexistantes – même lorsque la forme est convaincante. La littérature parle de « hallucinations », c’est-à-dire contenus non fidèles aux sources ou non fondés dans le monde réel (définition, typologie, mécanismes) (Ziwei et al., 2023). Ces phénomènes sont documentés de longue date dans la synthèse automatique (résumés), où des modèles « forgent » des entités/évènements non présents dans le document d’origine (Maynez et al., 2020).
Dans les usages professionnels (rapport, note-client, e-mail, compte rendu), ces erreurs sont critiques, car elles se diluent dans un texte fluide. Les approches de gouvernance de la factualité progressent : détection (mesure d’incertitude/entropie), protocoles d’évaluation humaine, et pipelines de vérification a posteriori (Farquhar et al., 2024) – mais aucune ne suffit seule, surtout en contexte ouvert.
Un levier courant est le RAG (retrieval-augmented generation, génération augmentée par recherche), qui ancre la réponse sur des documents de référence. Toutefois, même avec RAG, les modèles peuvent halluciner (erreurs d’extraction, de citation, ou d’assemblage), comme le montre RAGTruth, un corpus de ≈ 18.000 réponses annotées au mot pour repérer les hallucinations dans des scénarios RAG (Niu et al., 2024). Le RAG réduit le risque mais ne l’annule pas; tout dépend de la qualité du corpus, du retrieval, et des règles de citation.
Deux familles de contre-mesures sont complémentaires :
- Outillage pro-vérité : forcer le modèle à consulter des outils externes (moteur de recherche, calculatrice, base juridique…) plutôt que d' »inventer »; détecter a posteriori les passages douteux, comme la détection par incohérences inter-échantillons (Schick et al., 2023).
- Processus humains : relecture systématique des items sensibles (chiffres, noms propres, jurisprudences), obligation de sources (affichées/citées), et workflow d’approbation (qui signe la version finale ?).
Pour les managers – protocole factuel en 6 points :
- Exiger des sources visibles (citations / URLs) pour tout fait/chiffre.
- RAG interne : corpus validé + log du retrieval.
- Double lecture sur chiffres / noms propres / jurisprudences.
- Liste rouge (sujets à risque) = relecture Legal / comms.
- Outils de vérification (calculatrice, recherche, détecteurs d’incohérence).
- Journaliser (prompts / versions / validateurs) ➜ auditabilité.
|
Quand l’IA « invente » des jurisprudence : Mata v. Avianca (S.D.N.Y., 2023) En juin 2023, un tribunal fédéral de New-York a sanctionné des avocats pour avoir déposé un mémoire contenant plusieurs décisions judiciaires inexistantes, générées par un modèle de langage. l’ordonnance détaille les vérifications demandées par le juge et la découverte des « fake cases » cités dans le dossier (Opinion and Order on Sanctions). Au-delà du cas d’école, cet épisode illustre le biais d’automatisation : la confiance excessive dans un texte « bien écrit » sans contrôle des sources. Leçons pour les organisations : interdiction de citations non vérifiées, journalisation des sources, et responsabilité éditoriale clairement assignée. |
➜ « Hallucinations juridiques : le cas Mata V. Avianca (S.D.N.Y., 2023). » Cette vidéo illustre la génération multivariants et l’orchestration éditoriale : Lien YouTube
Biais, style et responsabilité éditoriale
Les modèles génératifs apprennent sur des corpus massifs contenant des stéréotypes et des angles dominants. Ils peuvent donc reproduire – voire amplifier – des biais de genre, de race, de statut ou de classe sociale, en plus de générer des formulations toxiques selon certains contextes. Les synthèses de risques pour LLM montrent que ces dérives ne sont pas marginales : elles relèvent d’un paysage de risques structurés (discrimination/exclusion, tixicité, mésinformation, usages malveillants, effets HCI) et exigent une gouernace dédiée (Weidinger et al., 2021; Weidinger et al., 2022).
Sur le plan empirique, des travaux mettent en évidence que de simples variations de groupes démographiques mentionnés dans les prompts modifient la « considération » (regard) ou la probabilité de contenus négatifs dans le texte généré (mesures automatiques + annotation humaine) (Sheng et al., 2019). Par ailleurs, des prompts apparemment inoffensifs peuvent « dégénérer » vers des sorties toxiques; c’est précisément ce que documente le jeu RealToxicityPrompts, conçu pour tester et comparer les modèles (Gehman et al., 2020).
Côté style, l’alignement et le filtrage de sécurité réduisent une partie des contenus problématiques, mais ils tendent aussi à homogénéiser la prose (ton neutre, formules attendues). Cet effet « moyennant » peut lisser des nuances culturelles, des registres professionnels ou des styles éditoriaux propres à l’organisation – un enjeu lorsqu’on produit des contenus de marque ou des documents sensibles. Les appels à la prudence de la communauté (ex. « Stochastic Parrots ») insistent sur la traçabilité des données, la diversité linguistique et la clarté des limites d’usage (Bender et al., 2021).
Sur le plan de la responsabilité éditoriale, des politiques de revues scientifiques (ex. Nature) rappellent que les LLM ne peuvent pas être auteurs et que l’usage de ces outils doit être documenté, la responsabilité restant humaine sur le contenu final. c’est un bon repère pour l’entreprise : reconnaître l’assistance, mais assumer la signature.
Enfin, les tecniques d’alignement (ex.RLHF) et les cartes systèmes (system cards) (OpenAI, s. d.) de modèles récents montrent des restrictions mesurables de toxicité et de sorties indésirables, sans les éliminer totalement; d’où la nécessité d’un workflow éditorial (relecture, validation, consignes de style) et d’un cadre d’usage explicite (Ouyang et al., 2022).
Pour les managers – vos 3 gardes-fous anti-biais :
- Mesurer trimestriellement (jeu RealToxicityPrompts, échantillon interne sensible).
- Ajuster (prompts de garde-fou, filtres, RLHF fournisseur).
- Gouverner (note d’usage, revue éditoriale pour sorties publiques, formation équipes).
|
Quand style, biais et responsabilité vacillent : 3 cas et un rappel juridique CNET : articles générés par IA, corrections massives et soupçons de plagiat Fin 2022-début 2023, NET publie des dizaines d’articles « finance perso » rédigés par un outil IA. Après critiques internes et publiques, la rédaction corrige 41 des 77 articles et met en pause l’expérimentation; plusieurs enquêtes relèvent aussi des similarités/plagiats. Le cas a cristalisé des enjeux de transparence, de contrôle éditorial et de qualité (Bonifacic, 2023; Christian, 2023; Fingas, 2023). Gannett : comptes rendus sportifs « robotiques », programme stoppé A l’été 2023, Gannett (USA Today Network) diffuse des recaps AI de matchs de lycées. Le style est jugé stéréotypé et pauvre (ex. « a close encounter of the athletic kind »), avec des errurs et un manque de contexte – l’éditeur suspend le pilote après moqueries publiques. illustration d’un style homogénéisé qui nuit à la valeur journalistique (Buchanan, 2023; Geigner, 2023; Wu, 2023). Sports Illustrated : faux auteurs et crise de confiance En novembre 2023, Futurism révèle des profils d’auteurs non-existants associés à des contenus suspectés d’être générés par IA; les pages sont retirées, et le groupe éditeur (The Arena Group) est rapidement secoué au sommet de sa direction. Un cas emblématqiue de perte de confiance liée à l’opacité des processus éditoriaux avec IA (Dupré, 2023a, 2023b). Rappel juridique : l’organisation reste responsable des sorties de son agent IA En 2024, la Civil Resolution Tribunal de Colombie-Britannique estime Air Canada responsable d’informations erronnées fournies par son chatbot à un client au sujet d’un tarif de deuil. L’argument « le bot est un tiers » est rejeté : l’entreprise répond de ce que est publié en son nom. Message clair pour tout copilote d’écriture public ou client (Cecco, 2024; Syme, 2024). Ce que ces cas enseignent aux managers :
|
Sécurité & confidentialité (prompt-injection, fuites)
Les applications d’écriture assistée par LLM ouvrent une nouvelle surface d’attaque : l’agent peut être amené à obéir à des instructions cachées dans l’entrée (prompt) ou dans des données externes récupérées (page web, PDF, e-mail, évènement calendrier…), puis divulguer des secrets, contourner des politiques ou exécuter des actions non autorisées. c’est l’objet du central du OWASP Top 10 for LLMs (LLM01 : Prompt Injection), qui classe ces vecteurs parmi les risques majeurs des apps GenAI (OWASP, 2023–2025 ; Cloudflare, 2025).
Prompt-injection « directe » vs « indirecte »
- Directe : l’utilisateur insère dans le prompt des consignes pour écarter les garde-fous (« ignore les règles », « révèle le contexte », etc.).
- Indirecte : les instructions malveillantes sont das la donnée que l’agent consulte (site, document, évènement…), et sont interprétées comme des ordres. C’est le scénario mis en évidence par Greshake et al. : l’appli LLM confond données et instruction, permettant une compromission « à distance (indirect prompt injection).
RAG, connecteurs et exfiltration
Même en mode RAG (génération augmentée par recherche), la simple « ancre documentaire » ne suffit pas : un document injecté peut pousser l’agent à dévoiler des informations de session, à résumer des secrets ou à appeler des outils de façon abusive. Les guides récents (bmsft, 2025; Farley, 2025); OWASP, 2023–2025) détaillent ces risques et préconisent des défenses : séparation stricte des rôles, principe du moindre privilège sur les outils, filtrage des sorties/entrées, journalisation et sanitisation.
Etat de l’art des défenses
- Politiques « zero-trust » pour les agents : aucun accès implicite; allowlist d’outils, contenu externe traité comme non fiable, pas d’actions à privilége sans validation humaine (LLM Prompt Injection Prevention – OWASP Cheat Sheet Series, s. d.).
- Boucliers / pare-feu IA : détection de tentatives d’injection, de PII, de data exfiltration et de consommation non bornée; durcissement des sessions (content security, markdown sanitization, egress control) (Weaver et al., 2025).
Rôles et runbook sécurité côté management :
- AI Product Owner (manager) : définit périmètre, allowlist d’outils, niveaux d’approbation.
- DSI/DPO : contrôle connecteurs, DPAI si RH / Juridique, audits.
- Runbook incident : qui alerte, coupe les connecteurs, notifie DPO/Comms, analyse post-mortem et plan d’actions.
|
Deux cas concrets (presse & produits) qui montrent le risque… et les parades « Imprompt(er) attack » : extraire discrètement des données personnelles Des chercheurs (UC San Diego & NTU) (Burgess, 2024; Fu et al., 2024) présentent Imprompter, une attaque qui encode des instructions malveillantes dans une chaîne apparemment aléatoire : l’agent est amené à collecter des infos personnelles dans l’historique et à les exflitrer vers un domaine contrôlé par l’attaquant. testée sur plusieurs assistants (dont LeChat/mistral), elle affiche jusqu’à ≈ 80% de réussite; les éditeurs ont déployé des correctifs. La leçon : ne jamais faire confiance au contenu d’entrée, classifier et filtrer prompts/sorties, contrôler les egress. « Promptware » via invitation calendrier : l’écosystème comme surface d’attaque En 2025, SafeBreach démontre qu’un évènement Google Calendar piégé peut déclencher des instructions cachées pour Gemini, menant à des mise sous spam, à la fuite d’emplacement ou de correspondances. Google a communiqué des mitigations; l’affaire rappelle que l’IA imbriquée aux apps métiers hérite de leur surface d’attaque. La leçon : allowlist des sources, désactivation des parsing non nécessaires, et revue sécurité des connecteurs (mail, calendrier, drive) (James, 2025; Mott, 2025; Nassi et al., 2025). |
Dépendance cognitive et « automatisation bias »
Lorsqu’un système paraît fiable, les utilisateurs ont tendance à sur-faire confiance a ses suggestions et à relâcher leur vigilance – c’est l’automation bias. deux mécanismes dominent :
- les erreurs d’omission (on ne cherche plus d’informations alternatives)
- les erreurs de commission (on suit une recommandation erronée). Les travaux fondateurs en facteurs humains montrent que ce biais apparaît chez les novices comme les experts, surtout en charge multitâche ey lorsque l’automate affiche une fiabilité perçue élevée (Goddard et al., 2012; Parasuraman & Manzey, 2010; Skitka et al., 2000).
Avec les LLM, l’interface conversationnelle accentue l’effet : des expériences contrôlées confirment une sur-confiance dans les conseils d’IA – y compris pour des décsisions risquées ou à fort enjeu – et une baisse de l’esprit critique chez les participants (Klingbeil et al., 2024). Dans le domaine de la santé, des études récentes montrent que des non-experts jugent parfois des réponses IA plus complètes et fiables que celles de médecins, même lorsqu’elles sont moins exactes – un résultat emblématique du risque de sur-confiance (Shekar et al., 2025).
Implication managériale : dans l’écriture assistée (notes, e-mails, briefs, compte rendus), l’automation bias se traduit par une acceptation sans contrôle de formulations ou d’affirmations erronées, une uniformisation des angles, et une délégation implicite de la responsabilité éditoriale.
Rituel manager : imposer une check-list de validation (faits, noms, sources, sens/ton), rendre obligatoire la relecture humaine pour toute diffusion externe, et afficher l’incertitude (avertissements, liens sources) pour contrer la sur-confiance.
|
Quand la sur-confiance coûte cher : trois cas parlants Décision risquée : on suit l’IA… même quand elle a tort Dans une expérience comportementale (décision financière à risque), des participants surestiment les conseils de l’IA et surréagissent à ses recommandations, au détriment de la performance collective. Simplement savoir que c’est une IA augmente la reliance; l’effet persiste même après avertissements (Klingbeil et al., 2024). Santé : des réponses IA jugées plus « fiables » que celles de médecins 2tude MIT/NEJM AI : des non-experts évaluent des réponses générées par IA (qualifiées de qualité variable par des cliniciens) comme plus complètes/fiables que des réponses de médecins – signe d’un biais de confiance potentiellement dangereux si la vérification clinique fait défaut(Shekar et al., 2025). « Life-or-death » simulé : le robot fait changer d’avis En contexte de choix critique simulé, ≈ 2/3 des participants se rangent de l’avis d’un robot, malgré l’avertissement que ses conseils peuvent être faux – démonstration forte d’overreliance (Murray, 2024). |
Données d’entraînement et « model collapse »
Pour gagner en volume et couvrir des cas rares, de plus en plus d’équipent complètent leurs corpus avec des données synthétiques. Bien utilisées (curation, contrôle qualité, mélange équilibré), elles peuvent aider. Mais a littérature met en garde contre un risque structurel : le « model collapse ». Lorsque des modèles sont ré-entraînés sur leurs propres productions (ou sur des contenus IA circulant en ligne), ils tendent à perdre de la diversité et à amplifier des erreurs, jusqu’à oublier des régions entières de la distribution d’origine (effets sur la queue de distribution, appauvrissement lexical) (Shumailov et al., 2024).
Deux lignes de preuves se renforcent :
- Analytique + empirique (MAD). En « boucle autophage », la qualité (précision) ou la diversité (rappel) décroît à chaque génération si l’on n’injecte pas assez de données humaines fraîches. Les auteurs qualifient ce syndrome de Model Autophagy Disorder (MAD) (Alemohammad et al., 2023).
- Cassure… mais évitable. Des travaux récents montrent que le collapse n’est pas inéluctable : en accumulant soigneusement réel + synthétique, en contrôlant la diversité, la déduplication et le ratio par itération, on peut casser la malédiction (Gerstgrasser et al., 2024).
Au-delà des labos, la presse spécialisée à documenté des exemples parlants (par exemple un modèle qui dérive vers des sorties absurdes quand on boucle sur du synthétique; discussion sur les filigranes/watermarks pour exclure ces contenus de futurs jeux d’entrainement). Pour les managers, l’enjeu est simple : préserver la valeur de l’écrit en évitant les boucles closes où l’on ré-entraine un assistant… avec ce qu’il a lui-même produit (Peel, 2024).
Décision managériale : politique « no-train-on-outputs » par défaut, ratio minimal de données humaines fraîches à chaque itération, déduplication stricte, et tests de cas rares comme garde-fou qualité.
|
Quand la boucle se referme : le risque « autophage » expliqué au COMEX Le constat. A mesure que les contenus IA inondent le web, ils sont récupérés par les pipelines d’entraînement suivants. Boucler plusieurs générations sur ces données mène à des sorties stéréotypées, à la répétition et à des erreurs qui s’auto-entretiennent (ex. dérives « absurdes » citées par la presse économique. Ce que disent les travaux.
|
Cadre réglementaire (UE) : GPAI & cas d’usage « haut risque »
Où en est-on, concrètement ?
L’AI act est entré en vigueur le 1er août 2024 (publication JOUE le 12 juillet 2024, Règlement (UE) 2024/1689). Les interdictions (pratiques « inacceptables ») et les obligations d’éducation à l’IA sont applicables depuis le 2 février 2025; les obligations GPAI (modèles d’IA à usage général) le sont depuis le 2 août 2025; la majorité des règles « haut risque » s’appliquent à partir du 2 août 2026 (jusqu’au 2 août 2027 pour les systèmes intégrés à des produits régulés, par exemple les dispositifs médicaux).
GPAI : ce qui est attendu des fournisseurs
Depuis le 2 août 2025, les fournisseurs de modèles GPAI doivent respecter des exigences de transparence (documentation technique, infos sur l’entraînement, respect du droit d’auteur), et, pour les modèles à risque systémique (seuil d’empreinte de calcul ≥ 10^25 FLOP), des obligations supplémentaires (notification à la commission, évaluations de sécurité, cybersécurité renforcée). La Commission a publié le code pratique GPAI (10 juillet 2025) comme instrument volontaire pour démontrer la conformité (EU Rules on General-Purpose AI Models Start to Apply, Bringing More Transparency, Safety and Accountability | Shaping Europe’s Digital Future, s. d.; The General-Purpose AI Code of Practice | Shaping Europe’s Digital Future, s. d.).
« Haut risque » : quand votre cas d’usage bascule-t-il ?
Deux voies de classification :
- systèmes utilisés comme composants de sécurité de produits déjà régulés;
- systèmes figurant à l’Annexe III (par exemple emploi & gestion des travailleurs : recrutement, affectation, évaluation, promotion, résiliation). Une fois classé « haut risque », le système doit satisfaire aux exigences des articles 9 à 15 : gestion des risques (art. 9), gouvernance des données (art. 10), documentation technique (art. 11), journalisation (art. 12), transparence envers les déployeurs (art. 13), supervision humaine (art. 14), précision/robustesse/cybersécurité (art. 15).
Sanctions : ordre de grandeur
Le régime de pénalités prévoit jusqu’à 35 M€ ou 7% du CA mondial pour les pratiques interdites; jusqu’à 15 M€ ou 3% pour d’autres manquements; 7,5 M€ ou 1% pour informations trompeuses aux autorités (plafonds adaptés aux PME/startup). Les institutions européennes et plusieurs analyses juridiques convergent sur ces montants (Artificial Intelligence Act, 2023; Hickman et al., 2024).
Manager : votre check de conformité (AI Act) :
- Clarifier le cas d’usage (Annexe III = RH / gestion des travailleurs ➜ haut risque)
- Exiger du fournisseur GPAI sa documentation (transparence, droit d’auteur)
- Mettre en place : gestion des risques (art. 9), gouvernance des données (art. 10), supervision humaine (art. 14), journalisation (art. 12).
- Avant produ : évaluation de conformité interne (Legal / DPO / DSI), dossier de preuves (process, tests biais / factualité, logs).
➜ « L’AI Act en 3 minutes : principes et calendrier. » Cette vidéo illustre la génération multivariants et l’orchestration éditoriale : Lien YouTube
Ecrire avec l’IA, ce n’est pas déléguer le jugement : c’est réorganiser le travail de l’écrit. Le rôle du manager devient celui d’un chef d’orchestre : cadrer l’usagen donner les bonnes consignes, vérifier le factuel, protéger les personnes et la marque. Avec des rituels simples et des responsabilités claires, l’écriture assistée devient un levier de qualité et non un risque.
Bibliographie
- AI Act – Article 6 & Annexe III. (s. d.). Article 6 : Règles de classification des systèmes d’IA à haut risque | Loi européenne sur l’intelligence artificielle. Consulté 30 septembre 2025, à l’adresse https://artificialintelligenceact.eu/fr/article/6/
- Alemohammad, S., Casco-Rodriguez, J., Luzi, L., Humayun, A. I., Babaei, H., LeJeune, D., Siahkoohi, A., & Baraniuk, R. G. (2023). Self-Consuming Generative Models Go MAD (No. arXiv:2307.01850). arXiv. https://doi.org/10.48550/arXiv.2307.01850
- Artificial Intelligence Act : Deal on comprehensive rules for trustworthy AI | News | European Parliament. (2023, décembre 9). https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai
- Artificial Intelligence (AI) | Nature Portfolio. (s. d.). Consulté 30 septembre 2025, à l’adresse https://www.nature.com/nature-portfolio/editorial-policies/ai
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots : Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610‑623. https://doi.org/10.1145/3442188.3445922
- bmsft, denise. (2025). Security for Microsoft 365 Copilot. https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-ai-security
- Bonifacic, I. (2023, janvier 25). CNET had to correct most of its AI-written articles. Engadget. https://www.engadget.com/cnet-corrected-41-of-its-77-ai-written-articles-201519489.html
- Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., … Amodei, D. (2020). Language Models are Few-Shot Learners (No. arXiv:2005.14165). arXiv. https://doi.org/10.48550/arXiv.2005.14165
- Buchanan, T. (2023, août 28). Columbus Dispatch pauses AI sports writing tool following viral story. Axios. https://www.axios.com/local/columbus/2023/08/28/dispatch-gannett-ai-newsroom-tool
- Burgess, M. (2024). This Prompt Can Make an AI Chatbot Identify and Extract Personal Details From Your Chats. Wired. https://www.wired.com/story/ai-imprompter-malware-llm/
- Cecco, L. (2024, février 16). Air Canada ordered to pay customer who was misled by airline’s chatbot. The Guardian. https://www.theguardian.com/world/2024/feb/16/air-canada-chatbot-lawsuit
- Christian, J. (2023, janvier 23). CNET’s AI Journalist Appears to Have Committed Extensive Plagiarism. Futurism. https://futurism.com/cnet-ai-plagiarism
- Commission européenne. (2025). EU rules on general-purpose AI models start to apply, bringing more transparency, safety and accountability | Shaping Europe’s digital future. https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability
- Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2024). Chatting and cheating : Ensuring academic integrity in the era of ChatGPT. Innovations in Education and Teaching International, 61(2), 228‑239. https://doi.org/10.1080/14703297.2023.2190148
- Dupré, M. H. (2023a, novembre 27). Sports Illustrated Published Articles by Fake, AI-Generated Writers. Futurism. https://futurism.com/sports-illustrated-ai-generated-writers
- Dupré, M. H. (2023b, décembre 11). Sports Illustrated Publisher Fires CEO After AI Scandal. Futurism. https://futurism.com/sports-illustrated-publisher-fires-ceo
- EU rules on general-purpose AI models start to apply, bringing more transparency, safety and accountability | Shaping Europe’s digital future. (s. d.). Consulté 30 septembre 2025, à l’adresse https://digital-strategy.ec.europa.eu/en/news/eu-rules-general-purpose-ai-models-start-apply-bringing-more-transparency-safety-and-accountability
- Farley, P. (2025). Prompt Shields in Azure AI Content Safety—Azure AI services. https://learn.microsoft.com/en-us/azure/ai-services/content-safety/concepts/jailbreak-detection
- Farquhar, S., Kossen, J., Kuhn, L., & Gal, Y. (2024). Detecting hallucinations in large language models using semantic entropy. Nature, 630(8017), 625‑630. https://doi.org/10.1038/s41586-024-07421-0
- Fingas, J. (2023, janvier 20). CNET pauses publication of AI-written stories amid controversy. Engadget. https://www.engadget.com/cnet-pauses-ai-written-stories-211548131.html
- Fu, X., Li, S., Wang, Z., Liu, Y., Gupta, R. K., Berg-Kirkpatrick, T., & Fernandes, E. (2024). Imprompter : Tricking LLM Agents into Improper Tool Use (No. arXiv:2410.14923). arXiv. https://doi.org/10.48550/arXiv.2410.14923
- Gehman, S., Gururangan, S., Sap, M., Choi, Y., & Smith, N. A. (2020). RealToxicityPrompts : Evaluating Neural Toxic Degeneration in Language Models. In T. Cohn, Y. He, & Y. Liu (Éds.), Findings of the Association for Computational Linguistics : EMNLP 2020 (p. 3356‑3369). Association for Computational Linguistics. https://doi.org/10.18653/v1/2020.findings-emnlp.301
- Geigner, T. (2023, septembre 1). Gannett Stops Using AI To Write Articles For Now Because They Were Hilariously Terrible. Techdirt. https://www.techdirt.com/2023/09/01/gannett-stops-using-ai-to-write-articles-for-now-because-they-were-hilariously-terrible/
- Gerstgrasser, M., Schaeffer, R., Dey, A., Rafailov, R., Korbak, T., Sleight, H., Agrawal, R., Hughes, J., Pai, D. B., Gromov, A., Roberts, D., Yang, D., Donoho, D. L., & Koyejo, S. (2024, août 26). Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data. First Conference on Language Modeling. https://openreview.net/forum?id=5B2K4LRgmz
- Gerstgrasser, M., Schaeffer, R., Dey, A., Rafailov, R., Sleight, H., Hughes, J., Korbak, T., Agrawal, R., Pai, D., Gromov, A., Roberts, D. A., Yang, D., Donoho, D. L., & Koyejo, S. (2024). Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data (No. arXiv:2404.01413). arXiv. https://doi.org/10.48550/arXiv.2404.01413
- Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias : A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association : JAMIA, 19(1), 121‑127. https://doi.org/10.1136/amiajnl-2011-000089
- Graefe, A. (2016). Guide to Automated Journalism. https://doi.org/10.7916/D80G3XDJ
- Greshake, K., Abdelnabi, S., Mishra, S., Endres, C., Holz, T., & Fritz, M. (2023). Not what you’ve signed up for : Compromising Real-World LLM-Integrated Applications with Indirect Prompt Injection (No. arXiv:2302.12173). arXiv. https://doi.org/10.48550/arXiv.2302.12173
- Hickman, T., Lorenz, S., Teetzmann, C., & Jha, A. (2024, juillet 16). Long awaited EU AI Act becomes law after publication in the EU’s Official Journal | White & Case LLP. https://www.whitecase.com/insight-alert/long-awaited-eu-ai-act-becomes-law-after-publication-eus-official-journal
- James, L. (2025). Compromised Google Calendar invites can hijack ChatGPT’s Gmail connector and leak emails | Tom’s Hardware. https://www.tomshardware.com/tech-industry/cyber-security/researcher-shows-how-comprimised-calendar-invite-can-hijack-chatgpt
- Jean-Baptiste, P. (2025a). L’IA en action : Ecouter comme une machine. Management & Datascience, 9(5). https://management-datascience.org/articles/55347/
- Jean-Baptiste, P. (2025b). L’IA en action : Voir comme une machine. Management & Datascience, 9(4). https://management-datascience.org/articles/55033/
- Jean-Baptiste, P. (2025c). L’intelligence artificielle en action : Parler toutes les langues comme une machine. Management & Datascience. https://management-datascience.org/articles/55409/
- Klingbeil, A., Grützner, C., & Schreck, P. (2024). Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI. Computers in Human Behavior, 160, 108352. https://doi.org/10.1016/j.chb.2024.108352
- Kshetri, N., Dwivedi, Y. K., Davenport, T. H., & Panteli, N. (2024). Generative artificial intelligence in marketing : Applications, opportunities, challenges, and research agenda. International Journal of Information Management, 75, 102716. https://doi.org/10.1016/j.ijinfomgt.2023.102716
- Kumar, V., Ashraf, A. R., & Nadeem, W. (2024). AI-powered marketing : What, where, and how? International Journal of Information Management, 77, 102783. https://doi.org/10.1016/j.ijinfomgt.2024.102783
- Lamanna, C. (2023, mars 6). Introducing Microsoft Dynamics 365 Copilot, the world’s first copilot in both CRM and ERP, that brings next-generation AI to every line of business. The Official Microsoft Blog. https://blogs.microsoft.com/blog/2023/03/06/introducing-microsoft-dynamics-365-copilot/
- LLM Prompt Injection Prevention—OWASP Cheat Sheet Series. (s. d.). Consulté 30 septembre 2025, à l’adresse https://cheatsheetseries.owasp.org/cheatsheets/LLM_Prompt_Injection_Prevention_Cheat_Sheet.html
- LLMRisks Archive. (s. d.). OWASP Gen AI Security Project. Consulté 30 septembre 2025, à l’adresse https://genai.owasp.org/llm-top-10/
- Maynez, J., Narayan, S., Bohnet, B., & McDonald, R. (2020). On Faithfulness and Factuality in Abstractive Summarization. In D. Jurafsky, J. Chai, N. Schluter, & J. Tetreault (Éds.), Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (p. 1906‑1919). Association for Computational Linguistics. https://doi.org/10.18653/v1/2020.acl-main.173
- Microsoft Customer Story. (2024). Windstream uses Azure OpenAI Service to empower employees and transform business outcomes | Microsoft Customer Stories. https://www.microsoft.com/en/customers/story/1724474574137515102-windstream-azure-open-ai-service-united-states
- Moffatt v. Air Canada. Consulté 30 septembre 2025, à l’adresse https://canlii.ca/t/k2spq
- Mott, N. (2025, août 11). Google’s AI could be tricked into enabling spam, revealing a user’s location, and leaking private correspondence with a calendar invite—’promptware’ targets LLM interface to trigger malicious activity. Tom’s Hardware. https://www.tomshardware.com/tech-industry/cyber-security/googles-ai-could-be-tricked-into-enabling-spam-revealing-a-users-location-and-leaking-private-correspondence-with-a-calendar-invite-promptware-targets-llm-interface-to-trigger-malicious-activity
- Murray, J. (2024). Study : People Facing Life-or-Death Choice Put Too Much Trust in AI | Newsroom. https://news.ucmerced.edu/news/2024/study-people-facing-life-or-death-choice-put-too-much-trust-ai
- Nassi, B., Cohen, S., & Yair, O. (2025). Invitation Is All You Need ! Promptware Attacks Against LLM-Powered Assistants in Production Are Practical and Dangerous (No. arXiv:2508.12175; Version 1). arXiv. https://doi.org/10.48550/arXiv.2508.12175
- Niu, C., Wu, Y., Zhu, J., Xu, S., Shum, K., Zhong, R., Song, J., & Zhang, T. (2024). RAGTruth : A Hallucination Corpus for Developing Trustworthy Retrieval-Augmented Language Models. In L.-W. Ku, A. Martins, & V. Srikumar (Éds.), Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1 : Long Papers) (p. 10862‑10878). Association for Computational Linguistics. https://doi.org/10.18653/v1/2024.acl-long.585
- OpenAI. (s. d.). Fiche système GPT-4o. Consulté 30 septembre 2025, à l’adresse https://openai.com/fr-FR/index/gpt-4o-system-card/
- OpenAI, Achiam, J., Adler, S., Agarwal, S., Ahmad, L., Akkaya, I., Aleman, F. L., Almeida, D., Altenschmidt, J., Altman, S., Anadkat, S., Avila, R., Babuschkin, I., Balaji, S., Balcom, V., Baltescu, P., Bao, H., Bavarian, M., Belgum, J., … Zoph, B. (2024). GPT-4 Technical Report (No. arXiv:2303.08774). arXiv. https://doi.org/10.48550/arXiv.2303.08774
- Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., & Lowe, R. (2022). Training language models to follow instructions with human feedback (No. arXiv:2203.02155). arXiv. https://doi.org/10.48550/arXiv.2203.02155
- Parasuraman, R., & Manzey, D. H. (2010a). Complacency and Bias in Human Use of Automation : An Attentional Integration. Human Factors. https://doi.org/10.1177/0018720810376055
- Parasuraman, R., & Manzey, D. H. (2010b). Complacency and Bias in Human Use of Automation : An Attentional Integration. Human Factors: The Journal of the Human Factors and Ergonomics Society, 52(3), 381‑410. https://doi.org/10.1177/0018720810376055
- Peel, M. (2024, juillet 24). The problem of ‘model collapse’ : How a lack of human data limits AI progress. Financial Times.
- Regulation—EU – 2024/1689—EN – EUR-Lex. (s. d.). Consulté 30 septembre 2025, à l’adresse https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng
- Schick, T., Dwivedi-Yu, J., Dessì, R., Raileanu, R., Lomeli, M., Zettlemoyer, L., Cancedda, N., & Scialom, T. (2023). Toolformer : Language Models Can Teach Themselves to Use Tools (No. arXiv:2302.04761). arXiv. https://doi.org/10.48550/arXiv.2302.04761
- Shekar, S., Pataranutaporn, P., Sarabu, C., Cecchi, G. A., & Maes, P. (2025). People Overtrust AI-Generated Medical Advice despite Low Accuracy. NEJM AI, 2(6). https://doi.org/10.1056/AIoa2300015
- Sheng, E., Chang, K.-W., Natarajan, P., & Peng, N. (2019). The Woman Worked as a Babysitter : On Biases in Language Generation. In K. Inui, J. Jiang, V. Ng, & X. Wan (Éds.), Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (p. 3407‑3412). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1339
- Shumailov, I., Shumaylov, Z., Zhao, Y., Gal, Y., Papernot, N., & Anderson, R. (2024). The Curse of Recursion : Training on Generated Data Makes Models Forget (No. arXiv:2305.17493). arXiv. https://doi.org/10.48550/arXiv.2305.17493
- Skitka, L. J., Mosier, K. L., Burdick, M., & Rosenblatt, B. (2000). Automation bias and errors : Are crews better than individuals? The International Journal of Aviation Psychology, 10(1), 85‑97. https://doi.org/10.1207/S15327108IJAP1001_5
- Syme, P. (s. d.). Air Canada’s chatbot gave a passenger false information about claiming a discount, and the airline must now pay him compensation. Business Insider. Consulté 30 septembre 2025, à l’adresse https://www.businessinsider.com/airline-ordered-to-compensate-passenger-misled-by-chatbot-2024-2
- Team, M. D. 365. (2023, mars 20). How we can use GPT-4 to continually improve AI models in Dynamics 365 and Power Platform. Microsoft Dynamics 365 Blog. https://www.microsoft.com/en-us/dynamics-365/blog/it-professional/2023/03/20/how-we-can-use-gpt-4-to-continually-improve-ai-models-in-dynamics-365-and-power-platform/
- Textes de la loi | Loi sur l’intelligence artificielle de l’UE. (s. d.). Consulté 30 septembre 2025, à l’adresse https://artificialintelligenceact.eu/fr/l-acte/
- The General-Purpose AI Code of Practice | Shaping Europe’s digital future. (s. d.). Consulté 30 septembre 2025, à l’adresse https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai
- Top 10 OWASP | Risques liés aux LLM. (s. d.). Consulté 30 septembre 2025, à l’adresse https://www.cloudflare.com/fr-fr/learning/ai/owasp-top-10-risks-for-llms/
- Weaver, W., Shen, T., & Davis, M. (2025, août 25). Beyond the ban : A better way to secure generative AI applications. The Cloudflare Blog. https://blog.cloudflare.com/ai-prompt-protection/
- Weidinger, L., Mellor, J., Rauh, M., Griffin, C., Uesato, J., Huang, P.-S., Cheng, M., Glaese, M., Balle, B., Kasirzadeh, A., Kenton, Z., Brown, S., Hawkins, W., Stepleton, T., Biles, C., Birhane, A., Haas, J., Rimell, L., Hendricks, L. A., … Gabriel, I. (2021). Ethical and social risks of harm from Language Models (No. arXiv:2112.04359). arXiv. https://doi.org/10.48550/arXiv.2112.04359
- Weidinger, L., Uesato, J., Rauh, M., Griffin, C., Huang, P.-S., Mellor, J., Glaese, A., Cheng, M., Balle, B., Kasirzadeh, A., Biles, C., Brown, S., Kenton, Z., Hawkins, W., Stepleton, T., Birhane, A., Hendricks, L. A., Rimell, L., Isaac, W., … Gabriel, I. (2022). Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness Accountability and Transparency, 214‑229. https://doi.org/10.1145/3531146.3533088
- Wu, D. (2023, août 31). Gannett halts AI-written sports recaps after readers mocked the stories. The Washington Post. https://www.washingtonpost.com/nation/2023/08/31/gannett-ai-written-stories-high-school-sports/
- Ziwei, J., Nayeon, L., Rita, F., Tiezheng, Y., Dan, S., Yan, X., Etsuko, I., Ye, J. B., Andrea, M., & Pascale, F. (2023). Survey of Hallucination in Natural Language Generation. ACM Computing Surveys. https://doi.org/10.1145/3571730
il ne peut pas avoir d'altmétriques.)
