IA et pouvoirs locaux : le guide incontournable
Et si l’intelligence artificielle était déjà présente dans vos services, sans que vous le sachiez vraiment ? Ici, personne ne l’utilise encore. Là, quelques agents testent discrètement des outils. Ailleurs, des tensions apparaissent, faute de règles claires. Pendant ce temps, le règlement européen « AI Act » commence à s’imposer. Ce dossier vous propose d’y voir plus clair: comprendre les enjeux, cadrer les pratiques et, au bout du chemin, bâtir un guide IA adapté à votre réalité.
1. AI Act: un nouveau cadre à apprivoiser pour les pouvoirs locaux
Depuis cet été, le règlement européen sur l’intelligence artificielle (AI Act) n’est plus une abstraction. Il entre dans la vie quotidienne de toutes les entités privées comme publiques. Les pouvoirs locaux sont particulièrement concernés en tant qu’employeurs et gardiens de données sensibles.
Un « RGPD de l’IA »
Souvent comparé au RGPD (Règlement Général sur la Protection des Données), l’AI Act déploie progressivement ses effets jusqu’en 2027. Mais sa logique diffère: il ne sanctionne pas la technologie en soi, il encadre les usages qu’on en fait. Lorsqu’un outil touche à des droits fondamentaux, à l’accès à des services sociaux ou à la sécurité, les exigences grimpent en flèche. À l’inverse, pour des applications banales (correcteurs automatiques, filtres anti-spam), la réglementation se fait discrète.
Pour les pouvoirs locaux, les situations sensibles abondent: un CPAS qui attribue des aides, une zone de police qui recourt à la rédaction automatisée d’une audition, une intercommunale qui déploie un chatbot auprès des citoyens.
Dans tous ces cas, le principe est clair: plus l’impact sur la vie des personnes est fort, plus les garde-fous doivent être solides. Contrôle humain documenté, journaux d’utilisation conservés, information claire des travailleurs: l’administration ne peut pas déléguer à l’intelligence artificielle sans assumer la responsabilité finale.
« Ce n’est pas l’IA qui est risquée, mais la manière dont on choisit de l’utiliser. »
Le rôle délicat du « déployeur »
C’est le grand mot-clé du règlement: déployeur. L’entité locale qui autorise, même tacitement, l’usage d’un système d’IA sous sa responsabilité endosse ce rôle. Laisser des agents utiliser ChatGPT sans cadre officiel revient donc à devenir déployeur, avec tout ce que cela implique.
Deux obligations surgissent immédiatement :
- La maîtrise: former et encadrer les équipes pour qu’elles comprennent les limites des outils. Cela peut passer par des sessions de sensibilisation, la désignation d’un référent IA ou la rédaction d’un guide interne.
- Et la transparence: informer les agents – parfois même les citoyens – lorsqu’un processus fait appel à l’IA. Faute de quoi, le « shadow AI » prolifère: des usages non contrôlés, invisibles, qui échappent à toute supervision et fragilisent la confiance.
L’AI Act insiste donc sur la capacité des employeurs publics à encadrer leurs pratiques et à en garantir la maîtrise. Ce n’est pas une option, c’est une responsabilité légale et managériale.
« Mieux vaut un cadre imparfait qu’une absence totale de règles. »
Des risques bien réels
Depuis cet été, les sanctions prévues par l’AI Act sont théoriquement applicables. Les amendes annoncées sont conséquentes, même si les mécanismes de supervision restent encore à préciser en Belgique. Mais le danger immédiat se situe ailleurs: dans la manière dont les usages de l’IA peuvent fragiliser la crédibilité d’une administration.
Un courrier officiel rédigé par IA, mal relu, peut contenir une erreur grossière sur un point juridique ou réglementaire. Un travailleur social qui s’appuie sans discernement sur un chatbot pour trancher une demande d’aide risque de provoquer des décisions injustes, donc contestables. Ces situations ne déclenchent pas automatiquement un scandale médiatique, mais elles entament la confiance, en interne comme vis-à-vis des citoyens.
S’ajoutent des risques plus techniques. Une image générée sans mention peut être perçue comme trompeuse. Certains outils gratuits aspirent discrètement des données sensibles. Plus insidieux encore, le prompt injection: un simple document transmis par un tiers peut contenir des instructions cachées qui manipulent l’IA et extraient des informations confidentielles.
Enfin, il existe un risque managérial: si chacun utilise son propre outil sans cadre, les responsabilités se brouillent, les failles se multiplient et la gouvernance devient illisible.
Mieux vaut un cadre imparfait que le vide
Alors, que faire ? La feuille de route est connue mais elle reste à traduire localement.
- Cartographier les usages existants, qu’ils soient officiels ou non.
- Former les agents aux bons réflexes, non pour brider, mais pour sécuriser.
- Établir un guide interne, validé par l’autorité politique, afin de poser des règles claires.
- Associer les DPO, les équipes IT et la direction aux choix stratégiques.
L’enjeu n’est pas seulement juridique. Il est opérationnel, réputationnel, managérial. Bref: vital. Dans ce contexte, une règle simple prévaut: mieux vaut un cadre perfectible qu’une absence totale de règles. Car l’inaction, aujourd’hui, n’est plus une option.
Pour aller plus loin sur le sujet, retrouvez sur le site de l’UVCW, l’analyse de Marie-Laure Van Rillaer, Conseiller expert à l’UVCW « Règlement sur l’intelligence artificielle: quels points d’attention juridique pour les pouvoirs locaux? » (17 juin 2025)
Vous y trouverez également des références bibliographiques, les liens vers les replays de nos webinaires consacrés à l’IA ainsi que la liste de nos formations sur le sujet.
2. L’IA dans nos équipes: « On n’a plus le luxe d’attendre »
Pour ce dossier, nous sommes allés à la rencontre de quatre dirigeants, déjà très engagés depuis des mois dans l’intégration de l’IA: Xavier Gobbo (Directeur Général de Sambreville et secrétaire de la Zone de Secours de Val-de-Sambre), François Laureys (Gestionnaire de projets Smart Cities au Bureau Économique de la Province de Namur), Sébastien Pinoy (Directeur Général du CPAS de Gembloux) et François Bertleff (Chef de Corps de la Zone de Police Flowal).
Tous racontent la même scène: l’IA s’est invitée dans les bureaux, parfois discrètement et il faut désormais l’encadrer sans casser l’élan.
« L’IA, oui, mais toujours sous contrôle humain. » - Xavier Gobbo
Pourquoi s’y mettre maintenant ?
Parce que les premiers retours sont concrets. Au BEP, François Laureys a piloté un projet sur la gestion des plaintes liées aux déchets: « On a déployé l’outil… et ça marche ». Résultat, un délai de réponse fortement réduit et moins de stress pour les équipes, à condition d’adapter ensuite l’organisation, pas seulement la technologie. « outil + procédures, pas l’un sans l’autre », résume-t-il.
Les freins ? Ils tiennent beaucoup à la culture et aux contraintes structurelles. Côté police, François Bertleff décrit un terrain très hétérogène: « Copilot est bridé au niveau fédéral, alors la Zone mise sur des usages pédagogiques simples et une montée en compétences maison. Petites équipes oblige, on forme nous-mêmes aux bons usages de l’IA, tous les jeudis, jusqu’à ce que tout le monde soit passé » dit-il.
« L’essentiel, c’est d’aligner l’IA avec nos valeurs : professionnalisme, esprit de service. » - François Bertleff
Cadrer sans freiner
Pour Sébastien Pinoy (CPAS de Gembloux), conseiller un outil principal et un usage circonscrit (par exemple, la reformulation d’e-mails) rassure les moins aguerris et évite les « chartes-catalogues » illisibles. Mais « pour déployer pleinement l'IA dans mes équipes, je mise sur leur discernement et leur esprit critique pour rester dans l'esprit d’une charte IA. »
Autre levier: la transparence des pratiques. Au BEP, « le fait de cacher son utilisation de l’IA est un risque », insiste François Laureys. « Mieux vaut assumer, partager, apprendre des erreurs, plutôt que d’entretenir une zone grise. » Dans le même esprit, l’intercommunale déploie actuellement des agents IA spécialisés dans chaque département. Chaque service définit ses besoins et développe son propre outil, avec l’appui de l’équipe IT. L’ambition, à terme, est de mutualiser ces expériences pour mettre des solutions concrètes à disposition des communes du territoire.
Mutualiser pour aller plus vite
Xavier Gobbo (commune de Sambreville) observe un effet boule de neige quand les DG échangent leurs trouvailles: « après une réunion provinciale, la messagerie s’est remplie de demandes sur des outils testés par quelques-uns, comme Leexi » (NDR : une solution IA belge de compte-rendu de réunion). « Cette circulation d’expériences évite de gaspiller de l’argent public en mutualisant les recherches et retours d’expérience. »
« On n’a plus le luxe d’attendre: mieux vaut encadrer tôt que réparer tard. »
Les conseils qu’ils auraient aimés recevoir il y a un an
- Identifiez quelques cas d’usage qui permettent de gagner du temps (réponse type aux citoyens, préparation de PV, trame de délibération, note de services, publication réseaux sociaux),
- Posez des règles claires (pas de données personnelles, relecture obligatoire, pas d’outils IA non autorisés),
- Nommez des référents dans les services,
- Ancrez la formation dans le quotidien (partage de prompts et de retours d’expérience, binôme, comité de pilotage).
Enfin, parlez métier: l’IA n’est pas un gadget IT, c’est un changement de pratiques qui se discute avec les équipes et les syndicats.
Et maintenant ?
Quelle méthodologie adopter pour accompagner les équipes vers une intégration raisonnée de l’IA ? La réponse n’est jamais unique: chaque entité locale a sa propre culture, son degré de maturité numérique, ses contraintes budgétaires, ses pratiques managériales… et des résistances au changement. C’est précisément à ces réalités contrastées que nous allons nous confronter dans la suite de ce dossier.
3. Méthodologie: comment accompagner l’adoption de l’IA sans se perdre en chemin
Déployer l’IA dans une administration locale, ce n’est pas installer un nouveau logiciel: c’est une transformation de fond, qui touche à la gouvernance, à la culture et aux pratiques quotidiennes. Comment s’y prendre, sans tomber dans l’improvisation ni la paralysie ? Voici une méthodologie concrète, adaptée aux réalités des pouvoirs locaux.
Clarifier la gouvernance: un projet Codir, soutenu par le politique
Le premier écueil est de croire qu’un guide IA se rédige dans un bureau, par un seul acteur. La réalité est tout autre: c’est un projet de transformation, qui exige l’implication du Codir au complet. Bien sûr, le Directeur général garde la main comme pilote, mais il agit avec l’aval, voire le soutien, de l’organe politique (Collège ou Conseil). Sans ce parrainage, la guide risque de rester lettre morte.
Le Codir doit donc s’approprier la vision: ce qu’on veut, ce qu’on refuse, ce qu’on accepte sous conditions. C’est à ce niveau que se décident les « zones rouges » (interdits absolus), les « zones vertes » (usages encouragés) et les garde-fous (validation humaine, traçabilité, budget limité).
« Un guide IA, ce n’est pas l’affaire d’un service isolé, mais un choix collectif assumé. »
Avancer par étapes, avec méthode
Sur le terrain, deux approches sont possibles: l’une séquentielle pour les petites équipes, l’autre parallèle pour les grandes organisations.
Les communes de moins de 100 ETP peuvent progresser bloc par bloc (diagnostic, ateliers, rédaction, validation, formation), en quatre ou cinq mois.
Les entités plus grandes (plus de 500 ETP), gagnent à lancer plusieurs chantiers en simultané, via un comité de pilotage. Dans les deux cas, le cap est le même: aller vite mais sans précipitation.
Il existe des outils de gouvernance qui facilitent ce chemin. La matrice RACI, par exemple, clarifie les rôles de chacun (qui décide, qui exécute, qui est consulté, qui est informé). L’arbre de décision, lui, structure les étapes à franchir selon des questions simples: a-t-on déjà un guide? quels objectifs vise-t-on ? quelles données sont en jeu ? Ce sont des bonnes pratiques, particulièrement utiles aux grandes structures.
Associer tous les acteurs, du terrain au sommet
Un guide IA ne se décrète pas, il se construit. Les agents doivent être impliqués dès le départ, dans des groupes pilotes ou des ateliers métiers. Cette co-construction permet d’identifier les tâches à déléguer à l’IA, celles qui doivent rester humaines et celles où l’IA peut seulement assister. Dans les petites entités, quelques volontaires suffisent ; dans les grandes, un comité de pilotage élargi assure la représentativité.
L’implication des syndicats est tout aussi stratégique. Les associer dès le début du projet permet de lever les peurs et d’ancrer des garanties sociales liée à l’usage de l’IA: pas de surveillance intrusive, pas de substitution de postes mais un engagement clair en faveur de la formation et du redéploiement des tâches.
« L’IA ne va pas vous remplacer mais elle va changer votre manière de travailler. »
Intégrer les volets critiques: juridique, sécurité, RH, communication
Un guide IA solide, c’est plus qu’un document, c’est un socle transversal où chacun joue sa partition. La réussite vient de l’orchestration collective.
- Juridique et DPO: vérifier la base légale, anticiper les DPIA, aligner les pratiques avec l’AI Act et le RGPD.
- IT et sécurité: appliquer une sorte de « security by design » au carrefour du RGPD et de NIS2 pour les entités concernées, imposer des outils validés, proscrire les solutions opaques, mettre en place une journalisation pour les systèmes d’IA à haut risque.
- RH: bâtir un plan de formation progressif et inclusif, rappeler que l’IA est un assistant, pas un pilote.
- Communication: installer un récit clair en interne (« cadrer pour protéger »), expliquer sans jargon comment l’IA est utilisée et préparer des scénarios de crise (photo IA polémique sur la page Facebook, fuite de données via le chatbot de la commune, info erronée envoyée par e-mail à un citoyen).
Un calendrier réaliste mais exigeant
Le piège le plus courant n’est pas d’aller trop vite mais de s’enliser. Multiplier les ateliers sans cadrage, produire une guide trop théorique, négliger la formation.
Dès le lancement du projet, il faut prévoir un cycle de mise à jour annuel a minima. Car l’IA évolue vite et un guide n’est pas un texte figé. Elle doit rester vivante, nourrie par l’expérience, les retours d’usage et les ajustements réglementaires.
« Le vrai risque, ce n’est pas l’expérimentation, c’est l’inaction. »
Conclusion: du cadre à la confiance
Finalement, mettre en place un guide IA ne relève pas d’une contrainte bureaucratique. C’est une opportunité: créer un cadre de confiance, renforcer la compétence des agents, rassurer les citoyens. Les pouvoirs locaux peuvent transformer une obligation en levier de gouvernance et de renforcement des valeurs au sein des équipes.
4. Guide IA pour les pouvoir publics : Un exemple à personnaliser
Pour transformer la théorie en pratique,l’Union des Villes et Communes de Wallonie a conçu un guide d’utilisation de l’IA pour une commune fictive.
Les membres de l'UVCW peuvent le télécharger à l’adresse : https://www.uvcw.be/e-gov/modeles/art-9756
Chaque organe de décision aura ainsi une trame à adapter à la nature de son organisation. Certains éléments comme les rôles, les procédures ou les détails pratiques devront être ajustés pour correspondre aux usages internes et à la culture managériale.
Lire aussi en E-gov, TIC et simplification administrative
Formations - Nouvelles technologies
- BUREAUTIQUE & NUMERIQUE : Outils numériques : des réunions en ligne efficaces
- BUREAUTIQUE - NUMERIQUE : Créez des présentations impactantes avec PowerPoint
- BUREAUTIQUE - NUMERIQUE : Découverte de Microsoft Planner, To Do et One Note
- BUREAUTIQUE - NUMERIQUE : Excel - Base
- BUREAUTIQUE - NUMERIQUE : Microsoft OneDrive & Forms
- BUREAUTIQUE - NUMERIQUE : Microsoft Power BI - Outil de visualisation des données
- BUREAUTIQUE - NUMERIQUE : Microsoft Teams & ses Apps
- BUREAUTIQUE - NUMERIQUE : Prendre en main le nouvel Outlook
- BUREAUTIQUE - NUMERIQUE : Tour d’horizon de la suite Microsoft Office 365
- L’intelligence artificielle : un outil pour gagner en efficacité
- BUREAUTIQUE & NUMERIQUE : Outils numériques d’interaction dans mes pratiques professionnelles
- BUREAUTIQUE - NUMERIQUE : Implémenter SharePoint - Enjeux, plus-values et risques
- BUREAUTIQUE - NUMERIQUE : Word Essentiel : Rédiger des documents courts
- Cybersécurité : mails, publicités frauduleuses, ... ne vous faites plus piéger
- Outils collaboratifs numériques dans mes pratiques professionnelles