Union internationale des télécommunications (UIT), personne connaît cette institution, encore un organisme pompeux qui met en ligne plein de rapports compliqués que personne ne lit. N’empêche que c’est intéressant à suivre. Et là, on va parler du Rapport annuel 2025 sur la gouvernance de l’intelligence artificielle – Orienter l’avenir de l’intelligence artificielle
Organisation de la gouvernance de l’IA
Pendant qu’on discute, qu’on se pose des questions, des experts planchent. Au niveau international, les pays se mettent d’accord sur des principes juridiques pour cadrer l’usage de l’IA.
L’AI Act repose sur une architecture normative graduée, fondée sur une classification des systèmes d’intelligence artificielle selon leur niveau de risque. Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques
On connaît l’IA Act, il n’est pas arrivé de nul part, il a résulté du travail de centaines de personnes ; a été validé par les délégations européennes. Par exemple l’IA Act a l’air de fonctionne un peu comme l’EAA (European Accessibility Act). Un truc européen quoi.
Les fournisseurs de systèmes à haut risque doivent procéder à une évaluation de conformité avant la mise sur le marché, incluant la vérification des exigences techniques et la constitution d’une documentation détaillée. Les États membres doivent désigner des autorités nationales de surveillance du marché, chargées de contrôler le respect des obligations et d’imposer, le cas échéant, des mesures correctives.
Intelligence artificielle, souveraineté normative et géopolitique : La fragmentation de la gouvernance mondiale entre puissances technologiques
Ça vous rappelle pas quelque chose ? On peut se poser la question de la notion de produit numérique, qui doit répondre aux mêmes impératifs qu’un produit physique. Mais bref, des discussions sur la gouvernance de l’IA c’est le sujet du moment.
Les pays sont dans une grande vague de numérisation de leur administration, et maintenant que tout cela est numérisé, pourquoi ajouter un peu d’Intelligence Artificielle : Automatiser les tâches banales et répétitives, Améliorer la productivité dans le cadre des tâches analytiques ou créatives, Adapter les services pour répondre aux besoins personnalisés des administrés, Adapter les approches pour renforcer la fonction publique, Amélioration des processus décisionnels, de l’interprétation et des prévisions, Mieux anticiper l’avenir, Améliorer la gestion de l’information et son accessibilité, Amélioration de la redevabilité et détection des anomalies.
Je vous rassure, l’accessibilité numérique n’est pas un sujet dans ces discussions, et il est bien prévu que l’IA améliore l’inclusivité. Lire OCDE - Gouverner avec l’intelligence artificielle.
Concernant la gouvernance de l’IA, l’UIT vient de publier un rapport qui résume un peu tout ce qui s’est passé en 2025.
Les risques de l’IA
Ce qui est génial avec la technologie, c’est qu’on a pas trop de choix d’accepter qu’elle va s’imposer. Donc ce genre d’initiative, les acteurs font preuve d’un certains optimisme, ils font la liste de toutes les opportunités, mais le but c’est quand même de regarder les risques.
C’est dans le thème 6 qu’on les trouve. Et on trouve des paragraphes assez sympas, comme :
Le discours dominant autour de la sécurité de l’IA reste occidentalocentrique, ne parvenant souvent pas à intégrer de manière adéquate les diverses traditions linguistiques, valeurs culturelles et expériences vécues par les communautés au sein des pays majoritaires et des groupes marginalisés.
Cette exclusion systémique risque d’enraciner les inégalités mondiales et souligne la nécessité d’approches plus inclusives et de cadres d’évaluation culturellement informés dans le développement de la sécurité de l’IA.
On comprend donc que si on ne fait pas un travail sur les modèles d’IA et leur manière de raisonner, ces IA vont construire des systèmes selon le modèle culturel de leurs concepteurs. Peut-on contrôler ça, peut-être ?
Pour l’IA à usage général, il est difficile d’évaluer de manière exhaustive tous les cas d’utilisation possibles en aval et de prédire comment les risques pourraient se manifester par des interactions complexes dans le monde réel plutôt qu’à l’intérieur du système lui-même.
Par conséquent, les méthodologies existantes ne peuvent souvent pas fournir d’assurances solides ou de garanties définitives contre tous les dommages associés.
Les meilleurs experts mondiaux semblent dire dans le rapport destiné à la rédaction des politiques publiques mondiales que : NON.
Le rapport semble lister, dans cette même partie, des propositions d’atténuation, il s’agirait pour les entreprises tech créatrices de ces IA de faire un peu attention, avec des chartes, des outils… tout en disant que ça marche pas très bien du tout.
Les méta-analyses de 84 cadres éthiques de l’IA des secteurs public et privé montrent que les principes de haut niveau, lorsqu’ils ne sont pas étayés par des audits ou des sanctions juridiques, produisent rarement des protections durables contre les préjugés, la désinformation et d’autres externalités, soulignant les limites structurelles de l’autorégulation dans le secteur de l’IA.
Les propositions
Dans la partie II, on parle de ce qu’il faudrait mettre en place dans la gouvernance pour “contrôler”, l’IA. Face aux dangers, chacun dégaine ses mots clefs : transparence, lignes rouges, règlement, impératif multi-parties prenantes, Sagesse collective, Garde-fous… Inclusion.
Bizarrement, c’est Tatenda Annastacia Mavetera (Ministre des technologies du Zimbabwe) qui parle du sujet de l’inclusion. Elle évoque de :
Leur philosophie nationale consistant à « ne laisser personne ni aucun lieu de côté » pour réduire la fracture en matière d’intelligence artificielle, en particulier entre les zones urbaines et les zones rurales.
Ainsi, dans les dix piliers des co-Présidents pour la gouvernance de l’IA ov retrouver l’inclusion en 4ème :
- Des principes à la pratique
- Un impératif multi-parties prenantes
- La transparence, pierre angulaire de la confiance
- Favoriser l’inclusion
- Capacité pour tous, pas seulement pour quelques-uns
- Durabilité environnementale et infrastructure de l’IA
- Orientation sectorielle et large collaboration
- Normes et outils de sécurité
- Gouvernance du calcul et des modèles
- Interopérabilité des politiques et gouvernance souple
Pour autant, jamais ils n’ont parlé de situation de handicap, d’accessibilité numérique , alors que c’est la mise en place de plan d’amélioration de prise en compte des situations de handicap sur le numérique qui peut permettre aux personnes de rendre les outils technologiques moins discriminants.