Pourquoi le « Vibe Coding » constitue un risque pour l’accessibilité
Décrire ce que l’on souhaite créer et laisser un agent IA générer le code donne l’impression que cela devient rapidement… du codage à part entière. Mais un problème se cache dans les données d’entraînement.
Chris Pigden
Comment savoir sur quelle base d’entraînement les IA fournissent-elles leurs résultats ? Les personnes semblent au courant du phénomène de biais. Mais on voit, selon moi, les biais comme des erreurs que l’entraînement pourrait corriger. Seulement, on ne perçoit que les biais auxquels nous sommes sensibles ou confrontés.
Nous les experts en accessibilité numérique, on nous demande d’auditer des services numériques. Notre cerveau perçoit tout ce qui n’est pas accessible : le code, la conception, la culture d’entreprise… et en plus en étudiant le sujet chaque jour, on comprend que nous même ne percevons pas les milliers de parcours que peuvent avoir les usagers. Ainsi, on peut penser légitimement que les modèles qui sous-tendent les agents de codage IA ont peut-être appris des schémas provenant d’un Web qui présente déjà des lacunes en matière d’accessibilité numérique.
Ayant réalisé de nombreux audits d’accessibilité au fil des ans, je constate une corrélation directe entre les problèmes générés par un agent IA et ceux d’un développeur web classique.
Chris Pigden
Chris Pigden se demande donc si : les agents peuvent-ils tirer profit des critères d’acceptation en matière d’accessibilité, tout comme les développeurs humains ?
Dans l’article Can AI Agent Skills Help Developers Ship Accessible Code?, il montre comment chez Intopia, ils ont tenté d’ajouter une “skills” (compétence à prendre en compte pas l’IA) à un modèle Ia et voir si les résultat s’améliorait.
résultat : Sans la compétence en matière d’accessibilité, même en utilisant un modèle récent comme GPT-5.3 Codex, l’agent a commis des erreurs d’accessibilité de base, en particulier autour du contraste, de la gestion de la mise au point et des scénarios de validation.
Chris Pigden considère que la compétence “accessibilité” (skills) comme indispensable, mais que la capacité de juger de l’amélioration ne peut se faire que par un expert humain.
L’IA dans l’accessibilité, une Hype ?
Ce que l’on tire d’une conversion entre Mark Shapiro et Gerard Cohen (L’IA dans l’accessibilité: séparer le battage médiatique de la réalité)concernant accessibilité numérique et IA, c’est que l’IA doit être traitée comme un outil et non comme un substitut à la responsabilité humaine. Ils dénoncent même la possible suppression de l’humain au profit d’une délégation à la machine.
La suppression de la surveillance humaine introduit des risques, en particulier dans les contextes juridiques et de conformité où la responsabilité ne peut être déléguée à une machine. Si l’IA est prometteuse et peut améliorer les flux de travail, les organisations doivent l’utiliser de manière réfléchie et maintenir leur implication humaine pour s’assurer que les résultats en matière d’accessibilité sont à la fois précis et significatifs.
Mark Shapiro, Gerard Cohen
En effet, l’accessibilité est profondément contextuelle, et l’IA manque de la perspective humaine nécessaire pour évaluer pleinement si quelque chose fonctionne vraiment pour les utilisateurs. Comme des études le montre de manière pour l’IA, est-ce que son utilisation pour de mauvaises raisons amènerait à plus de fainéantise intellectuelle pour vérifier si des utilisateurs ne sont pas discriminés ?
Sans aller jusque là, les développeurs, eux-même, en dehors de toute activité dans l’accessibilité numérique, le disent :
Les outils d’IA fonctionnent bien sur des problèmes autonomes et bien documentés. Mais dans la vraie ingénierie, les tâches ne sont pas comme ça : les raisons des choix, les règles tacites et les contraintes métier ne sont souvent pas écrites. Elles restent dans la tête des personnes. Tant que ces connaissances ne seront pas formalisées et partagées, l’IA restera limitée pour aider de manière fiable sur certains types de problèmes.
Abi Noda
Dans Why aren’t AI productivity gains higher? pose ces questions : Quelles parties du cycle de développement logiciel, au-delà du codage, sont susceptibles de bénéficier de l’assistance de l’IA ? Quelles sont les conditions humaines nécessaires pour tirer pleinement parti des avantages de l’IA ?
Que penser ?
On en arrive donc toujours au même constat, l’IA peut accélérer les développements, mais à condition de savoir quoi accélérer et pour quel effet positifs et négatifs.
Perdre le sens, la raison sociale d’une organisation c’est courir à sa perte. Les dirigeants voudraient souvent avoir en interne des personnes investies dans les valeurs de l’organismes. Mais cela n’est possible que si ces personnes sont considérées et si leurs valeurs propres sont alignées avec celles de l’organisme tout entier.
A quel moment, cet alignement se réalise ? En accessibilité, on galèèèèèère. Le manque de maturité et de compréhension de son importance, fait que les organismes ont plutôt tendance à ne pas faire ou supprimer l’accessibilité de leur process. Tout simplement pour ne pas avoir à s’aligner.
Un biais courant quand on est au commande et de penser qu’on est bien aligner avec soit même et ses propres pensées (et puis l’accessibilité c’est un truc en plus, c’est déjà bien compliqué comme ça, je vais me contenter de ce qui me rapporte la prime aux résultats). Que s’aligner, c’est surtout perdre du temps dans l’exécution des volontés. Le monde de la finance nous pousse rationaliser.
Pourtant, énormément d’articles pointent le besoin de cet alignement en amont (et tout du long) des projets.
Note : Pour rappel, l’EAA oblige à rendre les services de transports accessible de bout-en-bout que ce soient pour les accès numérique et non numérique. C’est à dire qu’un énorme ensemble de prestataires et organismes doivent se mettre d’accord pour avoir au final une intégration conforme.