Je suis en train de suivre cette conférence, Responsabilité à l’épreuve de l’#IA. L’#IA en milieu armée c’est hyper intéressant et ça requestionne la responsabilité.
En gros. Le numérique c’est à la fois la capacité de gérer plein de données (des milliards de milliards) et de laisser à des systèmes informatisés de réaliser des activités à la place des humains (dont des tâches que des humains ne pourraient pas faire, question de vitesse ou précision).
Donc, on a plein de données. Pour Amnesty International France, c’est clair, la données c’est le nerf de la guerre. Il fait avoir le plus d’informations possible pour faire correctement fonctionner les systèmes, et donc un système en capacité de gérer ces tonnes de données.
Il faut donc des systèmes de plus en plus puissantes, précises… qui deviennent désormais autonomes.
Ce qui veut dire des systèmes en capacité de n’avoir aucun humain dans la boucle. Et quand y a pas d’humain, on ne sait pas :
- qui est responsable
- si les notions de droits internationales sont respectées
On ne sait pas si un système informatisé va tuer un civil (ce qui est interdit) plutôt qu’un militaire ennemi.
Ce que disent donc les spécialistes c’est que plus un système est autonome, moins on a de certitude de son raisonnement (pour le respect des droits humains : digité…). Donc, en théorie, plus un système est automatisé plus on a besoin d’un système de contrôle élaboré.
Mais l’automatisation, c’est quand même le moyen de supprimer des humains par des machines. Donc, de mettre le moins d’humains possibles dans la boucle.
Le #NumeriqueResponsabilite ou l’#AccessibiliteNumerique, vous appelez ça comme vous voulez… mais c’est particulièrement ça. C’est la gestion de cette espèce de paradoxe : le numérique demande une gestion humaine plus exigeante, mais le numérique est aussi le moyen de supprimer les chaines de décisions humaines.
Le #NumeriqueResponsabilite ou l’#AccessibiliteNumerique : des processus humains pour que le numérique serve l’humanité.