Rachel Adams, directrice de recherche au Conseil des sciences humaines au Cap (Afrique du Sud) esquisse le cadre éthique dans lequel l’intelligence artificielle doit être utilisée au travail.
Journal La Croix – propos recueilli par Alain Guillemoles, le 08/02/2021
Pour Rachel Adams, il faut qu’un cadre éthique soit posé afin que l’intelligence artificielle puisse être utilisée au travail. Patrick Lefevre/BELPRESS/MAXPPP
La Croix : Quels sont les risques lorsqu’une entreprise intègre de l’intelligence artificielle ?
Rachel Adams : Le premier risque est celui de la destruction d’emplois. Mais lorsque cette technologie est utilisée pour surveiller la performance d’un salarié, comme Amazon le fait dans ses entrepôts, l’inquiétude porte davantage sur l’atteinte à la vie privée.
ANALYSE. L’intelligence artificielle, entre promesses et craintes
De plus, l’intelligence artificielle est basée sur une norme, et toute personne qui n’atteint pas cette norme peut être alors considérée comme déviante et en échec, malgré le fait que la machine n’est pas réellement capable de mesurer tout ce qui fait la dynamique d’un individu dans son travail.
Est-il possible d’arriver à de bonnes pratiques qui seraient communes à l’ensemble du monde ?
R. A. : Je suis basée en Afrique du Sud et je peux donc témoigner qu’il est très difficile d’arriver à des normes qui seraient les mêmes partout. Les citoyens ont des versions très différentes de ce qui est éthique selon l’endroit où ils vivent, et ont aussi différentes priorités. Il existe actuellement de nombreuses normes différentes en matière d’éthique de l’IA qui peuvent et devraient déjà être utilisées par les entreprises ou les gouvernements.
TRIBUNE. Un appel à l’utilisation éthique de l’intelligence artificielle
Existe-t-il tout de même des règles qui sont valables partout ?
R. A. : Oui, j’en vois trois :
- il y a d’abord la nécessité de justice, c’est-à-dire de faire en sorte qu’un algorithme ne provoque pas de discrimination ;
- le besoin de responsabilité, c’est-à-dire de faire en sorte que les institutions utilisant les algorithmes soient capables de rendre compte de l’usage qu’elles en font, et soient en mesure de remédier aux problèmes s’ils surgissent ;
- la transparence, c’est-à-dire le fait qu’une entreprise qui use d’un système soit claire sur son usage, la raison pour laquelle il est utilisé, l’objectif qui est poursuivi, le type d’information qui est collecté et quel genre de dommages cela peut créer ainsi que la façon d’y remédier.
L’IA peut également servir à assister un humain dans son travail. En ce cas, faut-il également s’en méfier ?
R. A. : Il existe un grand nombre de systèmes qui ont des effets bénéfiques évidents. C’est le cas, par exemple, de cette technologie qui permet à un radiologue de diagnostiquer une maladie. Mais il faut se souvenir que les logiciels ne fournissent pas une solution miracle. L’IA est simplement un outil qui aide à la décision, pas un moyen de la prendre. Une machine ne doit pas décider de manière autonome sur la vie des gens.
RELIRE. « On est encore loin de l’intelligence humaine ou animale »
Si le radiologue confie à une machine le soin de lire des clichés, il reste indispensable qu’il continue d’utiliser sa propre objectivité et sa connaissance. Il faut garder de la place pour qu’un humain valide le travail fait par la machine. Il ne faut jamais perdre de vue qu’une machine peut faire des erreurs.