Intelligence Artificielle : pour le meilleur et le pire de la science ?
« J'ai passé mon temps à lire des articles sur la façon dont l'automatisation et l'intelligence artificielle allaient prendre nos jobs, et maintenant j'y suis, l'intelligence artificielle m'a piqué mon travail ». L’auteur de ces lignes fait partie des 27 journalistes remerciés le 31 mai 2020, de leur emploi à l’agence PA Média au Royaume Uni. Des robots devront désormais à leur place, surveiller les contenus publiés.
Créé par John McCarthy, le terme « Intelligence Artificielle » (Artificial Intelligence ou AI, en anglais) est une technique qui permet aussi bien à un robot qu'à une voiture, un moteur de recherche ou même à un téléphone, d'exécuter des tâches habituellement réalisées par les humains. L'objectif étant de parvenir à transmettre à une machine, des fonctions propres à l’être humain comme tenir un raisonnement, se rappeler et percevoir des choses.
En clair, l’IA permet de faire beaucoup de choses, parfois même mieux que les humains. Comment tout cela fonctionne ? Avant tout, l’IA est ainsi composée de données, de techniques d’analyses – telles que le Deep Learning ou le Machine Learning – qui vont produire des résultats (le Scoring) grâce à l’assemblage d’algorithmes (organiser du texte, des images, des sons, prédire des valeurs…) spécifiques.
À partir de la Data et par l’intermédiaire de méthodes d’apprentissage artificiel, les algorithmes vont ensuite être calibrés et modélisés pour apprendre. Avec le Deep Learning, plus récent, cette autre méthode d’apprentissage inspirée du réseau des neurones humains, plus complexe, va plus loin.
Grâce au Chatbot – l’agent conversationnel capable d’échanger avec un internaute – vous pouvez poser une question à la machine parce qu’il comprend votre requête et lui associe un contenu qui a été structuré. Ainsi, il va proposer les réponses qui sont théoriquement les plus cohérentes. Merci qui ? L’IA bien sûr !
Pour faire simple, on retrouve l’IA à toutes les sauces. Aujourd’hui, d’une simple phrase, on peut connaître la météo, programmer une alarme, être averti de ses rendez-vous, avec les trajets pour s’y rendre, avec des résultats de plus en plus précis au fil du temps… Mais au-delà de ces usages, pratiques mais un peu anecdotiques, on peut également citer la traduction automatique, la reconnaissance d’image, la reconnaissance faciale, assistants vocaux, les véhicules autonomes, l’agriculture, le secteur bancaire, l’aide médicale au diagnostic et tutti quanti.
Mais n’en fait-elle pas un peu trop au final ? Le site Microsoft dans un article intitulé «Tout savoir sur l’intelligence artificielle » révèle qu’en 2017, l’intelligence artificielle a franchi une étape décisive, parvenant à identifier les mots dans une conversation orale aussi bien qu’un être humain. Janvier 2018, nouvelle prouesse : l’IA dépasse les humains lors de différents exercices de lecture et de compréhension, dans le célèbre test de lecture de l’université de Stanford. (Les Echos / 21 janv. 2018 : lien)
Mais les IA posent déjà des problèmes éthiques : propos racistes de "chatbots" sur les réseaux sociaux, décisions de justice biaisées rendues au moyen de statistiques sociales et ethniques, voitures autonomes tueuses des personnes, etc… La question de l'éthique en intelligence artificielle est d’une brûlante actualité.
Les caisses noires en IA font débat en ce qu’elles favorisent la propagande ou à travers le programme américain COMPAS d’aide automatisée à la prise de décision judiciaire, défavorisent les récidivistes afro-américains, elles n’entament pas la foi en leur avenir du chercheur canadien en éthique de l’IA à l’université de Montréal, Martin Gibert : « (…) déterminer quelles sont les bonnes ou mauvaises valeurs morales est fluctuant en fonction des cultures. C’est ce que l’on appelle le relativisme moral (…). L’exemple fréquemment donné est celui de l’esclavage qui était acceptable à une époque et qui ne l’est plus… ».