Qu’est-ce que l’intelligence artificielle (IA) ?
L’intelligence artificielle (IA) organise les fils d’actualité de nos réseaux sociaux et optimise automatiquement les photos sur nos téléphones, on le sait, mais c’est un domaine qui reste largement mal compris.
Il s’agit d’un domaine incroyablement complexe de l’informatique, où les meilleurs chercheurs gagnent autant que les grands noms du sport de haut niveau. Il utilise des termes peu courants dans notre quotidien, tels que données d’apprentissage, réseaux neuronaux ou LLM. Beaucoup voient l’intelligence artificielle à travers le prisme de la culture populaire et de ses héros, comme l’androïde Data de la série Star Trek.
Mais prenons un peu de recul. Dans cet article, nous allons tenter de faire la lumière sur ce qu’est réellement l’intelligence artificielle. Vous y apprendrez la terminologie essentielle, comment fonctionnent les modèles IA et comment l’intelligence artificielle transforme le monde d’aujourd’hui et de demain.
Qu’est-ce que l’intelligence artificielle ?
D’après une étude de janvier 2022 réalisée par Ipsos Mori pour le Forum économique mondial, seulement 64 % des personnes interrogées dans le monde affirment comprendre ce qu’est exactement l’intelligence artificielle. Ce chiffre concorde avec ceux d’une autre étude — cette fois menée par le Centre for Data Ethics and Innovation au Royaume-Uni — qui montre que si 63 % des Britanniques déclarent comprendre ce qu’est l’intelligence artificielle, seuls 13 % peuvent en donner une définition détaillée.
À un niveau élémentaire, l’intelligence artificielle peut être considérée comme une décision prise par un ordinateur et dont « l’intelligence » la rend impossible à distinguer d’une décision humaine, indépendamment de la manière dont la décision est prise. Comme le dit lui-même Alan Turing, inventeur de l’informatique moderne et cryptoanalyste de génie : « Un ordinateur mérite d’être qualifié d’intelligent s’il peut amener un humain à croire qu’il est humain ».
Quelle est la différence entre l’intelligence artificielle et le machine learning ?
L’intelligence artificielle et le machine learning (ou apprentissage automatique) sont souvent confondus, alors qu’il existe plusieurs différences entre les deux concepts.
L’intelligence artificielle est définie comme un programme informatique qui prend des décisions dont « l’intelligence » ne permet pas de les distinguer des décisions humaines.
Depuis les années 1960, l’intelligence artificielle a évolué pour englober de très nombreux algorithmes capables d’effectuer diverses tâches. L’une d’elles est la détection et reconnaissance de modèles, généralement appelée machine learning.
Le machine learning a fortement progressé au cours des 15 dernières années en raison des avancées réalisées dans l’une de ses familles d’algorithmes : les réseaux neuronaux. Grâce à des ordinateurs plus puissants que jamais, les réseaux neuronaux peuvent gagner en « profondeur », d’où les progrès du deep learning, ou apprentissage profond. Les améliorations apportées aux outils mathématiques ont contribué à optimiser les réseaux neuronaux grâce à des techniques telles que la rétropropagation du gradient et la fonction d’activation ReLU (unité linéaire rectifiée ou redresseur) qui permet d’effectuer des calculs de façon rapide et précise.
Conjointement, tous ces progrès ont contribué au développement de l’intelligence artificielle générative actuelle, qui propose des systèmes plus précis et évolutifs.
Que peut faire l’intelligence artificielle ?
L’IA est un immense domaine de recherche de l’informatique et nous l’utilisons dans de nombreux aspects de notre quotidien, souvent sans le savoir. Outre les outils d’intelligence artificielle générative comme ChatGPT et MidJourney (un modèle capable de créer des images saisissantes à partir d’une seule invite écrite), il existe des systèmes d’IA discrets qui embellissent nos images Instagram et nous protègent contre les menaces en ligne. Recenser toutes les applications de l’IA, même les plus médiatisées, n’a pas vraiment d’intérêt. Intéressons-nous plutôt à ce que l’intelligence artificielle est capable de faire de manière générale et l’une des façons de décrire ses capacités est d’étudier les questions auxquelles elle est capable de répondre :
- Quelle est la meilleure option ? Un algorithme d’IA peut examiner un ensemble de conditions, actuelles et prévues, et déterminer le meilleur moyen d’effectuer une tâche ou une action donnée. À titre d’exemple, citons une carte de navigation qui sélectionne le meilleur itinéraire en fonction du trafic réel et attendu, ou un site web équilibrant la charge du trafic entre plusieurs serveurs.
- À quoi cela fait référence ? L’intelligence artificielle excelle à identifier et à catégoriser les objets et les tendances. Un véhicule autonome peut utiliser l’IA pour identifier d’autres véhicules sur la route. Un algorithme de détection de spam peut utiliser l’IA pour identifier les e-mails de spam et de phishing probables.
- Qu’est-ce qui se répète ? L’intelligence artificielle peut reconnaître des modèles et des tendances à partir de grands ensembles de données. Cette aptitude à reconnaître les modèles amène à quantité d’applications, qu’il s’agisse d’un système d’IA générative répondant de façon cohérente à des questions, ou d’un système de sécurité capable d’identifier une menace de sécurité potentielle sur la base des actions d’une personne et des comportements précédemment observés.
- Quelle est la meilleure action à entreprendre ? L’intelligence artificielle peut analyser une situation et identifier l’étape optimale suivante sur la base des conditions actuelles. C’est le cas, par exemple, d’une voiture autonome qui réduit sa vitesse lorsqu’elle remarque que les feux de freinage du véhicule qui la précède s’allument ou d’un personnage de jeu vidéo qui ajuste ses tactiques et sa position en fonction du comportement du joueur.
Une application peut utiliser plusieurs éléments et modèles d’IA. Ainsi, une voiture autonome possède un système qui catégorise le trafic et interprète ces données pour contrôler le freinage, l’accélération ou la conduite du véhicule.
Comment fonctionnent les systèmes d’intelligence artificielle ?
Qu’il s’agisse de chatbots d’IA générative comme ChatGPT, l’outil Bard de Google ou encore des systèmes d’IA plus petits chargés de résoudre des problèmes spécifiques, par exemple ceux qui gèrent l’optimisation des images ou de la batterie sur votre téléphone, les systèmes d’IA ont souvent un élément en commun : les données.
C’est grâce aux données qu’un système d’IA apprend automatiquement les règles servant à prédire, générer et identifier le résultat cible. Dans certains cas, les données doivent être annotées (voir la section sur l’apprentissage supervisé dans l’article de blog What is ML?). Ces données sont de divers types : texte, vidéo, audio, images, valeurs numériques, etc. Comme elles donnent à l’algorithme une certaine représentation du monde, leur qualité a une incidence majeure sur la qualité des résultats de l’algorithme.
Pour être efficaces, ces données doivent avoir une qualité suffisamment élevée. Cette qualité peut être déterminée par une série de facteurs, dont les suivants :
- Pertinence : l’image montre-t-elle des céréales pour petit-déjeuner ?
- Qualité : un humain peut-il facilement identifier les céréales sur la photo ? L’éclairage, la résolution et le cadrage sont-ils suffisamment bons ?
- Variabilité : les donnes montrent-elles la même variété de céréales de différentes façons ?
- Biais : les données sont-elles représentatives, non seulement pour vous, mais pour quiconque utilise votre système ?
L’avenir de l’IA est une IA forte
Les applications d’intelligence artificielle appartiennent à une des deux catégories suivantes : l’IA faible et l’IA forte.
IA faible
L’intelligence artificielle faible, aussi appelée intelligence artificielle étroite, désigne les systèmes d’IA qui se concentrent sur une seule tâche. Par exemple, l’appareil photo de l’iPhone utilise l’IA pour comprendre la composition d’une image et la rectifier en conséquence. De même, l’algorithme de recommandation de vos applications de réseaux sociaux apprend vos préférences pour afficher du contenu similaire.
Ne vous arrêtez pas aux mots « étroit » et « faible ». Ces systèmes le sont rarement. Ils signifient simplement qu’ils se consacrent exclusivement à la réalisation d’une seule tâche et n’ont donc pas la faculté d’apprendre et de fonctionner au-delà de cette tâche unique.
Chaque système d’IA utilisé aujourd’hui — y compris ceux chargés de réaliser des tâches complexes, comme les voitures autonomes — appartiennent à cette catégorie. Les applications d’IA faible identifient des modèles dans les données d’apprentissage, puis les implémentent dans le monde réel. Ainsi, le système d’IA du logiciel de la voiture autonome de Tesla examine des séquences vidéo de conditions de conduite réelles. Ces données aident le système à anticiper les actions des piétons, des cyclistes et d’autres conducteurs.
Intelligence artificielle générale
L’intelligence artificielle générale (IAG), également appelée IA forte, désigne une classe hypothétique de systèmes d’IA qui ont la capacité, à l’instar des humains, d’apprendre et de s’adapter à de nouvelles situations. Les chercheurs qualifient cette capacité de « généralité ».
C’est l’intelligence artificielle de la science-fiction où, comme le personnage Data dans Star Trek, les ordinateurs peuvent agir, improviser, voire se comporter comme des humains. Si les systèmes d’IA faible existent pour accomplir des tâches spécifiques, une intelligence artificielle générale ferait preuve de ce qu’on pourrait qualifier de sentience.
La définition de la sentience est un enjeu philosophique complexe, souvent controversé. Essayons d’être plus précis. Dans ce contexte, il se réfère aux capacités d’une machine à apprendre de nouvelles tâches sans devoir ingérer d’importants volumes de données d’apprentissage ou créer des modèles statistiques ou mathématiques. Une machine serait alors en mesure de reproduire l’adaptabilité d’un humain, particulièrement lorsqu’il s’agit de défis imprévus ou inédits.
Même si cette définition paraît simple, il n’existe en réalité aucun critère ni définition formels de ce que constitue l’intelligence artificielle générale. Sarah Hooker, directrice du laboratoire de recherche Cohere for AI décrit le débat entourant l’IAG comme étant dicté par la valeur plutôt que les considérations techniques.
Il n’existe pas de test universellement reconnu pour déterminer si un système d’intelligence artificielle répond aux critères d’une IAG, même si des chercheurs et des informaticiens ont proposé plusieurs solutions potentielles.
Nils John Nilsson, un des pionniers de la recherche sur l’intelligence artificielle, a suggéré de procéder à des tests axés sur l’emploi, au cours desquels un système est évalué sur sa capacité à apprendre et à effectuer de nouvelles tâches — comme un réceptionniste, un auxiliaire juridique, un plongeur ou un conseiller matrimonial. Steve Wozniak, cofondateur d’Apple, a proposé de voir si une IAG était capable d’entrer dans une maison inconnue et d’y faire du café.
Wozniak : Un ordinateur peut-il préparer une tasse de café ?
À ce jour, aucun système d’IAG n’a été créé. Qui plus est, la question de savoir si de tels systèmes pourraient être créés — ou s’il est judicieux qu’ils le soient — reste une question épineuse au sein de la communauté de l’IA.
Certains chercheurs pensent qu’une IAG pourrait poser une menace existentielle à la vie humaine. Dans un tel scénario, dépeint notamment dans la série de films Terminator, une IAG ne deviendrait pas seulement une nouvelle classe d’êtres, mais surtout, elle se situerait à un niveau supérieur de l’échelle de l’évolution.
Comme le philosophe Ross Graham l’a expliqué dans un article rédigé pour AI & Society, une IAG pourrait conduire à une « explosion d’intelligence » qui la verrait « capable de s’autoconcevoir et s’autocorriger elle-même ou le faire pour d’autres machines ». À mesure qu’elle gagne en puissance, l’IAG pourrait « exclure les êtres humains si elle les juge trop fastidieux » ou éliminer l’humanité « par indifférence ou par accident ».
Reste aussi la délicate question de savoir si une IAG ferait preuve de sentience, et devrait donc posséder les mêmes droits inviolables qu’un humain. Cette vue a été exprimée dans un éditorial du Los Angeles Times écrit par le philosophe Eric Schwitzgebel et le chercheur en IA Henry Shevlin, dans lequel ils faisaient valoir qu’après avoir atteint un niveau « se rapprochant de la conscience », l’IAG pourrait exiger un traitement éthique.
Ils ont avancé que des systèmes d’IAG « pourraient exiger de ne pas être mis hors ligne, reformatés ou supprimés ; supplier d’être autorisés à réaliser certaines tâches plutôt que d’autres ; insister sur leurs droits, liberté et nouveaux pouvoirs ; peut-être même s’attendre à être traités comme nos égaux ». Cela reviendrait à acquérir une identité individuelle.
Les limites de l’intelligence artificielle
L’IA a la capacité d’améliorer notre vie privée et professionnelle, mais elle possède certaines limitations et présente divers risques qui doivent être atténués et maîtrisés.
- Les modèles d’IA ne peuvent pas juger si ce qu’ils disent, font ou prédisent est correct. Seul un humain en est capable. C’est pourquoi tant d’applications basées sur l’intelligence artificielle permettent aux utilisateurs de donner un feedback sur la précision ou la pertinence d’un résultat ou d’une action.
- L’IA ne peut pas identifier la causalité, uniquement la corrélation. Bien qu’elle puisse identifier la relation entre des événements ou des objets, elle ne peut pas dire que « X a causé Y » avec un quelconque degré de certitude.
- L’IA peut être biaisée. Sa capacité de raisonnement est basée sur les données d’apprentissage fournies, lesquelles doivent être traitées par un humain, de même que l’algorithme utilisé. Cela peut contribuer à introduire des biais humains qui influencent le processus décisionnel de l’IA. Un exemple est la reconnaissance faciale qui reconnaît uniquement des visages de type caucasien, car les données d’apprentissage étaient principalement constituées d'images de personnes à la peau claire.
- L’IA peut parfois halluciner. Ce problème est tout particulièrement répandu dans les systèmes d’IA basés sur les grands modèles de langage (parfois appelés modèles linguistiques étendus — en anglais Large Language Model ou LLM). Si le système ne connaît pas la réponse à une question, il invente quelque chose qui semble raisonnable, mais sans fondement réel.
- L’IA est souvent inexplicable. Ce point est tout particulièrement vrai – mais pas exclusivement – dans le cas des modèles basés sur les réseaux neuronaux profonds, où il est difficile de comprendre précisément comment un modèle est parvenu à une décision. Les seules choses qui soient visibles pour un participant humain sont l’entrée (les données d’apprentissage) et la sortie (le résultat).
- L’IA coûte cher. Le coût de développement et d’apprentissage d’un modèle sophistiqué s’élève à plusieurs millions de dollars. Comme l’IA utilise d’importantes ressources de calcul, elle exige souvent du matériel avancé – comme une puissante carte graphique ou accélérateur IA – pour travailler vite et à grande échelle. Certaines entreprises (notamment Tesla et Google) conçoivent leurs propres puces spécialisées pour gérer des tâches d’IA, ce qui augmente encore les coûts de départ.
- L’IA n’est pas équitable. Elle affecte négativement les populations vulnérables de manière disproportionnée.
Bon nombre de ces problèmes peuvent être résolus, et le seront sans doute, avec les futures avancées de la technologie d’intelligence artificielle. D’autres sont imputables aux humains qui ont créé les modèles. Mais aucun n’est a priori insurmontable.
Une solution consiste à adopter une approche de transparence pour les projets d’IA, et à permettre à des intervenants externes d’examiner minutieusement la composition des données d’apprentissage et à des parties prenantes externes de fournir un retour sur les finalités, le développement et le résultat d’un projet.
Une autre approche, adoptée par OpenAI, le développeur de ChatGPT, consiste à mettre en place des garde-fous pour le processus d’apprentissage. Ces mécanismes de protection peuvent inclure l’établissement de limites pour le comportement par défaut d’un modèle et la définition de valeurs qui déterminent globalement comment l’IA doit fonctionner, ainsi que son impact sur la société. OpenAI souhaite également permettre aux tiers concernés de fournir un retour sur les limites et les comportements par défaut d’un système d’IA.
Une autre stratégie, empruntée au secteur de la sécurité, consiste, pour les entreprises, à lancer des tests de simulation d’attaque sur leurs algorithmes. Ces tests sont de nature antagoniste et le testeur tente d’amener l’algorithme à faire ou dire quelque chose d’inapproprié. En identifiant les vulnérabilités d’un système d’IA, une entreprise peut limiter le risque de dommage réel.
Nous avons tous un rôle à jouer dans l’avenir de l’IA
La plupart des personnes qui utilisent pour la première fois un système d’IA générative en restent stupéfaits. C’est difficile de ne pas être impressionné par l’idée qu’un ordinateur puisse écrire des poèmes, expliquer des concepts difficiles ou créer des œuvres d’art surréalistes.
Et nous n’en sommes qu’au début. À mesure que les ordinateurs gagnent en rapidité et les modèles d’IA en sophistication, l’intelligence artificielle prendra de plus en plus d’importance dans notre quotidien. Pour beaucoup, c’est déjà le cas.
L’IA assumera de plus grandes responsabilités et de fait, entraînera de plus grands risques. L’idée qu’un ordinateur puisse un jour vous conduire au travail ou interpréter les résultats de votre radiographie ne semble plus relever de la science-fiction, mais d’une réalité qui n’est plus très éloignée.
Avant que cela ne se produise, nous devons instaurer une culture de gouvernance et de transparence de l’intelligence artificielle, où les entreprises sont tenues responsables des dommages causés par leur système d’IA. La puissance de l’IA doit être contre-balancée par des mesures de protection tout aussi robustes. La société a besoin d’une protection contre l’utilisation abusive de l’intelligence artificielle et des dommages accidentels provoqués par d’éventuels biais de l’IA. Pour cela, le meilleur moyen reste sans doute de comprendre ce qu’est l’intelligence artificielle, comment ces modèles fonctionnent, et de connaître leurs capacités et leurs limitations. Si tout le monde en comprend les principes, il est possible de déterminer s’il faut lui faire confiance.
Comme l’a avancé l’Association for the Advancement of Artificial Intelligence (la plus importante société scientifique au monde impliquée dans les recherches sur l’intelligence artificielle), il faut, pour bénéficier de tous ses avantages, une « large participation » de toutes les couches de la société — des gouvernements et entreprises technologiques aux organisations de la société civile.
« Les organisations de la société civile et leurs membres doivent donner leur avis sur les influences et les aspirations sociétales. Les gouvernements et les entreprises peuvent également jouer un rôle important [et] veiller à ce que les scientifiques disposent de ressources suffisantes pour mener des recherches sur des modèles à grande échelle, soutenir les recherches socio-techniques interdisciplinaires sur l’IA et ses influences plus larges. Ils doivent encourager le respect des bonnes pratiques d’évaluation des risques, réglementer les applications avec discernement et combattre les utilisations criminelles de l’IA. Les entreprises technologiques doivent s’investir dans le développement de mécanismes permettant aux chercheurs universitaires en intelligence artificielle d’accéder à l’expertise, aux ressources et aux modèles d’IA du secteur privé. »
Si la société dans son ensemble comprend l’intelligence artificielle et constate qu’elle est à la fois bien réglementée et fiable, elle lui fera confiance. Et c’est cette confiance — comme l’expliquait le Scientific American en 2018 — qui est capitale pour que l’IA puisse atteindre son plein potentiel.