L’Intelligence Artificielle (en abrégé IA et « AI : Artificial Intelligence » pour les anglophones) est la technologie consistant à créer des programmes informatiques ou robots capables d’exécuter des tâches accomplies par l’homme demandant une compréhension, un raisonnement, une adaptation, un apprentissage, une organisation et de la mémoire.
Comment définir l’Intelligence Artificielle ?
L’Intelligence Artificielle est employée aujourd’hui dans plusieurs domaines tels que :
- le système bancaire (les systèmes d’évaluation de risque liés à l’octroi de crédit),
- les jeux ou jeux vidéo (les jeux d’échec sur ordinateur par exemple avec des stratégies intelligentes),
- l’armée (avec l’élaboration de systèmes autonomes tels que les drones),
- la médecine (avec des systèmes d’aide au diagnostic),
- les systèmes de reconnaissance vocale ou faciale, le GPS, les Smartphones ou encore dans l’automobile (les voitures autonomes Google Cars par exemple).
Cette technique qui a pour but d’améliorer le quotidien des hommes, a fait ses débuts dans les années 50, et n’a cessé dès lors d’évoluer. Du simple ordinateur capable d’effectuer quelques calculs, nous sommes passés à des drones autonomes semi-intelligents.
L’Intelligence Artificielle connait une progression exceptionnellement rapide et a des retombées assez positives dans la mesure où elle stimule la créativité, permet de gagner du temps (en voiture par exemple, grâce au Bluetooth, vous pouvez demander à votre Smartphone d’appeler un correspondant précis ce dernier composera lui-même le numéro.
Cela est aussi bénéfique à votre sécurité en voiture) et optimise le partage d’idées et de connaissances.
Quels sont les enjeux de l’IA en 2018 ?
Le but de l’intelligence artificielle est de reproduire le système cognitif humain afin de soulager les hommes. Une telle technologie repose bien évidement sur l’usage d’algorithmes poussés.
Si l’IA a un impact sur notre vie quotidienne, elle a aussi pour vocation de transformer les frontières qui subsistent entre l’homme et la machine. En 2018, trois grands enjeux sont intimement liés à l’intelligence artificielle.
Des enjeux économiques
En 2018, l’heure est à la « plateformisation » de l’économie. Les entreprises partent à la chasse aux données numériques via leurs sites web. Aux USA, les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) ont le monopole du marché. Mais la Chine est aussi une pointure dans ce domaine.
Par ailleurs, l’automatisation des tâches et la démocratisation des IA sont susceptibles de détruire plus d’emplois qu’elles n’en créent.
Des enjeux éthiques
De nos jours, toutes les applications domestiques présentent des risques importants en matière de respect de la vie privée et des données personnelles. Comment être certains que les données des usagers ne seront pas vendues à l’entreprise la plus offrante ? Aussi la définition d’un statut légal à part entière pour les robots et autres intelligences artificielles fait-elle aujourd’hui débat.
Des enjeux technologiques
L’IA présente aussi des enjeux technologiques, lesquels sont liés aux algorithmes utilisés. Par exemple, la question du piratage de véhicules (drones, voitures autonomes) ou encore de la perte de contrôle de l’un ou de l’autre de ces systèmes est souvent posée. Par ailleurs, l’éligibilité de certains algorithmes ne peut être garantie sans que des outils de vérification soient mis en place.
À titre indicatif, dans le cas des algorithmes employés pour la diffusion d’actualités sur les réseaux sociaux ou encore de publicités personnalisées, rien ne prouve que les informations véhiculées ne sont pas fausses (fake news).
Quelles sont les limites de l’Intelligence Artificielle ?
L’Intelligence Artificielle a certes la force de reproduire un comportement intelligent comparable à celui d’un homme, mais elle a également des limites. L’IA est en effet incapable d’éprouver des sentiments, d’avoir une conscience (qui est plutôt biologique et non matérielle).
Il lui est impossible de s’auto-améliorer, de s’autocritiquer ou encore de s’auto-corriger. Pour cela elle necessite l’intervention humaine.
Les développeurs travaillent à rendre ces logiciels toujours plus performants, ou essaient tout simplement de les humaniser. Cela pourrait conduire à des dérives d’où l’inquiétude de certains utilisateurs et scientifiques.
Ces inquiétides ont poussé Isaac Asimov, écrivain de science-fiction, à établir des lois pour, selon lui, limiter l’influence des machines :
- (i) Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger,
- (ii) Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi,
- (iii) Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi.
Que donne la recherche sur l’IA en France ?
Dans un rapport publié en mars 2017, l’Office Parlementaire d’Évaluation des Choix Scientifiques (OPECST) met en évidence le rôle de divers organismes publics français en matière de recherche en IA. L’Institut National de Recherche en Information et en Automatique (UNRIA) semble être l’organisme le plus impliqué dans ce domaine en France.
Le CNRS, le CEA et certaines universités suivent la tendance. Cependant, d’après l’OPECST, la communauté française autour de l’intelligence artificielle n’est pas suffisamment organisée, et surtout visible. Il semblerait en effet que la France ait un train de retard dans ce domaine, par rapport à la Chine et aux États-Unis.
A lire aussi :