Intelligence Artificielle : pour le meilleur et pour le…
Vous vous êtes toujours demandé ce qu’était réellement l’intelligence artificiel ? Et surtout quelles étaient les utilisations actuelles et futures que vous pourriez faire de cette révolution technologique ? Tentons de répondre à toutes vos questions aujourd’hui dans cet article.
Dès 2016, Stephen Hawking déclarait que l’Intelligence Artificielle (IA) pouvait détruire la culture humaine. Elle pouvait être « le meilleur, mais également le pire de l’histoire de l’humanité ». En 2014, il exprimait des positions similaires dans un entretien accordé à la BBC. Par la suite, il a été très actif dans la mise en oeuvre des réglementations nécessaires pour encadrer la recherche sur l’IA.
Vous pouvez retrouvez le speech d’ouverture ici.
Face à la mise en garde de cet éminent chercheur, disparu tout récemment, essayons de cerner l’histoire de l’IA.
Notre programme de formation pour booster vos équipes commerciales avec L’IA
Tout d’abord, qu’entend on par Intelligence Artificielle (IA) ?
l’IA est définie comme un ensemble d’algorithmes conférant à une machine des capacités d’analyse et de décision lui permettant de s’adapter intelligemment aux situations en faisant des prédictions à partir de données déjà acquises.
Toutefois, il faut se garder de considérer la machine comme semblable à un cerveau : la capacité des machines à reproduire les facultés attribuées aux animaux et aux êtres humains.
Aujourd’hui, on distingue deux branches : celle de l’apprentissage supervisé où la machine apprend à partir de nombreux exemples et celle de l’apprentissage par renforcement (Yann LeCun, Dir. de Recherche Unité Recherche IA chez Facebook et inventeur du deep learning ou apprentissage profond) ou la machine apprend de ses succès et de ses échecs.
Un peu d’histoire…
En 1965, Gordon Moore, co-fondateur d’Intel, diagnostiquait que la puissance informatique serait en mesure de doubler tous les 18 à 24 mois. Ses prédictions se sont avérées exactes jusqu’aux années 2010, où le secteur High Tech de la robotique, de la biotechnologie, a vu d’incroyables avancées.
En 1990, des scientifiques ont entrepris de décoder le génome humain. Un procédé long et couteux qui n’a été possible qu’avec l’aide de la puissance informatique et de logiciels customisés. Ils ont entrepris ensuite d’éditer le génome grâce à la technique CRISPR (ensemble de molécules qui permettent de modifier l’ADN).
Aujourd’hui, les technologies analytiques du Big Data (mégadonnés) vont permettre de développer des traitements médicaux adaptés à chacun en fonction de son code génétique.
Le débat éthique :
Le futur de l’homme et de la machine
D’ici quelques années nos activités quotidiennes et nos emplois seront ils réalisés par des robots, des machines ? Ce débat est au centre du monde technologique et professionnel depuis plusieurs années. Des chercheurs de l’Université d’Oxford et de Yale ont réalisé en mars 2018 une étude sur le futur de l’homme et de la machine. Les résultats seront publiés dans quelques mois et risquent bien d’être intéressants.
L’intelligence artificielle surpassera t’elle l’être humain ?
La réponse obtenue par sondage auprès de 352 scientifiques : 50% de chance qu’une machine soit supérieure à l’homme dans tous les domaines, d’ici 45 ans environ. Si les recherches continuent à progresser à un rythme rapide, l’horizon 2045 verrait l’avènement d’une IA dite « forte » qui aurait les mêmes capacités intellectuelles qu’un être humain ainsi qu’une conscience propre. Les chercheurs planchent actuellement pour injecter aux programmes de la « morale », car ils ne sont pas exempts de préjugés.
Mais que deviendrait l’homme si l’IA avait conscience de sa supériorité sur l’espèce humaine ?
S’en remettre à des machines et des systèmes d’aide à la décision ne nous fait il pas perdre un peu de notre humanité ?
Toutes ces questions semblent sortir du classique de Science Fiction, « Le Monde des A » d’A.E. van Vogt, mais nous ramènent à la nécessité de définir rapidement une éthique et un encadrement législatif, dans le monde.
Elon Musk, l’entrepreneur américain qui a fondé Tesla, a alerté les politiques américains sur la nécessité de réguler l’Intelligence Artificielle. Pour lui, l’IA est désormais « le plus grand risque auquel notre civilisation sera confrontée ». Stephen Hawking, comme nous l’avons dit en début d’article, et Bill Gates, suivent le même raisonnement . Ils pensent que l’humanité peut bénéficier de cette forme d’intelligence, mais qu’il faudrait l’utiliser avec précaution. L’IA peut être une innovation positive à condition qu’elle soit régulée.
Fonctions de l’IA et ses limites
L’IA permet actuellement :
- D’analyser des textes : qu’ils soient oraux ou écrits, l’IA arrive de mieux en mieux à comprendre et utiliser le langage pour répondre automatiquement à des requêtes variées. Aujourd’hui, on l’utilise pour gérer les relations clients sur internet ou par téléphone. Les « chatbots » sont des systèmes intelligents qui arrivent à entretenir une conversation en langage naturel avec des utilisateurs.
- La modélisation des connaissances pour aider à la prise de décision : coder un ensemble de connaissances, reproduire un raisonnement type et utiliser ces informations pour prendre des décisions (aujourd’hui il est possible de proposer des traitements médicaux personnalisés pour certains cancers).
- La production de connaissances grâce au « Machine Learning » : la machine devient capable de repérer des tendances ou des corrélations dans un grand volume de données en adaptant ses analyses et de créer ses propres connaissances en fonction de l’expérience accumulée. Cela permet d’évaluer la consommation d’énergie par exemple.
- L’analyse des images : reconnaître des défauts de fabrication ou détecter des visages. Les chercheurs développent des logiciels qui permettent aux ordinateurs d’acquérir des capacités d’apprentissage (deep Learning).
- La réalisation et reproduction de certains gestes humains (administrer un vaccin par exemple).
Mais l’IA a ses limites :
L’IA se retrouve dans tous les secteurs d’activités des transports à la Santé ou l’énergie, de la finance à l’administration et au commerce, et à l’organisation du travail (automatisation des tâches).
- Les systèmes d’IA d’aujourd’hui, font de leur mieux pour imiter le fonctionnement des réseaux neuronaux du cerveau humain, mais il le font de manière très limitée. Pour le dire simplement, vous dites à une IA exactement ce que vous voulez apprendre et lui fournissez des exemples clairement étiquetés et elle analyse les modèles dans ses données et les stocke pour une application future. La précision de ces modèles dépend des données. Plus vous lui donnez d’exemples, plus elle devient utile. Là réside justement le problème : l’IA est aussi bonne que les données qu’elle reçoit et elle est capable d’interpréter ces donnée uniquement dans les limites étroites du contexte fourni. Elle est incapable d’appliquer son analyse à des scénarios dans d’autres contextes.
- La plus grande difficulté avec cette forme d’IA est que ce qu’elle a appris reste un mystère. Il s’agit d’un ensemble de réponses indéfinissables aux données. Une fois qu’un réseau de neurones est formé, même son concepteur ne sait pas exactement comment il fait, ce qu’il fait. Comme l’explique Gary Marcus Professeur à l’Université de New-York, les systèmes d’apprentissage en profondeur ont des milliards de paramètres identifiables à leurs développeurs, uniquement en termes de géographie au sein d’un réseau neuronal complexe.
Les entreprises ne peuvent pas se permettre que leurs systèmes prennent des décisions étrangères. Elles font face à des exigences règlementaires et à des préoccupations de réputation, et doivent être capables de comprendre, d’expliquer et de démontrer la logique derrière chaque décision prise.
- L’IA doit être capable d’avoir une vue d’ensemble et d’inclure beaucoup plus de sources d’information que les systèmes informatiques qu’elle remplace.
Amazon est un exemple d’entreprise qui a mis en oeuvre l’IA de manière efficace pour optimiser toutes les parties de ses opérations, de la gestion des stocks et de l’exploitation des entrepôts aux centres de données en cours d’exécution.
En résumé, les Intelligences Artificielles développées aujourd’hui sont dites « froides« . Elles savent au mieux imiter le raisonnement de l’être humain et appliquer des protocoles de prise de décision.
Le test de Turing (du nom d’Alan Turing, pionnier de l’IA dans les années 1950 et inventeur du test) permet en s’adressant à une machine et un être humain de détecter lequel est une IA.
L’IA et la sécurité
L’amélioration de la sécurité des IA est une nécessité. L’IA basée sur des logiciels est potentiellement vulnérable et peut être la cible de cyber-attaques. Dans certaines situations, telles que les opérations chirurgicales réalisées par des robots ou la gestion de systèmes de production dans les usines, un piratage informatique peut tourner à la catastrophe.
Dans un ouvrage publié en février 2018 » L’utilisation malveillante de l’intelligence Artificielle », 26 experts internationaux cataloguent différents scénarios catastrophe et définissent 3 axes principaux sur lesquels l’IA peut être manipulée par des personnes malveillantes :
- La sécurité numérique.
- La sécurité physique.
- La sécurité politique.
Ces experts proposent des pistes d’intervention qui requièrent l’attention conjointe des chercheurs en IA et en sécurité, des entreprises, des parlementaires…
Par ailleurs, aucune législation n’existe actuellement pour utiliser les logiciels d’IA. Les données sont accessibles à tous, aux fraudeurs comme aux hackers.
Même si le développement et le perfectionnement de l’Intelligence Artificielle soulèvent des questions étiques et de sécurité, son enjeux reste d’assister l’homme et de le remplacer dans les tâches les plus dangereuses. Tout ceci ne se fera pas sans des bouleversements importants dans de nombreux domaines (éducation, emploi, législation…) que nous aborderons dans un prochain article.
Il y a tout juste 76 ans, l’écrivain de Science Fiction Isaac Asimov définissait les premières lois de la Robotique dans son roman « Cercle vicieux » (« Runaround » en Anglais). Les voici :
- Un robot ne peut blesser un être humain ou par son inaction, permettre à un être humain de se blesser.
- Un robot doit obéir aux ordres qui lui sont donnés par des être humains, sauf si ces ordres entrent en conflit avec la première loi.
- Un robot doit protéger sa propre existence tant que cette protection n’est pas en conflit avec la première et la seconde loi.
Ces lois ont été écrites pour les robots, avant que la technologie robotique ne se manifeste dans le monde réel.
Aujourd’hui, les robots modernes sont beaucoup plus « discrets » que dans les livres d’Asimov ! Toutefois, lors de la mise en oeuvre de robots, les entreprises ont toujours la responsabilité de les utiliser à bon escient.
Retrouvez nous Linkedin, Facebook et Twitter !
Notre programme de formation pour booster vos équipes commerciales avec L’IA