Newsletter - Avril 2018 - L'intelligence artificielle augmentée par l'intelligence humaine.
Bulletin d'information d'avril 2018
L'Intelligence Artificielle (IA ou AI, en anglais pour Artificial Intelligence) est la mise en œuvre de plusieurs techniques qui permettront aux machines d'imiter une forme d'Intelligence Humaine. Cette notion est apparue dans les années 1950 grâce au mathématicien Alan Turing, qui dans son livre "Computing Machinery and Intelligence", pose la question d'apporter une forme d'intelligence aux machines. Il décrit un test connu sous le nom de "Test de Turing" Dans lequel un sujet interagit en aveugle avec un autre humain, puis avec une machine programmée pour formuler des réponses sensées. Si le sujet n'est pas capable de faire la différence, alors la machine a passé le test et, selon l'auteur, peut véritablement être considérée comme "intelligente".(Source 1)
L'Intelligence Artificielle existe depuis plus de 60 ans. En effet, John McCarthy, le pionnier de l'IA, a créé un algorithme d'évaluation qui joue un rôle majeur dans la programmation de l'Intelligence Artificielle, que l'on retrouve notamment dans les programmes d'échecs (programme informatique capable de jouer aux échecs). Il est également l'un des pionniers de l'informatique en nuage, ou cloud computing qui est un ensemble de services informatiques (serveurs, stockages, bases de données, composants réseau, logiciels, outils d'analyse, etc.) fournis via un réseau distant, comme Internet.
L'essor du numérique et la révolution digitale ont permis à l'Intelligence Artificielle d'être de plus en plus présente dans tous les secteurs d'activité. En effet, elle est mise en œuvre dans différents domaines d'application tels que la santé avec le développement de traitements médicaux adaptés à chacun en fonction de son code génétique, l'industrie automobile avec des voitures autonomes disposant de systèmes de navigation assistée ou encore de logiciels de reconnaissance vocale et visuelle (notamment pour le stationnement) et bien d'autres encore.
La transformation numérique qui est au cœur de la stratégie de développement de toutes les entreprises d'aujourd'hui pousse ces dernières à se pencher sur les problématiques de l'Intelligence Artificielle, étroitement liée au Big Data, autre phénomène qui a explosé depuis 2012. En effet, on constate que les entreprises tentent, par exemple, d'appliquer l'IA à des domaines spécifiques tels que la mise en place de réseaux de neurones artificiels composés de serveurs permettant de traiter des calculs lourds au sein de gigantesques Bases de données, de chatbots pour le service client, de crypto-monnaies pour les FinTech, etc.
Des innovations technologiques fascinantes sont désormais possibles grâce à l'émergence de la puissance de calcul, du Big Data et de l'Intelligence Artificielle.
- Puissance de l'ordinateur
Selon Gordon Moore (1965), cofondateur d'Intel, la puissance de traitement des ordinateurs doublerait tous les deux ans. Ses théories se sont avérées exactes. Les ordinateurs d'aujourd'hui disposent de systèmes plus que performants. Nvidia et Alphabet utilisent l'IA pour réaliser des cartes détaillées en temps réel, exploitées par leurs véhicules d'essai pour visualiser le monde, par exemple.
Google, IBM Cloud et Microsoft ont lancé des applications (Tensor processing Unit, systèmes quantiques, ordinateur quantique) qui visent à accélérer le processeur de l'ordinateur pour mieux gérer les flux de données et le traitement des calculs d'apprentissage Réseaux neuronaux.
- Le boom des données numériques
Chaque jour, des milliers de données sont créées et échangées dans le monde. Le nombre de données connaît une croissance exponentielle. En effet, selon une étude d'IBM, 90 % des données mondiales actuelles ont été créées au cours des deux dernières années. D'ici 2025, les données mondiales atteindront 163 zettaoctets selon International Data Corporation, une société internationale spécialisée dans l'intelligence.
THEIntelligence Artificielle : de meilleurs algorithmes
Le machine learning est une technologie de l'Intelligence Artificielle qui permet aux ordinateurs d'apprendre sans avoir été programmés pour. Grâce au machine learning, les ordinateurs sont capables d'apprendre à résoudre des problèmes par eux-mêmes.
"Un algorithme d'apprentissage automatique reçoit un ensemble de données d'apprentissage, puis utilise ces données pour répondre à une question. Par exemple, un ensemble de données d'apprentissage contient plusieurs photographies. Certaines indiquent qu'elles illustrent un chat, et d'autres indiquent qu'elles ne montrent pas de chat. En regardant un nouvel ensemble de photos, l'ordinateur sera capable de reconnaître celles qui illustrent un chat. En même temps, l'ordinateur ajoutera ces nouvelles photos à son ensemble d'apprentissage. Au fur et à mesure que le programme devient plus intelligent et plus capable d'effectuer la même tâche. "
Aujourd'hui, le Machine Learning est utilisé dans différents secteurs comme la santé avec l'évaluation des risques de maladies comme le cancer ou le diabète ; ou encore le high-tech avec des applications intelligentes comme Siri ou Google Now, des assistants vocaux qui ont la capacité de comprendre le langage naturel des hommes par exemple. Nous avons aussi d'autres industries comme l'automobile avec la voiture autonome, etc. En théorie, les ordinateurs et les machines vont continuer à se développer et à gagner en autonomie pour "concurrencer" l'intelligence humaine.
"Sans le Big Data, le Machine Learning et l'Intelligence Artificielle ne seraient rien. Les données sont l'instrument qui permet à l'IA de comprendre et d'apprendre comment les humains pensent. C'est le Big data qui permet d'accélérer la courbe d'apprentissage et qui permet l'automatisation des analyses de données. Plus un système de Machine Learning reçoit de données, plus il apprend et plus il devient précis. "
The Deep learning Revolution of learning by example
"L'apprentissage automatique est un sous-domaine de l'Intelligence Artificielle. Le Deep Learning est lui-même une sous-catégorie de l'apprentissage automatique. L'exemple d'application le plus courant est la reconnaissance visuelle. Par exemple, un algorithme va être programmé pour détecter certains visages à partir d'images provenant d'une caméra. En fonction de la base de données attribuée, il pourra repérer un individu recherché dans une foule, détecter le taux de satisfaction à la sortie d'un magasin en détectant les sourires, etc. Un ensemble d'algorithmes pourra également reconnaître la voix, le ton, l'expression de l'interrogation, de l'affirmation et des mots.
Pour ce faire, le Deep Learning s'appuie principalement sur la reproduction d'un réseau de neurones inspiré des systèmes cérébraux présents dans la nature. Les développeurs décident en fonction de l'application souhaitée du type d'apprentissage qu'ils vont mettre en place. Dans ce contexte, on parle d'apprentissage supervisé, non supervisé dans lequel la machine va se nourrir de données non sélectionnées, semi-supervisé, par renforcement (lié à une observation), ou par transfert dans lequel les algorithmes vont Appliquer une solution apprise dans une situation jamais vue.
En revanche, cette technique nécessite beaucoup de données pour s'entraîner et obtenir un taux de réussite suffisant pour être utilisée. Un lac de données ou data lake est essentiel pour l'apprentissage des algorithmes de Deep learning. Le Deep learning nécessite également une puissance de calcul plus élevée pour mener à bien son office.
"Ces dix dernières années, le Deep learning a radicalement changé les données de l'informatique, rappelle Emmanuel Mogenet. Auparavant, IE dans les années 1980 et 1990, apprendre quelque chose à un ordinateur, c'était le programmer. Mais un programme peut être compliqué à écrire, donner lieu à des bugs... et surtout, il doit contenir des instructions explicites, qu'il n'est pas toujours facile de fournir sur certains sujets complexes. "Lorsque je marche, je suis incapable de décrire avec précision le mouvement de chacun de mes muscles", note le chercheur. "La véritable révolution du deep learning, c'est l'apprentissage par l'exemple", décrypte-t-il. De quoi permettre aux machines de reproduire les comportements cognitifs que l'être humain lui-même ne sait pas expliquer ! "Par exemple, en montrant à l'algorithme des images avec un chat, puis d'autres sans, et en lui indiquant à chaque fois la bonne réponse attendue, l'ordinateur apprend à reconnaître les chats dans une bibliothèque d'images. Au bout d'un certain nombre d'images, la magie opère : Le système commence à généraliser, et sait reconnaître l'animal sur des photos qu'il n'a jamais vues. »
Un moteur de recherche qui comprend vraiment les requêtes
La sémantique, ou la compréhension du sens des mots, est à cet égard essentielle pour Google afin de perfectionner son moteur de recherche.
Comment l'Intelligence Artificielle a besoin de se nourrir de l'Intelligence Humaine ?
Dans un monde où l'Intelligence Artificielle se développe d'année en année, l'IntelligenceHumaine doit continuellement évoluer. Elle aura toujours un rôle important dans le développement et l'optimisation de l'Intelligence Artificielle.
L'intelligence Peut rester compétitive en :
Les machines peuvent effectuer des tâches répétitives telles que la planification et l'assemblage de pièces dans une usine, mais la pensée créative abstraite est une tâche humaine essentielle au succès de l'entreprise. Connaissez vos forces humaines et continuez à apprendre et à acquérir de nouvelles compétences.
Les humains sont des penseurs critiques qui peuvent innover, créer, résoudre des problèmes et établir des relations avec d'autres personnes. Les personnes qui font cette distinction importante s'adaptent à un monde de plus en plus alimenté par l'IA.
Isahit, une plateforme intelligente de tâches numériques socialement responsables ou la complémentarité de l'intelligence artificielle et de l'intelligence humaine ?
Isahit est une startup citoyenne qui permet de lier IntelligenceArtificielle et Intelligence Humaine. Cette French tech for good propose aux entreprises une interface de programmation et une plateforme d'impact de sourcing numérique, pour le traitement des tâches numériques qui ne peuvent être prises en charge par une IntelligenceArtificielle.
La communauté de HITers d'isahit (HIT = Human Intelligence Task) est principalement composée de femmes basées en Afrique, à la recherche d'un revenu complémentaire pour financer leurs études ou un projet entrepreneurial. Isahit s'inscrit dans une démarche de co-développement en participant au déploiement de la stratégie RSE des entreprises françaises et en donnant de nouvelles opportunités aux populations des pays émergents et en montrant l'impact de la complémentarité de l'Intelligence Artificielle et de l'Intelligence Humaine.
Sources Pour plus d'informations :
The Big Data : Big Data - Machine Learning
THEIntelligence Artificial : TechTarget - Forbes - Cloud Factory - Science and the Future
Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !