Il existe plusieurs définitions et un large débat sur le concept d’intelligence artificielle (IA). En général, la technologie peut être décrite comme la capacité d’un système ou d’un mécanisme à simuler l’intelligence humaine.

IBM a une grande expérience de la collaboration avec l’IA. L’une des affaires les plus anciennes et les plus célèbres de la société a été le match d’échecs entre le célèbre champion du monde, en 1997, et le logiciel Deep Blue. C’était la première fois dans l’histoire qu’un ordinateur battait un joueur de niveau professionnel.

En 2011, un autre IBM AI, Watson, a remporté l’émission de télévision Jeopardy ! un concours qui fournit des réponses sur la culture populaire, et les participants doivent trouver la bonne question. Le logiciel a battu les deux plus grands concurrents humains du programme uniquement grâce à l’accès à la base de données hors ligne de Wikipedia.

Après avoir franchi ces deux étapes dans l’histoire de l’intelligence artificielle, en 2014, IBM a commencé à offrir certains services pour la construction d’applications cognitives proches de l’humain, comme la compréhension de la parole et des textes, entre autres.

L’évolution de l’intelligence artificielle

IBMIntelligence Artificial rend aujourd’hui impossible pour un humain de battre un ordinateur aux échecs. (Source : Pexels)

Deep Blue a calculé une recherche simple dans les espaces d’état sur le tableau. Le nombre de coups possibles sur le jeu est fini, mais absurdement grand. Une équipe de joueurs d’échecs a aidé le programme à éliminer les coups insensés. L’ordinateur a également utilisé la notation de chaque situation pour prendre la décision sur les coups, dans un temps limité.

Bien que révolutionnaire à l’époque, la plupart des programmes d’échecs actuels ne sont plus basés sur cette approche, mais sur l’apprentissage automatique, qui a rendu pratiquement impossible pour un être humain de battre un ordinateur.

Systèmes experts

Le concept d’Intelligence Artificielle englobe généralement trois types de systèmes. Le premier, connu sous le nom de “systèmes experts”, concerne la simulation de l’intelligence humaine avec des réponses directes à certaines actions de l’environnement, comme Deep Blue ou même un simple système de contrôle du débit d’eau lors du remplissage d’un réservoir.

Ces systèmes peuvent réduire la complexité informatique des problèmes grâce à des règles générales bien définies et s’appuient sur l’aide d’un expert humain. Cette stratégie a dominé le domaine de l’IA dans les années 1970 et 1980, mais elle a une capacité limitée et ne peut être utilisée avec des règles plus complexes.

Cela ne signifie pas pour autant que d’autres technologies n’existaient pas, comme les algorithmes, mais ce type d’outil manquait d’un minimum de données ainsi que d’une capacité de traitement et de stockage qui n’existait pas à l’époque.
Explosion de données

imb
L’évolution des appareils électroniques provoque une explosion de la production de données.

La réduction du coût de l’électronique a entraîné une augmentation de la puissance de calcul, sans parler de la diminution de la taille des équipements et de l’augmentation de l’efficacité énergétique. Cette révolution a commencé avec les capacités de traitement et de stockage, renforcées par l’Internet des objets (IoT) et la diffusion des réseaux sociaux, qui ont généré une explosion des grandes données.

En 1975, par exemple, Cray-1 avait besoin de 200 kW et avait une capacité de traitement de 80 mégaflops (un acronyme pour les opérations en virgule flottante par seconde). Aujourd’hui, le processeur AMD Ryzen 9 a une capacité de traitement 10 000 fois supérieure, consommant mille fois moins d’énergie.

Un disque dur en 1956 nécessitait plusieurs hommes pour le transporter et coûtait 80 000 dollars, mais ne pouvait stocker que 5 Mo. Aujourd’hui, une carte SD de 1 TB est plus petite que la taille d’un ongle, étant aussi légère qu’une feuille de papier, et peut être achetée pour seulement 20 €.

L’avènement d’Internet a entraîné la numérisation de l’économie. Le processus est toujours en cours et le nombre d’utilisateurs augmente chaque année. En 2005, environ un milliard de personnes ont utilisé l’internet, ce qui représente près de 17 % de la population mondiale. En 2019, plus de la moitié de la population mondiale a commencé à utiliser l’internet, un univers d’environ 4 milliards de personnes.

Les informations générées par l’interaction dans les applications et les réseaux sociaux de ce large contingent d’utilisateurs par le biais de divers appareils, tels que les smartphones, ont généré une énorme base de données appelée Big Data. Ces données sont utilisées par les organisations pour élaborer des stratégies de marketing et peuvent également être utiles pour le développement de l’IA.

Apprentissage automatique

L'Algorithme peut apprendre à identifier des modèles de manière autonome.
L’Algorithme peut apprendre à identifier des modèles de manière autonome.

De la possibilité d’accéder à un grand nombre de données et d’en améliorer le traitement et le stockage, l’IA a évolué vers le concept d’apprentissage automatique (ML). Grâce à l’algorithme, cette technologie est capable d’apprendre de ses propres erreurs et de prédire les données sans l’interférence continue des humains, comme dans les systèmes experts.

Cet outil est utilisé dans une variété de tâches de calcul dans lesquelles la création et la programmation d’algorithmes explicites est peu pratique. Le ML est appliqué dans des approches telles que les règles d’association, les arbres de décision et les algorithmes génétiques, et est utilisé dans divers domaines tels que la finance et la climatologie. La technologie est capable, par exemple, de reconnaître des objets et de détecter les transactions frauduleuses.

Apprentissage approfondi

Dans le cadre de l’apprentissage automatique, il existe également un sous-ensemble de techniques capables de modéliser des abstractions de haut niveau en utilisant une programmation approfondie avec plusieurs couches de traitement. Le Deep Learning (SD) est basé sur un ensemble d’algorithmes composés de plusieurs transformations linéaires et non linéaires.

Les applications de la DP sont les mêmes que celles de la ML, la différence entre elles est en mode apprentissage. Alors que l’apprentissage machine nécessite une bonne ingénierie de configuration pour pouvoir identifier correctement les caractéristiques à analyser, l’apprentissage approfondi est capable de le faire automatiquement. Ainsi, le PD est un système totalement indépendant de l’intervention humaine, mais qui dépend de la qualité et de la quantité des données d’entrée.