fabernovel loader

Feb 12, 2017 | 20 min de lecture

Tech

Le nouveau nouvel âge d'or de l'IA

Tom Morisse

Research Manager


FABERNOVEL
too long; didn't read
  • La définition de ce que recouvre l'IA est une bataille récurrente - et perpétuellement remise en question au gré des avancées de la discipline.
  • L’engouement présent n’est pas le fruit d’une révolution scientifique récente, mais d’une combinaison de facteurs (méthodes et technologies notamment) dont certains remontent à plusieurs décennies.
  • Des résultats significatifs ont été obtenus dans la recherche ces dernières années, et auront des retombées économiques...
  • …mais attention aux risques d'emballement - par le passé, l’IA a déjà promis beaucoup, et déçu en proportion.
En ce début d’année, l’intelligence artificielle est sur toutes les lèvres, entre eldorado économique et questionnements existentiels sur le futur de l’humanité. Mais c’est oublier que le champ de recherche qu’est l’IA a une histoire longue et complexe, et que ce n’est pas la première fois qu’il suscite de si vives attentes. L’engouement actuel constitue-t-il un soubresaut de plus, ou marque-t-il au contraire l’amorce d’une nouvelle ère ?

2016 a marqué l’irruption de l’intelligence artificielle dans le débat public, s’affranchissant des discussions internes à l’écosystème des nouvelles technologies pour devenir un enjeu majeur dont tous les médias généralistes se sont saisi.

Cela s’inscrit dans le prolongement de nombreuses actualités qui se sont accumulées  ces dernières années, à travers 3 prismes parallèles :

  • Un prisme scientifique / technologique, avec l’annonce d’avancées importantes comme AlphaGo, capable de battre les meilleurs joueurs de go – un exploit que beaucoup ne pensaient réalisable que dans plusieurs années, sachant qu’il y a davantage de positions possibles dans une partie de go que d’atomes constituant l’univers.
  • Un prisme produit / entreprise, lié par exemple au lancement et à l’amélioration d’assistants intelligents (Siri, Alexa, Google Assistant…), ou à l’explosion du nombre de systèmes de voitures autonomes en développement.
  • Un prisme “macro”, relatif au débat sur l’impact global de l’intelligence artificielle – pour caricaturer de débat, l’IA est-elle synonyme d’apocalypse ou de corne d’abondance ?

Cette actualité brûlante pose cependant problème pour une raison simple : la discussion de ce que l’intelligence artificielle va ou devrait devenir et engendrer n’est que trop rarement précédée d’une explication de ce qu’elle est – ou plus précisément de ce que cette notion recouvre. Ce constat est justement le point de départ de cet essai, et au-delà de toute l’étude que FABERNOVEL a décidé de mener sur le passé, le présent et le futur de l’intelligence artificielle.

Un point de départ tout sauf anodin ou trivial, comme n’importe quel scrutateur des pérégrinations de l’IA en fait rapidement l’expérience. Définir l’IA est, bien plus qu’un passage obligé pour qui veut en saisir les enjeux, un foyer de débats toujours vifs dans ce qui, avant d’être un secteur, une tendance, une opportunité ou une menace, est un champ académique à l’histoire récente mais riche, sur les 60 dernières années. Un champ dont la caractéristique essentielle est d’être parcouru, travaillé, balayé par d’éternels paradoxes.

 

 

L’intelligence artificielle ou l’amour des paradoxes

Paradoxe n°1 : la définition introuvable

Toute immersion dans le champ de l’intelligence artificielle mène rapidement à une première évidence : il n’est pas, comme il n’a jamais été, de définition unifiée et universellement reçue de ce qu’elle est. Le choix même de la dénomination “intelligence artificielle” en constitue d’ailleurs une parfaite illustration : si le mathématicien de formation John McCarthy utilise ces mots pour proposer le Dartmouth Summer Research Project – atelier de l’été 1956 que beaucoup considèrent comme le coup d’envoi de la discipline – c’est autant pour la distinguer des travaux connexes qu’étaient la théorie des automates et la cybernétique que pour la doter d’une définition idoine.

Il existe en fait de multiples définitions de l’intelligence artificielle. Un premier grand type de définitions pourraient désignées comme essentialistes, visant à dégager la grande finalité dont un système doit faire preuve pour entrer dans la catégorie. Les chercheurs en IA Stuart Russell et Peter Norvig compilent ainsi 4 approches parmi les définitions de leurs pairs : l’art / la création / l’étude de systèmes qui

  1. pensent comme des humains,
  2. ou pensent rationnellement,
  3. ou agissent comme des humains,
  4. ou agissent rationnellement.

L’enjeu principal est ainsi de savoir si l’intelligence artificielle est une question de processus – la manière de “réfléchir” – ou de résultat, et donc si intelligence et simulation de l’intelligence reviennent in fine à la même chose ou pas.

 

A côté – et souvent en complément – se trouvent des définitions que l’on peut qualifier d’analytiques, déroulant une liste de capacités nécessaires à la création d’une intelligence artificielle, en partie ou totalité – par exemple la vision par ordinateur, la représentation des connaissances, le raisonnement, la compréhension du langage, l’aptitude à planifier une action.

Selon cette vue, pour reprendre les mots d’Allen Newell et Herbert Simon (qui comptent parmi les fondateurs du champ de l’IA), “There is no « intelligence principle, » just as there is no « vital principle » that conveys by its very nature the essence of life.

 

Ajoutons en outre deux grands buts possibles associés, l’un d’ingénierie – l’intelligence artificielle comme méthode de résolution de problèmes précis – et l’autre scientifique – mieux comprendre les mécanismes de l’intelligence voire de la conscience – et l’on comprend que tracer des frontières claires autour de ce champ est une tâche irréalisable. Et que, à côté des laboratoires d’informatique, des chercheurs en intelligence artificielle puissent aussi bien se trouver dans des départements de statistique que de neurosciences.

Face à l’équivoque de l’intelligence artificielle, nous pensons que deux autres définitions, bien plus plastiques, peuvent aider à en saisir le sens et les enjeux :

  • Une définition récursive : peut être qualifié d’intelligence artificielle tout système classé comme relevant du champ de l’intelligence artificielle. Derrière son apparence de lapalissade épistémologique, cette définition souligne combien délimiter les contours d’un domaine de recherche est bien plus qu’un objet scientifico-rationnel centré sur les mérites intrinsèques de ses réalisations, mais recèle aussi de conflits d’écoles, d’interprétations divergentes et d’intérêts parfois opposés.
  • Une dernière définition est elle subjective ; cerner l’intelligence artificielle revient à paraphraser le juge de la Cour suprême Stewart définissant l’obscénité en 1964 : “I know it when I see it”. Nous voulons suggérer par cette sentence non seulement la pluralité des points de vue possibles sur ce qui relève ou non de l’intelligence artificielle – et derrière bien souvent, de ce qu’est l’intelligence elle-même et des actions qui la requièrent ou la révèlent – mais aussi combien cette perception est susceptible d’évoluer au fil des années.

Paradoxe n°2 : la mise à distance permanente

Un deuxième paradoxe, qui découle en bonne partie de l’absence de définition partagée, est ce qui est parfois nommé “l’effet IA”, adroitement résumé par le chercheur en robotique Rodney Brooks : “Every time we figure out a piece of it, it stops being magical; we say, ‘Oh, that’s just a computation”.

L’évolution de la vision de ce que représente la victoire de Deep Blue sur Garry Kasparov en 1997 est en ce sens exemplaire. A l’impression de supériorité ultime de la machine sur l’homme a succédé un haussement d’épaules. Finalement, Deep Blue n’aurait fait preuve que de “force brute”, calculant à tout va sans capacité à véritablement penser. Quand bien même cela faisait des décennies qu’une IA reine des échecs était annoncée sous peu – sans lendemain.

Répétez le cycle au fil du temps, et sans doute la signification d’AlphaGo sera-t-elle mise en doute dans les années futures. Plus qu’un regard vers le passé, une sédimentation de réalisations fructueuses, l’IA se comprend davantage comme un horizon toujours indépassable.

Paradoxe n°3 : la dynamique maniaco-dépressive

L’histoire de l’intelligence artificielle est marquée par des périodes de repli – succédant logiquement à des phases d’expansion optimistes – des financements et de l’intérêt qui lui sont accordés : c’est ce que l’on appelle les “hivers de l’IA”. Les deux principaux hivers correspondent à la seconde moitié des années 1970 et à la fin des années 1980 / début des années 1990. La description de ces épisodes est souvent accentuée outre mesure – pouvant parfois donner l’impression, à tort, qu’aucune avancée n’a alors eu lieu dans aucun des sous-domaines de l’IA – mais il y a bel et bien eu des rapports d’évaluation publique sceptiques, des résultats en-deçà des attentes et des faillites de start-up en cascade.

Si les phénomènes de bulle ne sont certes pas une nouveauté, les cycles de l’IA en forment une classe à part entière. Premièrement parce qu’il est étonnant que compte tenu des deux premiers paradoxes, des acteurs de l’intelligence artificielle continuent à faire des prédictions trop ambitieuses. Ensuite parce que les critiques les plus dures envers les réalisations de l’intelligence artificielle viennent généralement de l’intérieur de la communauté. Cela est finalement logique : si les critères de jugement d’une IA sont très variables, il y aura toujours quelqu’un pour dévaloriser une démarche orthogonale à la sienne. Enfin, car la conceptualisation même des hivers de l’AI est une curieuse démarche. Comme le souligne un article de The Verge, “it’s worth noting that few disciplines disappoint their acolytes so reliably that they come up with a special name for it”.

Paradoxe n°4 : l’obsession des seuils

Malgré les horizons inatteignables et l’impossibilité de contours unanimes, les concepts de seuils d’intelligence abondent dans la littérature : “IA générale” et son stade ultime “super IA”, “IA forte” – opposée à “IA faible”, c’est-à-dire circonscrite à un problème précis -, human-level AI… Tous ces concepts font face à la même limite fondamentale que connaissait par exemple la notion de Web 2.0 : chercher à cristalliser un moment dans un domaine évoluant rapidement et aux frontières disputées relève de l’aporie. Serons-nous capables de pointer une date précise de naissance de l’IA générale ?

Ces concepts sont d’autant plus discutables qu’ils traitent implicitement l’intelligence humaine – individuelle et collective – comme une quantité fixe, quand bien même nos activités et nos capacités ont substantiellement évolué au gré des siècles. Y compris d’ailleurs avec l’aide des machines et autres artefacts de notre création.

Vers un nouvel âge d’or ?

Face à ces paradoxes, la proclamation de plus en plus insistante d’une révolution de l’intelligence artificielle a de quoi laisser sceptique, et réclame une analyse critique.

Pour résumer la démonstration à suivre en quelques mots : oui, il y a bien eu des résultats significatifs obtenus ces dernières années en intelligence artificielle, mais il serait faux pour autant de les considérer comme une rupture franche avec une période glaciaire où les progrès auraient été quasi nuls. Et les risques d’emballement sont tout aussi réels.

La dynamique actuelle de l’intelligence artificielle peut être déconstruite en 4 temps : les origines, l’initialisation, l’accélération et (les risques de) l’emballement.

Les origines

 

Le basculement des approches : du top-down au bottom-up

Le boom actuel plonge ses racines jusqu’aux années 1980, point de départ d’un basculement entre les deux grandes approches qui structurent l’intelligence artificielle. Jusque-là, l’approche privilégiée était top-down : les chercheurs codaient un ensemble de règles au sein de leurs programmes, déterminant précisément l’ensemble des étapes permettant de parvenir au résultat. Au contraire, la voie de plus en plus suivie depuis une trentaine d’années est une approche bottom-up : on ne code plus une logique, mais un processus d’apprentissage qui permet à un algorithme d’ajuster lui-même ses paramètres internes en fonction de ses erreurs et réussites. C’est ce que l’on appelle le machine learning.

On passe à grands traits d’une approche inspirée par l’esprit – par exemple, répliquer les étapes qu’une personne suit pour résoudre un problème mathématique – à une autre inspirée par le cerveau – une sous-catégorie dominante au sein du machine learning est d’ailleurs le réseau neuronal artificiel, qui cherche à répliquer les mécanismes de traitement et de transmission de l’information tels qu’ils existent dans un cerveau humain.

Si le machine learning a gagné en popularité au sein de la recherche en IA, c’est que l’approche top-down commençait à atteindre des limites : pour résoudre certains problèmes, le nombre de règles à coder peut vite devenir gigantesque, et pour d’autres il est très difficile de définir des règles efficaces. Prenons l’exemple de la reconnaissance d’images : quelles règles peut-on trouver pour classer universellement un chat, connaissant les diverses races, les situations – dehors / dedans, assoupi / courant – dans lesquelles on peut les photographier, le moment du jour, etc. ? Au contraire, un algorithme qui apprend arrive mieux à gérer la complexité présente dans les données.

Cela étant dit, il convient de souligner que ces approches ont toujours coexisté et que c’est un basculement progressif qui s’est opéré. Inspirés par les progrès de la compréhension du cerveau, les premiers réseaux neuronaux datent ainsi des années 1950, et à l’inverse on trouve encore aujourd’hui quelques projets fonctionnant autour de règles – par exemple Cyc, qui vise à réunir toutes les règles de sens commun évidentes pour un humain mais ignorées d’une machine, à l’image de “on ne peut pas être à deux endroits à la fois”.

 

La prééminence de l’ingénierie sur le scientifique

Depuis les années 1970, la résolution de problèmes a gagné en importance par rapport à la compréhension des mécanismes de l’intelligence. Si lors de leur réception du prestigieux prix Turing en 1975, Allen Newell et Herbert Simon évoquaient deux exemples en prenant soin de souligner “both conceptions have deep significance for understanding how information is processed and how intelligence is achieved”, les trois figures du deep learning (branche du machine learning qui s’appuie sur des réseaux faits de nombreuses couches de neurones) que sont Yann Le Cun, Yoshua Bengio et Geoff Hinton ne faisaient en 2015 aucune référence aux notions d’intelligence ou d’esprit dans un article faisant la somme des progrès de leur discipline. En revanche étaient mises en avant les applications telles que les recommandations dans l’e-commerce ou le filtrage des spams.

Nils Nilsson, professeur en intelligence artificielle à Stanford et historien de sa discipline, résume ainsi l’évolution des mentalités suite à l’hiver de l’IA des années 1980 : “One heard fewer brave predictions about what AI could ultimately achieve. Increasingly, effort was devoted to what AI could (at the time) actually achieve. (…) The emphasis was on using AI to help humans rather than to replace them.

 

L’initialisation

 

L’explosion des données

Cela n’est plus une découverte, la croissance rapide du nombre d’usagers d’Internet et des usages associés a généré un volume de données colossal. Les chercheurs Martin Hilbert et Priscila Lopez ont par exemple estimé que la capacité de stockage installée dans le monde était passée de 3 Go par habitant en 1993 à 45 Go en 2007. Mais plus encore que le volume en tant que tel, c’est son accessibilité qui a pu bénéficier aux chercheurs en IA. Ainsi, 3% des données étaient sous format numérique en 1993, contre 94% en 2007. Or les algorithmes de machine learning ont besoin de jeux de données d’apprentissage de grande taille pour arriver à des résultats le plus fiables possibles.

Les jeux de données disponibles ont vu leur taille et leur complexité augmenter, comme le prouve le cas ImageNet, base de données d’images catégorisées qui donne lieu chaque année à un concours de reconnaissance visuelle depuis 2010. Alors qu’un concours antérieur, PASCAL, reposait sur 20 000 images dans 20 catégories, le challenge ImageNet proposait 1,5 million d’images dans 1 000 catégories. Ces images étaient en fait récupérées sur Internet et annotées par des humains via Amazon Mechanical Turk. ImageNet a fortement contribué à améliorer la précision des programmes de machine learning dédiés à cette problématique – 28% d’erreurs de classification en 2010, 3% en 2016, en-deçà des 5% d’un être humain.

 

L’affinement des méthodes

Le machine learning n’est pas une révolution scientifique. Nous l’avons évoqué, ses grands principes étaient envisagés dès l’après-guerre, et de grandes innovations des années 1980 dans le domaine ont relancé cette approche – par exemple les réseaux neuronaux convolutifs ou ConvNets, dont l’architecture est inspirée de l’organisation du cortex visuel des animaux.

Il y a tout de même eu ces dernières années des avancées qui ont amélioré la performance des réseaux neuronaux ou apporté des méthodes complémentaires pour répondre à certaines problématiques. Par exemple, les Rectifier Linear Units ou ReLU, apparues en 2010 seulement, permettent d’entraîner plus rapidement un réseau neuronal.

 

L’émergence des GPU

L’un des principaux composants électroniques trouvés dans tout ordinateur est le CPU, pour Central Processing Unit, généralement présenté comme le “cerveau”. A la fin des années 1990, une nouvelle puce a fait son apparition : le GPU, pour Graphics Processing Unit. Comme son nom le suggère, elle fut conçue à l’origine pour s’occuper de tâches de traitement d’images, car son architecture est différente du CPU : celui-ci est un généraliste qui peut s’occuper d’une grande variété de calculs – mais il les réalise l’un après l’autre – quand le GPU compte lui un grand nombre de coeurs qui peuvent procéder à des calculs parallèles, par exemple pour que chacun mette à jour un groupe de pixels.

Au début des années 2000, les GPU ont commencé à être “détournés” pour d’autres usages nécessitant du calcul parallèle. Et en particulier les réseaux neuronaux, l’état de chaque neurone gagnant à être calculé séparément et parallèlement. En 2006 par exemple, des chercheurs de Microsoft indiquaient que l’apprentissage d’un de leurs modèles était jusqu’à 50% plus rapide avec l’utilisation d’un GPU à la place d’un CPU.

Le fabricant Nvidia a contribué à amplifier le mouvement en lançant en 2007 CUDA, une plateforme logicielle qui facilite la programmation sur GPU.

La performance des GPU a eu deux conséquences majeures pour la recherche en intelligence artificielle. D’une part, elle a permis non pas tant de réduire le temps dévolu à la recherche que de multiplier le nombre d’itérations, et donc d’augmenter l’efficacité de l’algorithme retenu à la fin. D’autre part, elle a suscité l’expérimentation de réseaux neuronaux beaucoup plus complexes, notamment en ce qui concerne le nombre de couches de neurones utilisées.

Revenons au cas d’ImageNet pour illustrer cette évolution. En 2012, alors que le concours se tenait pour la troisième fois, une équipe de l’université de Toronto avait remporté l’épreuve haut la main, étonnant la communauté des chercheurs : alors que le vainqueur avait un taux d’erreur de classification d’images de 28% en 2010, puis 26% en 2011, ils avaient brusquement réussi à abaisser la barre à 16%. Leur solution reposait sur un algorithme de deep learning, entraîné sur deux GPU pendant 1 semaine – et utilisait CUDA. Le modèle comptait 650 000 neurones, 8 couches et 630 millions de connections.

 

L’accélération

 

La multiplication des acteurs

Les résultats impressionnants du deep learning, à l’image du modèle champion d’ImageNet en 2012, ont suscité l’intérêt d’un plus grand nombre d’équipes de recherche. Par exemple, ImageNet est passé de 6 équipes participantes en 2012 à 24 en 2013 et 36 en 2014.

Ces équipes se sont diversifiées, provenant de multiples pays, et d’universités comme d’entreprises – en particulier des géants du numérique. En 2013, Google rachetait ainsi la startup DNNresearch de Geoff Hinton, l’un des vainqueurs de 2012, puis remportait l’édition 2014. En 2015, c’est Microsoft Research qui s’imposait.

 

Le large partage du savoir(-faire)

Le champ de l’intelligence artificielle bénéficie d’une bonne ouverture des équipes sur leurs méthodes, outils et résultats. En 2014, les organisateurs de la compétition ImageNet ont proposé à toutes les équipes le choix entre la transparence – promesse de décrire leur méthode – et l’opacité. 31 sur 36 ont préféré la première option.

On compte également des frameworks de plus en plus nombreux, qui proposent des briques déjà conçues pour éviter à tout chercheur de réinventer la roue sur des modèles éprouvés. Certes, quelques frameworks ne sont pas neufs, à l’image de Torch créé en 2002 ou Theano en 2010, mais la multiplication des acteurs accélère leur développement – en matière de programmation open-source aussi, les effets de réseau existent – et les géants comme Google ou Microsoft ont également commencé à laisser certains pans de leurs modèles en libre accès – TensorFlow pour le premier, fin 2015. Même les environnements visuels d’apprentissage pour les modèles d’intelligence artificielle commencent à s’ouvrir, à l’image de ce qu’ont récemment proposé OpenAI et Google DeepMind.

 

Le changement d’échelle grâce au cloud

L’avènement du cloud computing a également contribué à la forte dynamique de l’intelligence artificielle, en facilitant l’accès à une puissance de calcul démultipliée, qui associée à l’exploitation des GPU et des frameworks permet à Google, Microsoft et Amazon de proposer des solutions d’intelligence artificielle clé en main.

Le changement d’échelle des modèles permis par le cloud computing est considérable, comme Andrew Ng – figure du deep learning et Directeur scientifique du géant chinois Baidu – le notait en 2015 à propos de la croissance exponentielle du nombre de connexions au sein des réseaux neuronaux :

 

Des modèles davantage généralisables

L’histoire de l’intelligence artificielle est celle d’un effacement progressif des silos entre les modèles. Les programmes des années 1960 étaient totalement rattachés au problème qu’ils traitaient, puisque par exemple les règles encapsulées pour démontrer des théorèmes de mathématiques avaient peu d’utilité pour de la vision par ordinateur, et vice versa. Les systèmes experts des années 1970 et 1980 ont quelque peu amélioré la donne : ils consistaient in fine en un recueil de règles de connaissances utilisées dans un domaine bien précis – du type diagnostic d’infections bactériennes pour la médecine – mais le moteur de combinaison de ces règles pour faciliter la prise de décision pouvait parfois être appliqué ailleurs. Des tentatives furent menées pour créer des systèmes experts généralistes, à compléter par les règles adaptées aux cas d’espèce.

Le machine learning, puisque c’est une approche agnostique sur la manière dont l’algorithme fonctionne – ce dernier s’ajuste tout seul – se prête bien à l’inverse à l’application d’un même modèle sur de nouveaux problèmes, comme passer de la reconnaissance d’images à la reconnaissance vocale.

Insistons pour dire que les modèles du machine learning sont davantage généralisables à de nombreux problèmes, mais pas généralisables tout court. Un travail d’adaptation à un nouveau problème est toujours requis, même s’il n’y a pas à repartir de zéro.

Au final, la distinction que dressait le chercheur Seymour Papert il y a plusieurs décennies entre des problèmes “tau” (toy problems, problématiques ayant peu d’intérêt en elles-mêmes mais utilisées pour tester des approches, à l’image des jeux de dames ou d’échecs), “theta” (problèmes théoriques) et “rho” (applications au monde réel) n’est plus aussi opérante. Les travaux de DeepMind en constituent un bon exemple, qui mêlent modèles d’apprentissage de jeux Atari, réflexions sur l’intégration entre deep learning et neurosciences, et qui ont récemment étaient appliqués aux data centers de Google pour en optimiser la facture énergétique.

 

L’emballement

 

La chambre d’écho se met en place

Grâce à ses récents progrès, la recherche en intelligence artificielle en vient naturellement à attirer les regards, et même plus, les convoitises. A mesure que les médias et les financeurs s’intéressent de près aux résultats obtenus et aux entreprises qui cherchent à en tirer des applications plus concrètes, une forte part d’auto-entretien de la tendance se met en place, où par exemple ceux qui pouvaient mettre en avant le big data hier ont aujourd’hui intérêt à se réclamer de l’IA, ce qui donne plus de visibilité à l’IA au global, ce qui renforce d’autant l’intérêt à se réclamer de l’IA etc.

Une illustration de cet excès a été donnée lors de la conférence NIPS 2016 – l’un des principaux événements consacrés au machine learning – lors de laquelle une équipe de chercheurs a créé une fausse start-up, invoqué une nouvelle technique prometteuse – dont l’acronyme donnait TROLL – et reçu de nombreuses marques d’intérêt, provenant notamment de plusieurs investisseurs. L’appât a (trop) bien fonctionné.

 

La confusion des termes

Cette multiplication des projets n’est bien sûr pas propice à une prise de recul concomitante sur la catégorisation des diverses innovations proposées : les notions d’“intelligence artificielle” et de “machine learning”, non synonymes, sont par exemple bien souvent mises sur un même plan, quasiment confondues. On a ainsi assisté il y a peu à la naissance d’un vocable supplémentaire, celui de “machine intelligence”. Cela ne concourt pas à la clarification du débat.

Autre exemple : l’annonce du magasin sans caisses Amazon Go, dont un récent article de Fortune expliquait qu’il était un “mélange d’intelligence artificielle et de vision par ordinateur”. Or la vision par ordinateur est un sous-domaine de l’intelligence artificielle.

Cette confusion est regrettable connaissant tous les paradoxes dont le champ de l’IA a toujours été pétri. Pour marteler une dernière fois ce point, la distinction entre “vraie” et “fausse” IA est une joute incessante, et la confusion peut nourrir les fausses promesses et donc les désillusions. L’inévitable courbe de Gartner a toute sa place ici, avec une différence de taille : dans le domaine de l’IA, pics et creux ont toujours été d’une amplitude excessive.

 

La convergence espérée ou redoutée, mais non advenue

Les récents progrès de l’intelligence artificielle suscitent un bon nombre de craintes existentielles pour l’humanité ou au contraire nourrissent de nouvelles utopies – sur un futur sans travail, par exemple. Ces questions sont légitimes, et nous ne pouvons que soutenir leur étude en amont plutôt qu’en catastrophe, mais nous devons aussi souligner qu’à l’heure actuelle ou à court-terme, aucune intelligence artificielle “générale” n’est capable de nous seconder ou nous remplacer sur toutes les tâches de la vie.

Certaines nouveautés contribuent à s’en rapprocher – la voiture autonome, par exemple, qui regroupe des “briques” issues de plusieurs branches de l’IA et dont peu imaginaient les développements actuels il y a 5 ans seulement. Mais la convergence entre les différentes “compétences” ou sous-catégories de l’IA a déjà été envisagée par le passé, dans la robotique surtout, sans jamais aboutir. Rien ne dit que cette convergence aura nécessairement lieu avec la vague actuelle.

 

 

Conclusion : winter is (not) coming

 

Nous l’avons vu, si parler d’une “révolution” de l’IA serait quelque peu excessive car il s’agit de l’accélération de mouvements plus anciens davantage que d’une rupture franche, des progrès significatifs en intelligence artificielle ont bien été obtenus au cours des dernières années. En quelque sorte, l’IA est une nouvelle fois sortie de son lit.

Toute la question est maintenant de savoir où s’arrêtera le curseur : parle-t-on en majorité de problèmes résolus pour de bon, comme la vision par ordinateur, dorénavant supérieure par bien des aspects aux facultés humaines ? Ou les applications se montreront-elles une nouvelle fois trop limitées, l’IA reprenant ses allures favorites de toile de Pénélope, sans arrêt défaite et refaite ?

Notre conviction profonde est qu’il y aura des déceptions, c’est une évidence, mais que la plus grande standardisation des méthodes et la vaste disponibilité des outils laissent augurer un impact économique certain, une démocratisation de l’IA. A quelle échelle et pour quelles conséquences sur notre économie et, au-delà, notre société ? Là réside tout l’enjeu de notre étude au long cours.

Vous souhaitez recevoir chaque semaine un nouvel épisode de notre première saison sur l'Intelligence artificielle?

Inscrivez-vous
Cet article appartient à une enquête
logo business unit

FABERNOVEL

Distribute the future. Connect leaders. Change the game. We ignite ventures and transform organizations for the new economy.

à lire