L’EFFET DOMINO DE L’IA
Du moment où l’IA a démontré son efficacité, qu’elle semble efficace et répond aux exigences attendues, elle permet et conditionne inévitablement le développement d’autres technologies, entraînant ainsi une cascade d’innovations complémentaires qui transforment progressivement les pratiques, les outils et les attentes dans l’ensemble des secteurs concernés.
Quand l’efficacité de l’IA devient le levier de nouvelles innovations
En 1997, l’arrivée de l’ordinateur Deep Blue de la société IBM, qui battra aux échecs le champion russe Garry Kasparov, redonnera à la recherche en intelligence artificielle un second souffle. Toutefois, ce qui relancera définitivement non seulement la recherche en intelligence artificielle, mais aussi son financement par des capital-risqueurs et de grandes entreprises, c’est lorsque des algorithmes efficaces et performants fondés sur l’apprentissage automatisé (deep learning) commenceront à poindre.
Faut-il ici rappeler que ce que nous connaissons aujourd’hui sous l’appellation deep learning est le fruit d’un phénomène d’auto-accroissement et d’une technologie qui date de 1958. À cet égard, en juillet de ladite année, le New York Times publiait une nouvelle à propos d’un dispositif expérimental, une thinking machine nommée Perceptron. Un jeune chercheur de l’Université Cornell, Frank Rosenblatt (1921-1971), annonçait alors que cette machine, calquée sur le fonctionnement d’un réseau simple de neurones (paradigme connexionniste), serait un jour en mesure de lire et d’écrire, voire de penser comme un être humain. En 1969, suite à la parution d’un livre[1] dévastateur publié par deux chercheurs concurrents en intelligence artificielle du MIT — Marvin Minsky (1927-2016) et Seymour Papert (1928-2016) —, il est démontré qu’il est impossible pour un réseau de neurones artificiel de parvenir à réaliser des tâches complexes. Les conséquences de cette publication ne se feront pas attendre et la majorité des fonds de recherche destinés à cette recherche fondamentale fondront comme neige au soleil. Il faut bien voir ici l’ironie du sort, alors que les travaux de Minsky et Papert en intelligence artificielle ne déboucheront jamais sur des applications majeures, alors que ceux de Rosenblatt, repris dans les années 1980 par des chercheurs comme Georges Hinton, Yan LeCun et Yoshua Bengio, feront l’objet de la plus grande attention.

L’avenir sera technologique, parce qu’on vous l’a promis. Un avenir radieux, bien sûr. Une marche inexorable vers le progrès, où l’intelligence artificielle résoudra tout, des crises économiques aux affres existentielles, en passant par le climat et la démocratie. Mais derrière les promesses léchées et les slogans lénifiants, que nous vend réellement le discours technologique ? Une vision du futur, ou un programme pré-écrit, verrouillé, où l’innovation ne se discute pas, elle s’accepte.
En fait, il faut voir comment la recherche sur les réseaux de neurones artificiels, depuis le début des années 2000, était sous financée, pour mesurer l’ampleur du phénomène qui s’est imposé dès 2006. En fait, c’est le chercheur canadien Georges Hinton de l’Université de Toronto qui, malgré le tarissement du financement dans ce secteur de la recherche, a, en quelque sorte, gardé le fort pendant toutes ces années. En 2006, avec deux autres collègues, Hinton fait une percée majeure[2] et révolutionne le domaine des réseaux de neurones artificiels (neural networks) qui avaient jusque-là très mauvaise presse dans le monde de la recherche académique. Battant à plates coutures tous les systèmes déjà existants de reconnaissance vocale, de reconnaissance faciale, de catégorisation d’images, de génération vocale et de traduction automatique, l’expression neural networks sera rapidement abandonnée au profit de l’expression deep learning. Rien de mieux que de revamper un terme négativement connoté pour relancer la marque ! En l’espace d’à peine un an, les Google, Microsoft et Amazon de ce monde lâcheront dans la nature leurs chasseurs de têtes et débaucheront de leurs emplois universitaires les rares chercheurs en intelligence artificielle. Concrètement, il faut voir cet engouement comme une nouvelle ruée vers l’or, car l’entreprise qui embauchera les chercheurs les plus innovateurs risque fort de se positionner en tête de lice sur Wall Street. Il faut voir tout ce qui dit et s’écrit dans la presse depuis que Google a lancé son projet de recherche de voiture autonome, pour saisir et cerner dans quelle mesure la découverte de Georges Hinton a permis et conditionné un foisonnement de recherches et d’applications dans tous les domaines où l’apprentissage automatisé pourrait éventuellement être utilisé.
Partant de là, il semblerait bien que chaque innovation technologique provoque d’autres inventions technologiques dans différents domaines où le facteur humain n’est plus déterminant, mais où la condition technologique antérieure est définitivement déterminante :
« Lorsque telle découverte technique a lieu, il s’ensuit presque par nécessité telles autres découvertes. L’intervention humaine dans cette succession apparaît comme occasionnelle et ce n’est plus un homme déterminé qui seul pouvait faire ce progrès, mais n’importe qui suffisamment au courant des techniques peut faire une découverte valable qui succède raisonnablement aux précédentes et qui annonce raisonnablement la suivante[3]. »
La chose implique alors qu’« il n’est jamais question d’un arrêt, encore moins d’un recul. Ceux-ci n’ont lieu que lorsqu’une civilisation s’effondre. Dans le passage à la suivante, il se perd un certain nombre de procédés techniques ; mais dans une même civilisation, le progrès technique ne peut jamais être remis en question[4]. » Il faut donc supposer, à partir de ce constat formulé par Ellul, que nous sommes « condamnés » à vivre dans une société conditionnée par l’intelligence artificielle, et c’est bien ce dont traite ce livre, à savoir que l’intelligence artificielle percolera dans les moindres recoins de la société. Conséquemment, si, en tant que civilisation, nous ne voulons pas être conditionnés par l’intelligence artificielle, il faut faire en sorte de conduire notre propre civilisation à son propre effondrement. Il y a là matière à écrire des romans dystopiques et produire des films hollywoodiens catastrophiques à profusion !
© Pierre Fraser (PhD), linguiste et sociologue / [2020-2025]
Balado tiré de cet article
RÉFÉRENCES
[1] Minsky, M. Papert, S. (1969), Perceptrons, Cambridge: MIT Press.
[2] Hinton, G. E., Osindero, S., Teh, Y. W. (2006), « A fast learning algorithm for deep belief nets », Neural computation, vol. 18, n° 7, p. 1527-1554.
[3] Ellul, J. ([1958] 1990), op. cit., p. 84.
[4] Idem., p. 83.

