Les fantasmes concernant l’IA ne servent pas l’action

Avec l’IA, la boîte à fantasmes est réouverte. En réalité, elle traduit surtout une méconnaissance de ce qu’est cette « intelligence artificielle » et ses évolutions dans le temps. Dès les années 1960 et plus encore dans les années 1980 avec les systèmes experts, on a déjà connu des phases de grande promesse de l’IA. Les machines devaient être à terme autonomes permettant une substitution de l’homme, favorisant la décision à sa place quand il n’était pas question de conscience suprahumaine. L’affaire qui visait à rendre les ordinateurs « intelligents » en eux-mêmes a fait flop plusieurs fois tout simplement parce qu’on cherchait à reproduire la pensée humaine. C’était sans compter la part d’irrationnel, le part d’émotion que la machine n’a pas atteint et n’atteindra pas. Certains parlaient de « robots affectifs » …

 Compte tenu de cette histoire qu’il rappelle souvent, le sociologue Dominique Cardon, directeur du médiaLab de Sciences Po alerte depuis déjà des années[1] sur le sens d’une nouvelle IA qui cherche moins à reproduire l’intelligence humaine qu’à apprendre à partir de quantités de données. La machine apprend en profondeur (deep learning) sur un mode connexionniste, ce qui permet en sortie d’obtenir des résultats tout à fait saisissants par exemple en matière de traduction automatique ou d’aide à la décision dans le domaine médical. La promesse, cette fois, n’est plus dans l’autonomisation de machines qui seraient devenues intelligentes, mais dans l’augmentation des humains par la machine. Autre perspective moins ambitieuse a priori, mais qui se révèle dans les faits plus féconde. Elle avance en tout cas à grands pas

Cette nouvelle IA n’en pose pas moins des questions redoutables qu’il faut traiter dans l’action plutôt que de continuer à fantasmer sur le transhumanisme, ce que font trop de gens et y compris des chercheurs. Les questions sont à la fois éthiques, sociales ou environnementales, pour n’en retenir que quelques-unes. Question éthique d’abord, car l’IA se nourrit d’un nombre considérable de données, à commencer par des données individuelles. La qualité pour éviter les biais et la protection des données ne sont pas une mince affaire. On a besoin a minima d’un cadre juridique. Il se construit par exemple aujourd’hui au plan européen, mais peut-être pas assez vite eu égard à la vitesse de développement des applications. Question sociale ensuite, car l’IA génère des inégalités, en tout cas des écarts entre salariés notamment, entre ceux qui ont un travail cognitif complexe et ceux, particulièrement dans les professions intermédiaires, dont l’activité peut se trouver réduite en tout ou partie par l’IA, avec toutes les conséquences en termes d’emploi. Question environnementale enfin, car les données prélevées par l’IA sont consommatrices d’énergie à grande échelle. La sobriété, il faut le dire, n’est pas la qualité première de l’IA.

Pour toutes ces raisons et quelques autres, il y a besoin de régulation publique et d’interventions citoyennes. Dominique Cardon plaide pour sortir d’une certaine « opacité » de l’IA ( » on a besoin das ce domaine de compréhension et de récit ») et pour qu’un contrôle s’exerce à la fois sur les entrées des données et sur les sorties que promettent les applications. C’est aux Etats, aux citoyens comme aux salariés de se saisir de l’invention que constitue l’IA. Elle peut être une aide professionnelle de première importance (je pense aux communicants que je connais bien[2]), mais elle peut aussi être une machine à créer du ressentiment social qui viendra nourrir les populismes. Moins la société civile sera passive devant cette invention, mieux ce sera. Selon Norbert Alter, « une innovation est la capacité collective à rendre une idée bonne ». A nous donc d’en faire collectivement une véritable innovation.

Illustration: tableau de Gérard Titus Carmel


[1] *Dominique Cardon, Culture numérique, Presses de Sciences Po, 2019

* Revue Réseaux 2022/2-3 (N° 232-233)

 * Entretien sur Cairn janvier 2024 https://www.cairn.info/rencontre-le-controle-et-l-ethique-de-l-intelligence-artificielle.htm

[2]  « Quels sont les grands enjeux de communication à relever en 2024 pour les entreprises ? » Blog d’Olivier Cimelière