Jean-François Gagné is a serial entrepreneur in the software industry, founder and CEO of the company Element AI.

L’intelligence artificielle n’a pas d’intentionnalité propre

L’intelligence artificielle n’a pas d’intentionnalité propre

« L’intelligence artificielle nous fera-t-elle perdre nos emplois? »

Les gens ont tendance à parler de l’intelligence artificielle comme s’il s’agissait d’un agent autonome. Nous faisons de l’anthropomorphisme en utilisant à son endroit des mots qui s’appliquent aux êtres humains (écrire, voir, dessiner, écouter, converser, etc.). Ces mots ne sont probablement pas inappropriés, mais ils laissent libre cours à l’imagination en ce qui concerne l’intentionnalité. C’est une erreur de croire que l’intelligence artificielle possède une intentionnalité propre.

L’intelligence artificielle est très limitée et très fragile. Elle est inefficace en dehors du champ d’action pour lequel elle a été conçue et elle ne peut exécuter que des tâches objectives simples. Seuls les humains sont vraiment en mesure de l’appliquer efficacement, en misant sur leur propre intelligence, et d’en faire un outil assez performant pour automatiser une tâche.

De plus, seules les tâches extrêmement répétitives peuvent être entièrement automatisées. (Pour avoir un aperçu du travail que nous exécuterons à l’avenir, songez aux éléments subtils et non répétitifs d’une tâche quelconque et cherchez des façons d’en élargir la portée.)

Nous sommes la source

L’intelligence artificielle n’est pas une entité étrangère distincte de nous. Elle est le résultat de notre travail collectif, lequel est toujours susceptible de produire des effets indésirables. Selon une opinion répandue, mais erronée, une fois qu’un système est en place, il continue à fonctionner en totale autonomie. La réalité est bien différente!

Il y a deux ans, la technologie de l’intelligence artificielle commençait à peine à émerger. L’évolution a toutefois été extrêmement rapide. Des systèmes minimalement fonctionnels ont commencé à bien fonctionner, puis sont devenus vraiment efficaces pour exécuter des tâches importantes. Tout le monde voulait alors en accélérer le déploiement. Les répercussions potentielles de cette technologie sont maintenant d’une telle ampleur que l’ensemble de l’économie et même le tissu social seront touchés.

Le principal problème que nous devons affronter au sujet de l’IA dépend entièrement de nous, puisqu’il est le résultat de l’opinion fort répandue selon laquelle nous n’avons aucun contrôle sur cette technologie. Je suis convaincu que le fait d’attribuer à l’intelligence artificielle une intentionnalité propre découle de ce point de vue erroné. Pour que cette technologie se développe de façon appropriée, il est essentiel d’expliquer de façon claire ce qu’elle fait et ce qu’elle ne fait pas.

Avant tout, nous devons être conscients de l’énorme puissance de l’IA en ce qui a trait à l’application de l’intentionnalité humaine et tenir compte des effets indésirables qu’elle est susceptible d’avoir une fois son usage généralisé. C’est cela qui est la plus grande menace, et non le risque qu’elle échappe à notre contrôle.

Pensez aux activistes qui luttent contre les changements climatiques

J’ai récemment participé à une table ronde à l’Institut Aspen où il a été question du développement approprié de l’intelligence artificielle et de l’avenir de l’autonomie personnelle. J’y ai entendu des propos étonnants sur les organismes qui ont été dépassés au cours de la dernière année en tentant de composer avec la rapidité et l’impact du changement. Le simple fait de mettre tout le monde sur la même longueur d’onde au sujet des problèmes réels représente un énorme défi. Pour avoir un aperçu de ce qui nous attend, nous avons examiné comment les activistes qui luttent contre le changement climatique ont fait connaître cet enjeu.

Le changement climatique est un problème difficile à affronter. Même si ce phénomène touche tout le monde, au moment où la plupart des gens commenceront à en ressentir les effets, il sera déjà trop tard. La difficulté consiste à montrer au public les répercussions actuelles, qui ne peuvent être détectées que par l’observation scientifique dans des contextes bien précis. Les activistes ont dû vulgariser plusieurs concepts de base (émissions, gaz à effet de serre, différence entre le temps et le climat, etc.) pour convaincre les citoyens d’approuver certaines solutions.

Nous devons accomplir un travail d’éducation similaire pour le domaine extrêmement technique de l’intelligence artificielle. La population doit comprendre certains concepts fondamentaux comme la gouvernance des données, les biais, la confidentialité, l’apprentissage machine, la propriété intellectuelle et la relation entre information, données et intelligence. Les citoyens doivent connaître ces concepts, ou leurs versions symboliques, pour pouvoir participer à la refonte de notre contrat social et exiger que la technologie soit bien réglementée.

Réglementer une technologie à la fois puissante et simpliste

Lorsqu’il est question de réglementation, nous devons nous assurer que celle-ci empêche les entreprises de pousser l’automatisation trop loin, jusqu’au point où elle devient dangereuse. Cependant, la révision de la réglementation pour couvrir tous les domaines concernés est une tâche trop lourde et les gouvernements ne parviendront pas à rattraper leur retard.

Aux États-Unis, la Federal Trade Commission parle de principes pour l’élaboration d’un nouveau cadre général qui permettrait d’évaluer la législation actuelle. Notre approche en matière de conception est similaire, en ce sens que nous nous engageons, avec d’autres leaders du domaine de la conception fondée sur l’expérience, à élaborer une philosophie et des principes directeurs qui permettront aux praticiens de définir des règles adaptées à leurs disciplines respectives.

Cette façon de faire est de loin préférable à la refonte de la réglementation, car elle atténue considérablement les différences dans la société. Elle nous permettra d’élaborer des philosophies communes durables, au lieu de tenter d’appliquer tant bien que mal des règles rigides à des situations pour lesquelles elles sont inadéquates. En donnant ce pouvoir aux individus et à nous-mêmes en tant que praticiens, nous pourrons participer plus activement aux discussions de haut niveau sur cette philosophie.

Revenons maintenant à la définition même de cette philosophie. Quelles devraient être les caractéristiques de l’intelligence artificielle étroite pour qu’elle nous inspire confiance une fois en service? Ces discussions, qui sont déjà en cours, nécessitent une compréhension des concepts fondamentaux de l’IA et de ses impacts.

Pour développer une vision du monde basée sur une compréhension claire de ces concepts, j’utilise maintenant l’expression « attitude IA au premier plan ». Cette attitude consiste à imaginer le monde en supposant que l’intelligence artificielle est omniprésente, comme l’électricité ou Internet. Cette nouvelle vision commence à prendre forme et nous aide à élaborer des principes de conception pour différents domaines, comme les organisations, les politiques, les produits et les programmes humanitaires.

Je pense que ces principes s’intégreront à l’« attitude IA au premier plan » et qu’ils contribueront à la faire adopter par un nombre croissant de citoyens. Le premier principe à garder en mémoire est que nous, les êtres humains, sommes la source de cette technologie et que nous pouvons la gérer à notre guise. Mais pour la gérer, nous devons d’abord la comprendre.

Des personnes qui connaissent cette technologie ont déjà amorcé une démarche collective pour demander de nouvelles règles et définir des attentes précises. Yoshua Bengio, avec qui j’ai cofondé cette entreprise, vient tout juste de signer une lettre ouverte avec 115 autres experts pour demander aux Nations unies de bannir les armes autonomes mortelles.

Définir nos intentions

Tristan Harris, ex-éthicien du design pour Google, parle de l’algorithme utilisé par Facebook pour capter et soutenir l’attention. Cet algorithme a permis de constater que l’indignation est un puissant outil pour capter l’attention. Nous disposons maintenant d’une « machine à indignation » qui peut être utilisée par plus de deux milliards de personnes. (En toute justice, n’oublions de mentionner, à l’autre extrémité du spectre, les chatons adorables, qui se sont révélés également très efficaces pour capter l’attention sur Internet!) Est-ce le résultat que nous souhaitons obtenir en tant que société? Il ne suffit pas de dire à Facebook de cesser d’optimiser ses fonctions pour capter l’attention (publicité), si l’entreprise a choisi cette méthode pour gagner. Les motivations, et par conséquent les intentions, doivent changer.

Actuellement, la principale mesure de la qualité de vie d’un pays est le PIB. Si nous cherchons uniquement à accroître le PIB, nous automatiserons les tâches et nous concentrerons encore plus de richesses entre les mains de quelques personnes. Je pense que ce n’est pas le but que nous poursuivons. Le PIB ne tient pas compte de tout, et nous devons nous interroger sur les motifs qui justifient cette optimisation. Il faut que nous remettions en question nos propres intentions.

Je publie également ces billets sur Medium et sur LinkedIn.

Photo de Sven Brandsma.

4 étapes pour une bonne IA étroite

4 étapes pour une bonne IA étroite

Quand le bruit devient source d’information – 2e partie

Quand le bruit devient source d’information – 2e partie