vivoboard June 5, 2018

« Même si tout n’est pas encore clair, l’IA [intelligence artificielle] pourrait devenir très utile en matière de politique, pour ce qui est du lien entre citoyen et Etat, notamment », déclarait Cédric Villani dans la  revue « Charles » de ce trimestre. Le député de l’Essonne, auteur d’un rapport sur l’IA rendu fin mars au gouvernement, envisage son usage pour répondre aux questions du public. « Nul n’est censé ignorer la loi – mais la loi est un ensemble de textes incompréhensibles. » Il imagine donc un chatbot qui passerait en revue tous les articles de nos épais codes afin d’en extraire une réponse substantielle.

Pour Cédric Villani, l’IA se contente ici de fournir un service, mais ne pourrait-elle pas aussi aider les hommes et les femmes politiques à prendre des décisions ? Après tout, ceux-ci s’affrontent à longueur d’année, mais ne pourrions-nous pas laisser la machine trancher ? Et si l’algorithme prenait tout bonnement leur place ? L’idée peut paraître farfelue, mais 18 % des Français estiment que « l’IA pourrait faire de meilleurs choix que les élus, à condition que la décision finale revienne à un être humain », selon un sondage OpenText réalisé en ligne auprès de 2.000 personnes.

Au Japon, une intelligence artificielle a même brigué la mairie de Tama, dans la région de Tokyo, en avril dernier. Certes, en pratique, un humain s’est présenté pour elle, Michihito Matsuda. Mais, sur ses affiches de campagne, on pouvait voir un robot aux formes féminines. Michihito Matsuda, s’il gagnait, voulait laisser l’IA déterminer les politiques grâce aux données à sa disposition. Un projet politique qui n’a pas emporté l’adhésion de la population, mais qui a toutefois recueilli 9,31 % des suffrages exprimés, soit plus de 4.000 voix.

L’interprétation est humaine

En France, le laboratoire d’informatique de Sorbonne Université a conçu un logiciel,  WorkSim , pour estimer les conséquences des politiques en matière d’emploi. En 2016, il avait évalué que la loi El Khomri, qui avait fait couler tant d’encre et suscité une vive opposition, entraînerait une baisse du chômage de 0,5 % à court terme, mais aurait un impact nul à long terme. Le modèle avait aussi été entraîné à trouver des solutions et, sur cette question, les deux chercheurs l’ayant mis au point divergeaient. Pour l’un, Jean-Daniel Kant, le plus efficace était une réduction du temps de travail, tandis que pour l’autre, Gérard Ballot, il valait mieux renforcer la formation. Cet exemple montre bien que la machine n’est pas suffisante pour décider ; il faut, dans le meilleur des cas, interpréter…

Au Boston Consulting Group, Sylvain Duranton, directeur associé, a travaillé sur l’optimisation du réseau de transports d’une ville avec l’aide d’un système d’IA. Horaires, nombre de rames, fréquentation, tout était passé à la moulinette pour plus d’efficacité. Problème : « On va avoir certaines zones où on ne s’arrête plus », explique-t-il. Ce qui allait à l’encontre d’une certaine idée de justice sociale. Déterminer dans quelle mesure on pouvait accepter des réductions de trafic à ces endroits était une question éminemment politique. Il fallait intégrer dans l’algorithme une valeur numérique afin de corriger ses conclusions. Et le terme de valeur n’est pas ici qu’un pur accident étymologique.

Lorsqu’un algorithme est corrigé, la valeur qui est intégrée est bien une valeur morale. « Les modèles, malgré leur réputation d’impartialité, reflètent des buts et des idéologies », écrit  Cathy O’Neil , mathématicienne et auteur de «  Weapons of Math Destruction  » (Crown Books, 2016). « Quand j’enlève la possibilité [à ma famille] de manger des biscuits à tous les repas, j’impose mon idéologie sur le modèle du menu. »

Quand des humains se servent d’algorithmes pour mettre en place des politiques publiques, il faut qu’ils aient l’honnêteté intellectuelle d’expliquer ce qu’ils visent, leur objectif, leur horizon. Rechercher l’efficacité économique n’est pas la même chose que rechercher la justice sociale… du moins pour un algorithme.

Car l’erreur serait de penser qu’il faut opposer efficacité et justice. La justice n’est-elle pas aussi un type d’efficacité ? Quand on refuse d’isoler des quartiers en leur garantissant une desserte en transports en commun, c’est dans l’objectif d’une cohésion du territoire, voire de l’unité nationale. Ceux qui défendront cette desserte diront qu’elle permet d’être plus efficace dans cette optique. Ils ajouteront aussi que cette cohésion sert l’efficacité économique in fine ; elle permet aux gens de se rendre sur leur lieu de travail à moindres frais. Mais peut-être qu’autre chose est recherché derrière l’efficacité économique (le bien commun ?).

Certes, on peut imaginer répondre à ces impératifs divers en multipliant les variables, en intégrant des données économiques, sociales, environnementales, etc. Le problème est que, à force, les variables en deviennent innombrables et souvent contradictoires. Elles peuvent aussi manquer de solidité méthodologique :  « The Economist » rappelait dans son numéro du 28 avril que 80 % des études en microéconomie exagéraient leurs résultats et que 90 % d’entre elles ne s’appuyaient pas sur des échantillons suffisants. Et même lorsque les études aident à construire des variables, la difficulté reste de savoir comment les articuler.

Autre souci : certains comportements humains échappent à la modélisation. Sinon, bien des parents auraient compris depuis longtemps pourquoi leurs enfants, élevés de la même façon, sont si différents.

L’intelligence artificielle, comme avant elle la statistique, n’en reste pas moins un outil scientifique utile pour élaborer et évaluer les politiques publiques. Charge à l’humain de dire clairement dans quelle direction ces politiques doivent aller.

Il n’y a pas qu’en politique qu’un algorithme peut occuper un poste à responsabilité. En 2014, le fonds d’investissement Deep Knowledge Ventures, basé à Hong Kong et spécialisé dans l’industrie pharmaceutique, a ainsi accueilli dans son conseil d’administration un algorithme du nom de « Vital », développé par l’éditeur britannique Aging Analytics. Tout comme n’importe quelle autre personne ayant le droit de siéger, il dispose d’une voix. Il s’exprime pour ou contre des investissements dans des entreprises. Il fonctionne en analysant les informations financières de la société en question, les tours de table précédents, des informations sur ce qui relève de la propriété intellectuelle, ainsi que les essais cliniques. « [Son but] est d’attirer l’attention en tant que preneur de décision indépendant », a déclaré Charles Groom, responsable chez Deep Knowledge Ventures, à « Business Insider ».

2009 : mise en place du site Admission post-bac, qui décide par algorithme de l’affectation des bacheliers dans l’enseignement supérieur (système remplacé en 2018 par Parcoursup).

2010 : la ville de Washington, aux Etats-Unis, renvoie des professeurs en fonction d’une note attribuée par un algorithme qui prend notamment en compte les résultats des élèves.

2014 : une IA dénommée « Vital » est admise au conseil d’administration de Deep Knowledge Ventures (lire encadré).

2014 : le Conseil d’Etat de la République de Chine publie un document d’orientation dans lequel il appelle à la création d’un système de notation de ses ressortissants, un Social Credit System.

2016 : l’artiste Aaron Siegel annonce la candidature de Watson, la solution d’intelligence artificielle d’IBM, à l’élection présidentielle des Etats-Unis. L’aventure n’ira pas plus loin qu’un site Web et quelques articles de presse.

2018 : Michihito Matsuda présente sa candidature à la mairie de Tama, au Japon, et déclare qu’il laissera la place à l’IA s’il est élu. Il perd, mais obtient 9,31 % des suffrages.

2040 : un système d’IA est élu démocratiquement, selon les prédictions du chercheur (très controversé) Ben Goertzel.

Credit:

L’intelligence artificielle à la place des politiques ?

Powered by WPeMatico