top of page
LICA

Wall-E, C-3PO ou Skynet, que deviendra l’intelligence artificielle entre nos mains?

Réchauffement climatique, crise migratoire, chômage et aujourd’hui pandémie, notre société fait face à des enjeux sans précédents. Dans un monde où le numérique est devenu omniprésent, certains voient l’avènement de l’IA comme une opportunité sans pareil pour les affronter. Quel rôle peut-elle vraiment jouer dans cette crise sociétale ? Et quelles dérives doit-on pour cela à tout prix éviter ?

L’humanité fait face à une crise à la fois sociale, économique et environnementale dont les symptômes s’aggravent de plus en plus vite. Selon l’ONU, on comptait par exemple 30 millions de réfugiés suite aux conflits et persécutions en 2018 [46], et aujourd’hui environ 821 millions de personnes souffrent de la faim dans le monde [15]. Côté biodiversité, c’est une espèce sur quatre qui est menacée d’extinction [7].

Pour faire face à ces enjeux, de nombreux espoirs se tournent vers la science et la technologie, et tout particulièrement vers le numérique. En effet, l’inconcevable quantité de données générée par l’activité humaine, estimée à 1.7 méga-octet par seconde et par personne en 2020 [25], est une ressource immense qui peut être exploitée par les systèmes informatiques. Dans ce domaine, la star du moment s’appelle IA, ou intelligence artificielle.

Qui est cette fameuse IA ?

Le concept d’intelligence artificielle est assez flou, si bien que les tentatives pour le définir sont aussi nombreuses que peu consensuelles. On peut le décrire comme la capacité d’un système à interpréter des données externes correctement, apprendre de ces données et adapter les connaissances apprises pour atteindre des buts et réaliser des tâches spécifiques [29]. Cette définition a l’avantage de qualifier un système d’intelligent en fonction du processus par lequel il réalise une tâche, plutôt que par la nature de la tâche réalisée. Elle permet également d’aborder les deux piliers qui sont à l’origine de l’adoption massive de l’IA. Le premier est celui des données. Comme mentionné précédemment, celles-ci sont produites en quantité dans de nombreuses disciplines, et l’IA permet de tirer profit de leur disponibilité croissante. Le second pilier est l’adaptation des connaissances apprises. C’est cette capacité de généralisation, cette aptitude à classifier ou prédire des attributs pour une donnée qui n’a encore jamais été rencontrée qui donne à l’IA tout son intérêt. En effet, quelle serait l’utilité d’un système de diagnostic automatique de tumeur sur des radiographies s’il était incapable de traiter une image nouvelle ?

Avec ces deux piliers, l’IA est aujourd’hui capable de réaliser de nombreuses tâches, allant de la reconnaissance d’image à la recommandation de contenu, et de l’optimisation d’itinéraire à la composition musicale. La liste de ce qu’elle fait plus efficacement et avec moins d’erreurs que l’humain s’allonge d’ailleurs, et de l’art à la compréhension des émotions il devient de plus en plus difficile de définir ce qui est le propre de l’homme et ne sera jamais accessible à la machine.

Alors I, Robot c’est pour demain ?

IA 2

Si l’homme n’est toutefois pas encore obsolète, c’est que malgré les performances de l’IA sur des tâches spécifiques, nous sommes incapables de programmer une intelligence artificielle générale, ou IAG. L’IAG, c’est l’IA de notre imaginaire : I, Robot, Terminator, Matrix, Wall-E. Il s’agit d’une IA capable de comprendre et apprendre à réaliser toute tâche ou résoudre tout problème soluble, ou du moins tous ceux qu’un homme saurait effectuer ou résoudre. Futur proche pour certains, rêve improbable pour d’autres, il nous est impossible de prédire quand une telle IAG verra le jour. Pour cette raison, nous ne questionnerons pas ici le rôle, l’utilité et les risques de l’IAG pour notre société, mais bien ceux de l’IA spécifique. Cette IA qui existe aujourd’hui et dont on croit l’avènement imminent alors qu’elle est d’ores et déjà omniprésente : de nos smartphones pour prédire les mots que nous écrivons à nos réseaux sociaux pour choisir le contenu que nous lisons et visionnons. Cette IA qu’on loue pour les progrès qu’elle permet dans le domaine médical, qu’on admire étonnés en observant les démonstrations de véhicules autonomes et qui nous indigne lorsque les images de son application pour la défense nous parviennent. Cette IA, nous verrons son potentiel face aux enjeux environnementaux, sociaux, économiques et politiques, mais aussi ses dérives et les dangers que peuvent provoquer son utilisation déraisonnée.

L’IA face aux enjeux environnementaux

L’IA pourrait être un atout majeur dans la lutte contre le réchauffement climatique, la pollution de l’air, des sols, des eaux, la perte de biodiversité, etc. En effet, ce que ces différentes problématiques ont en commun, c’est l’étude nécessaire d’un système complexe, aux variables multiples, sur lequel des données brutes de capteurs ou des images satellites sont disponibles en masse. Or traiter cette quantité d’informations pour en déduire modèles et prédictions est précisément le domaine de prédilection de l’IA.

Une IA verte

Ainsi, des initiatives tels que AI for Earth de Microsoft [38] voient le jour afin de proposer des applications de l’IA pour la préservation de l’environnement. Ces projets sont parfois déployés à l’échelle de villes entières, comme ça a été le cas pour Green Horizon [22]. Ce projet lancé par IBM en juin 2014 et mis en place à Beijing permet le recueil et le traitement par IA de données issues d’images satellites, de capteurs, des réseaux sociaux, des systèmes de santé, etc. Son objectif est d’améliorer la gestion et la prédiction de la qualité de l’air. Rendant possible l’anticipation de pics de pollution et la simulation des conséquences de prises de mesures possibles (diminution du trafic routier, ralentissement de l’industrie…), il aurait participé à la réduction de 20% des émissions de particules ultrafines dans la capitale chinoise de janvier à septembre 2015 [23].

Les domaines touchés par ces innovations sont nombreux. En agriculture, l’IA peut traiter les mesures de capteurs dans les sols, des données météorologiques, les caractéristiques des graines et des produits utilisés pour adapter au mieux l’utilisation d’eau, d’engrais et de pesticides afin de réduire leur consommation. Dans le transport, elle permet une optimisation des tournées de camions, maximisant leur taux de remplissage à l’aller comme au retour, diminuant donc leur impact environnemental. Appliquée au trafic urbain, elle peut éviter des arrêts inutiles des automobiles aux intersections et ainsi réduire de 20% leurs émissions de CO2 , comme l’a montré le système Surtrac à Pittsburg [16].

Accompagner la transition énergétique

Le monde de l’énergie n’est pas épargné par cette révolution technologique. Ses enjeux sont nombreux : limiter l’épuisement des ressources fossiles, les dégâts environnementaux et sociaux que causent leur extraction toujours plus difficile, réduire les émissions de gaz à effet de serre, accompagner une transition permettant de diminuer l’utilisation d’un parc nucléaire en fin de vie, etc. Si la recherche de solutions se tourne vers les énergies renouvelables, leur adoption à grande échelle est encore très contraignante. Notamment, la plupart de ces énergies ont le défaut d’être intermittentes : elles dépendent du vent, de l’ensoleillement, et peuvent donc connaître de soudains pics ou creux de production. C’est un véritable enjeu, car pour qu’un réseau électrique fonctionne correctement, la production doit constamment être égale à la consommation, sous peine de connaître une variation de fréquence qui pourrait endommager l’équipement du réseau.

Des réseaux électriques intelligents, appelés smart grids [47, 63, 64] pourraient permettre de modéliser et prédire de manière plus précise la consommation électrique, ainsi que d’anticiper les variations de la production d’énergie renouvelable. L’IA intégrée à des appareils du réseau pourrait également reporter la consommation pour l’adapter à la production, augmentant par exemple la puissance des chambres froides lors des pics d’ensoleillement ou stoppant momentanément la charge de voitures électriques lorsque le vent tombe soudainement. Une telle capacité de prédiction à court et moyen termes et d’adaptation des réseaux électriques en temps réel peut amener à une utilisation bien moindre des centrales thermiques, actuellement nécessaires car capables de répondre très rapidement à une variation de la consommation. Plus généralement, elle est un atout majeur pour accompagner une transition énergétique vers des modes de production plus propres.

Un problème : l’empreinte de l’IA

Malgré les espoirs portés par l’IA pour l’écologie, il ne faut pas oublier que bien que virtuelle, cette technologie a une empreinte environnementale bien réelle. En effet, si l’entraînement d’un modèle existant est assez peu polluant, le développement d’une IA pour une application donnée demande de l’exécuter de nombreuses fois, afin d’ajuster les paramètres, d’estimer la sensibilité des performances à ces derniers, d’expérimenter parfois sur plusieurs jeux de données, etc. Prenant tout cela en compte, une étude de l’université du Massachusetts [52] estime que les émissions de CO2 causées par la mise en place d’un modèle traditionnel de traitement du langage correspondent à plus de deux fois celles de la vie d’un américain moyen pendant un an. Pour les plus gros modèles du domaine on atteindrait l’équivalent de cinq voitures sur la totalité de leur durée de vie.

Mais d’où vient donc une telle empreinte carbone ? De l’énergie consommée par les importantes ressources de calcul nécessaire à l’IA. Celles-ci sont d’ailleurs parfois trop coûteuses pour les laboratoires ou entreprises, qui sont alors amenés à reporter les calculs sur les serveurs de fournisseurs tels que Google ou Microsoft, un service connu sous le nom de cloud computing. L’optimisation des architectures de calcul, ainsi que des performances énergétiques des data center est donc un enjeu majeur pour parvenir à une IA plus durable. Or là encore, cette dernière a son mot à dire. En 2016, une IA mise en place par Google est par exemple parvenue à réduire l’énergie utilisée pour le refroidissement de ses data centers de 40% [48].

L’effet rebond

Ces progrès sont particulièrement encourageants, mais ne seront utiles que s’ils sont accompagnés d’une remise en question de nos pratiques du numérique. En effet à l’heure actuelle, la réduction des coûts énergétiques du calcul entraîne une réduction des coûts économiques. Elle promeut ainsi une utilisation du numérique croissante et de plus en plus gourmande. À cause de cet effet rebond, même si l’efficacité énergétique des micro-contrôleurs et des serveurs double tous les 1.7 ans [43] l’énergie totale consommée par le numérique augmente d’environ 8.5% par an [1].

Par conséquent, si l’IA présente certes des applications très prometteuses face aux enjeux environnementaux actuels, il reste néanmoins primordial de garder à l’esprit son empreinte écologique. Faire appel à cet outil énergivore doit être réfléchi plutôt qu’automatique, et des pratiques de développement aussi computationnellement efficaces et raisonnées que possibles doivent être systématisées. Bien entendu, cela s’applique également à l’ensemble de nos activités numériques.

IA et crise sociale

IA 3

La préservation de l’environnement n’est cependant qu’un des nombreux défis que devra affronter l’humanité dans les prochaines années. En effet, celle-ci fait également face à des enjeux sociaux majeurs. Le premier des objectifs de développement durable énoncés par l’ONU [58] est la suppression de la pauvreté dans le monde, et on trouve parmi les suivants la réduction des inégalités ou encore l’accès à l’éducation pour tous. Or, d’IBM Science for Social Good [24] au programme AI for Humanitarian Action de Microsoft [39], les projets qui croient en l’IA pour avancer vers ces objectifs ne manquent pas.

Mieux combattre pauvreté et inégalités

Tout d’abord, la capacité de l’IA à analyser rapidement des données dont l’exploitation est difficile ou chronophage pour l’homme en fait un outil de choix pour aider à mieux cibler les actions sociales. En effet, les données sur la prospérité économique des populations sont généralement issues d’enquêtes sur les revenus et la consommation des foyers. Cependant, ces enquêtes sont coûteuses. Les pays les moins développés, incapables de les effectuer, disposent donc rarement de données économiques récentes et précises. L’utilisation de l’IA peut permettre une estimation de ces informations et une cartographie à la granularité très fine des inégalités ou de la pauvreté. Cette estimation peut se faire à partir d’images satellites des régions étudiées [4, 26], ou encore en analysant les données d’utilisation des téléphones portables (réseau de contacts, volume, temporalité et direction des communications, etc.) [5]. Une telle connaissance de la situation économique des populations peut être utile pour diriger les aides humanitaires vers les régions qui en ont le plus besoin. Cette information est également d’un grand intérêt au sein des pays plus développés qui peuvent l’exploiter pour mieux cibler décisions et mesures sociales. Il est d’ailleurs envisageable d’appliquer l’IA non seulement pour faire un état des lieux des difficultés économiques, mais également pour modéliser et prédire l’efficacité de différents types d’actions, afin d’optimiser leur impact.

Un second angle d’attaque possible pour l’IA dans la réduction de la pauvreté dans le monde est son utilisation directement par les populations les plus démunies. On sait par exemple qu’une croissance dans le secteur agricole est deux à quatre fois plus efficace pour réduire la pauvreté qu’une croissance dans d’autres secteurs [55]. Dans ce contexte, donner accès aux agriculteurs des pays les plus pauvres à des applications intelligentes capables d’augmenter leur production en analysant les caractéristiques des sols et des plantes qu’ils cultivent [57] pourrait être une solution non seulement efficace mais ayant également des effets sur le long terme.

L’IA pourrait aussi favoriser un accès pour tous à une éducation de qualité. Des systèmes d’enseignement intelligents capables de s’adapter au profil de l’étudiant et de traduire automatiquement leur contenu vers sa langue maternelle pourraient compléter une éducation lacunaire ou inexistante. En outre, même sans interagir directement dans l’enseignement, l’IA pourrait permettre un meilleur suivi des élèves pour garantir un soutien personnalisé lorsque celui-ci est nécessaire. Microsoft a par exemple mis en place en Inde une application traitant des données sur l’étudiant (données socio-économiques, de genre, de performances, etc.), sur l’école et sur les professeurs afin de prédire les potentiels décrochages scolaires. Cela rend possible la mise en place d’un accompagnement adapté afin de les éviter [40].

L’IA vous mettra-t-elle au chômage ?

Face à cet engouement pour l’IA au nom des objectifs de développement durable, l’Institute of Transformative Technologies (ITT) remet en question la pertinence de ces applications. Selon son rapport [56], sur les 38 interventions les plus importantes pour faire face à l’insécurité alimentaire et aux inégalités d’accès à l’énergie, à la santé et à l’éducation dans les pays en voie de développement, seules cinq nécessitent une utilisation de l’IA. La priorité est donc l’intervention et le déploiement de moyens concrets et existants, et non la spéculation sur les bénéfices d’une technologie en plein essor.

D’autant plus que la croissance de l’IA risque de plonger dans la précarité des individus à la situation économique actuellement stable. Selon l’institut McKinsey, 50% du temps de travail effectué par l’homme peut théoriquement être automatisé avec des technologies qui étaient déjà disponibles en 2017 [35]. Suite aux avancées dans le domaine de l’IA, cette proportion est en hausse. Des techniques d’analyse d’images de plus en plus performantes aux véhicules autonomes capables de remplacer livreurs de pizza ou routiers [8, 34], la plupart des activités dans lesquelles tâches répétitives ou analyse de données sont présentes peuvent ou pourront au moins en partie être effectuées plus efficacement par une machine. IA ou robots peuvent représenter un investissement important, mais ne demandant ni pauses, ni vacances, ils sont des solutions de production particulièrement peu coûteuses sur le long terme. Les emplois les plus susceptibles d’êtres touchés par cette automatisation toujours plus rapide sont majoritairement ceux accessibles avec le plus bas niveau d’études, ce qui est problématique puisque les postes créés par cet essor de l’IA en ingénierie et en recherche sont au contraire hautement qualifiés. Les inégalités déjà importantes de niveau de vie en fonction de l’accès à une éducation de qualité et de la réussite dans les études sont donc amenées à se creuser davantage.

Une IA sans limites

Il ne faut toutefois pas croire que de longues études suffiront à garantir un emploi immunisé de toute automatisation. L’institut McKinsey précise en effet qu’en 2017 nous étions capables d’automatiser 22% de l’activité effectuée par des personnes munies de bachelor, master ou doctorat. Et si les métiers à forte composante sociale ou créative sont souvent considérés comme inaccessibles à l’IA, l’innovation tend à remettre cette affirmation en question. Des musiques générées par Flow Machines ou OpenAI [27, 13] aux images produites par Deep Dream de Google [11], la « créativité » de l’IA ne cesse de nous surprendre, de dépasser la simple copie de l’existant et de se rapprocher de ce qu’on pourrait réellement qualifier d’art. Différents artistes font d’ailleurs appel à ces outils nouveaux, ouvrant des espaces de création encore jamais explorés tels des concerts interactifs dans lesquels le public participe non seulement à l’ambiance générale mais interfère également avec la musique elle même [12]. Quant aux interactions sociales, si l’IA ne ressentira jamais d’empathie, cela ne l’empêche pas de progresser rapidement dans la reconnaissance des émotions, ou de la personnalité. Avec ces capacités, l’IA sera capables de s’adapter à chaque individu rencontré, à ses particularités et à ses besoins. On la voit par exemple appliquée à tous les maillons de la chaîne de soin aux personnes âgées [49]. Observer leur activité à domicile pour vérifier leur bonne santé et prévenir en cas d’accident n’est plus la seule aide qu’elle leur apporte, puisqu’elle peut également s’incarner en compagnons virtuels tel l’agent de conversation ElliQ développé par Intuition Robotics [18].

Ainsi, il est aujourd’hui très difficile d’affirmer que l’homme restera irremplaçable dans certains emplois. La communication autour de l’IA fait généralement référence à la collaboration entre l’homme et la machine comme but visé, plutôt qu’à une substitution des travailleurs. Pourtant, plus d’un quart de la population craint de perdre son travail au profit des nouvelles technologies [60, 41].

Je ne veux pas travailler ♪

Certes, l’IA créera probablement de nouveaux emplois, mais il serait difficile d’affirmer que cet effet compensera les postes dont elle permettra l’automatisation. L’effervescence des réflexions sur un monde du travail dans lequel l’IA est omniprésente [20, 28] laisse envisager qu’il n’existe pas de réponse triviale à la question de l’emploi pour tous dans les années à venir. C’est alors peut-être la question elle-même qu’il faut réévaluer. Quelle nécessité existe-t-il à occuper un emploi si une grande partie de la production de biens et services permettant le fonctionnement de la société est automatisée ? Si le chômage fait aujourd’hui si peur, c’est qu’il est bien trop souvent synonyme de précarité. Le salaire est une ressource essentielle à une vie confortable, et cette corrélation entre emploi et revenu est sensée dans un système alimenté par le travail humain. Mais l’est-elle encore si cet effort individuel n’est plus nécessaire, si ce labeur est transféré aux machines ? La proposition de supprimer cette corrélation en versant à chacun suffisamment d’argent pour subvenir à ses besoins fondamentaux sous la forme d’un revenu universel et inconditionnel [42] connaît un nouvel élan avec la pandémie COVID-19 qui plonge de nombreux foyers dans une situation économique difficile [21, 50, 2]. Au-delà de cette crise sanitaire, un tel revenu sera peut être une opportunité, voire une nécessité pour accompagner la démocratisation de l’IA dans le monde professionnel.

Un monde du travail transformé, ou l’emploi ne serait plus une obligation, mais un choix, la chance d’accéder à un niveau de vie plus élevé pourrait alors voir le jour. Nous aurions l’occasion de revenir à une forme de travail qui n’est aujourd’hui pas rémunérée : entretenir son domicile, jardiner, prendre soin de ses enfants, etc. Plutôt que de chercher des solutions technologiques au manque d’attention que nous portons à nos aînés (tels les agents conversationnels présentés plus tôt), nous saurions alors libérer du temps pour prendre soin d’eux. La compassion et l’amour que nous tentons de permettre aux machines de simuler pourraient devenir moteurs de nouvelles activités que nous exercerions par choix. Prendre soin de l’autre et de la nature, avancer en collectif, exprimer sa créativité et faire vivre la culture deviendraient des occupations à plein temps pour tous ceux qui le souhaitent. Et quels objectifs sont plus importants que ceux-ci face aux enjeux d’aujourd’hui ainsi qu’aux angoisses et désillusions qu’ils génèrent ? Sans oublier que ce revenu universel apporterait également une réponse partielle aux souffrances que sont le burnout et la recherche désespérée de sens dans nos bullshit jobs [19]. Bien entendu, un revenu universel n’est pas nécessairement la seule solution qu’il est possible d’apporter à la question de la précarité que l’IA pourrait créer si son adoption massive comme outil de production efficace et rentable a lieu. Quoi qu’il en soit, il reste urgent de réinventer le fonctionnement économique de notre société et la place que prend l’humain dans celui-ci.

Ainsi, l’IA a la capacité de mettre en évidence les inégalités sociales et les actions les plus pertinentes pour y répondre. Son utilisation par les pays en voie de développement pourrait être un bond en avant dans la lutte contre la pauvreté dans le monde. Toutefois, elle risque également de remettre en question la prospérité économique d’une grande partie de la société, notamment par l’automatisation qu’elle permettra de nombreux postes pour un coût réduit. Il devient donc essentiel de réinventer notre système économique pour permettre la naissance et la rémunération d’activités en accord avec nos valeurs, tournées vers l’humain, la nature et le collectif, par exemple en décorrélant emploi et revenu.

L’IA en politique

Comme nous l’avons vu, l’IA est porteuse d’espoirs face aux défis environnementaux et sociaux que nous devons relever aujourd’hui, mais son utilisation présente également des enjeux nouveaux. Le monde de demain s’articulera autour des questions de son éthique et de sa place dans la société. Dès lors, il serait déraisonnable de poursuivre l’étude et le développement de cette technologie sans s’interroger sur son rôle pour le citoyen, sur ce qu’elle représente pour la démocratie.

Surveillance de masse et données biaisées

Nous ne cessons d’y revenir, si l’IA a bien un point fort, c’est sa capacité de traitement de grands volumes de données. Or, des données, chacun de nous en produit chaque jour une quantité importante. À travers des achats en ligne, des démarches dématérialisées ou simplement les réseaux sociaux, notre activité sur internet est une véritable fenêtre sur notre vie privée. Il a été montré que cette empreinte numérique pouvait être utilisée pour prédire des informations personnelles parfois sensibles, telles que des traits de notre personnalité, notre orientation sexuelle, notre origine ethnique, notre religion ou nos avis politiques [31]. En effet, l’IA permet de modéliser un profil pour chaque individus, et les utilisations de ces modèles sont nombreuses.

Aux États-Unis par exemple l’IA cherche à prédire la probabilité de récidive des accusés lors des procès, information prise en compte pour l’établissement du verdict [9]. Pourtant, selon une étude du Dartmouth College, ces applications ne seraient pas plus précises que les prédictions de personnes sans expérience de la justice [14]. L’utilisation de la police prédictive se développe elle aussi. Son principe est de chercher à prédire les crimes ou délits à l’aide de l’IA afin d’intervenir sur les lieux le plus rapidement possible, ou d’effectuer des contrôles préventifs. Un des risques que présentent ces applications est la sensibilité qu’a l’IA aux biais dans les données. D’une répartition non représentative des exemples qui lui sont soumis lors de l’apprentissage, elle peut interpréter des règles qu’elle généralise. Ainsi, la simple inégale répartition des contrôles de police en défaveur des minorités ethniques [6] pourrait amener le modèle à considérer leur probabilité de commettre un crime ou délit comme plus importante, conduisant alors à nouveau la police à contrôler ces populations plus souvent [17]. Ce cercle vicieux est appelé boucle de rétroaction positive, et peut encourager la discrimination s’il n’est pas pris en compte et corrigé.

La protection des données personnelles est ainsi un enjeu important pour assurer non seulement un respect de la vie privée, mais également un maintien des droits fondamentaux tels que l’égalité.

C’est l’IA qui l’a dit

Pour garantir ces droit fondamentaux, il est nécessaire que les prédictions de l’IA soient explicables, afin de permettre leur remise en question ou la mise en évidence des biais susmentionnés. La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle [36] le souligne d’ailleurs : « Les décisions des [systèmes d’intelligence artificielle] affectant la vie, la qualité de la vie ou la réputation des personnes, devraient toujours être justifiables dans un langage compréhensible aux personnes qui les utilisent ou qui subissent les conséquences de leur utilisation. La justification consiste à exposer les facteurs et les paramètres les plus importants de la décision et doit être semblable aux justifications qu’on exigerait d’un être humain prenant le même type de décision ». Sans cette garantie, les prédictions de l’IA peuvent devenir de simples arguments de discrimination ou de persécution, justifiés non pas par la raison mais par l’imaginaire qu’on a de l’informatique : impartial, rigoureux, précis.

Un exemple flagrant est celui du Système de Crédit Social (SCS) proposé par la Chine [62, 29]. Ce projet mêle IA et Big Data afin d’associer à chaque citoyen un score augmentant lorsque celui-ci effectue des actions citoyennes tels que des dons du sang ou du volontariat, et se dégradant en cas de délit, de non remboursement de prêt bancaire, etc. Un tel système pourrait participer à l’essor d’une société nouvelle dans laquelle la gamification des actes solidaires et de la participation à la démocratie engagerait le citoyen à travers récompenses et succès qu’il pourrait obtenir. Tel que présenté cependant, il vise également à punir par des moyens concrets les individus désobéissants, en leur retirant par exemple la possibilité de réserver des billets de train ou d’avion, d’acheter un logement ou encore de scolariser leurs enfants dans des établissements privés. Ce genre de pratique pose alors des questions éthiques fortes, et les risques de dérives sont importants : puisque le score attribué aux individus dépend d’un grand nombre de variables, il serait difficile de demander sa correction, de contrôler l’absence d’erreur, ou de s’assurer que le parti au pouvoir ne s’en serve pas pour punir et décourager les manifestants ou opposants politiques.

Info ou intox ?

Une autre application par laquelle l’IA a le potentiel d’influencer notre organisation politique est la manipulation de l’information. En effet, de Youtube à Facebook ou Twitter, des systèmes de recommandations dits intelligents contrôlent déjà le contenu que nous lisons ou visionnons. Seulement, ces algorithmes sont loin de nous donner une représentation non biaisée du monde ou de favoriser les contenus construits, argumentés et nuancés dans l’optique de mieux nous informer et faciliter la démocratie par le débat et la remise en question. Au lieu de cela, ils sont optimisés pour recommander le contenu susceptible de nous retenir le plus longtemps sur leur plateforme [10, 32]. Cela ne les rend pourtant pas neutres, car cet objectif est souvent atteint par la promotion de contenu violent et radical [33]. Une étude allemande sur la criminalité envers les réfugiés suggère même que les réseaux sociaux sont ainsi non seulement fertiles à la propagation de propos extrémistes mais favorisent également l’émergence de violences physiques [43].

L’accès à une information de qualité est aussi impacté par la diffusion d’informations erronées ou volontairement déformées. Ces fake news circulent sur les réseaux sociaux plus rapidement que du contenu véridique [60, 37]. Or l’IA rend aujourd’hui possible l’automatisation de leur génération. Le modèle GPT-2 d’OpenAI [46] est par exemple capable de produire des articles réalistes à partir de quelques phrases. Entre de mauvaises mains, il pourrait être utilisé pour diffuser des millions de messages de phishing, ou inonder les réseaux sociaux de faux scandales pour orienter le résultat d’une élection. Conscients de ces risques, les auteurs se sont d’ailleurs dans un premier temps refusés à rendre accessible le modèle pré-entraîné, bien qu’ils soient revenus sur cette décision neuf mois plus tard [52]. Plus inquiétante encore, la production de deep fakes rend photos ou vidéos tout aussi falsifiables que des articles écrits. Ces réalisations de l’IA permettent en effet de remplacer un visage par celui d’une célébrité, ou encore de faire prononcer un discours par l’homme politique de notre choix [30, 3, 54, 45].

Combattre le feu par le feu

Il est toutefois intéressant de noter que si ces fake news sont de plus en plus réalistes pour l’homme, les modèles qui servent à les produire peuvent parfois être retournés contre eux-mêmes. En effet, une techniques couramment utilisée pour obtenir des résultats crédibles est appelée adversarial learning. Son principe repose sur l’implémentation de deux modèles : le discriminateur qui est entraîné à distinguer une information véridique d’une information artificielle, et le générateur qui a pour objectif de produire des fake news capables de tromper le discriminateur. Par définition, l’IA doit donc apprendre à détecter les fausses informations avec une extrême précision si elle veut pouvoir produire des résultats fallacieux. L’application génératrice de fake news est donc elle-même une arme de choix pour effectuer leur détection. Dans ce contexte, les auteurs de l’outil de rédaction d’articles Grover [63], appellent à rendre publics les modèles présentant des risques d’utilisation détournée afin de permettre une reconnaissance bien plus performante des contenus qu’ils créeront.

Seulement, l’adversarial learning n’est pas la seule méthodes existante, et la détection de deep fakes risque d’avoir toujours un temps de retard face à la course à l’armement qu’elle doit mener contre leur génération. À chaque nouvelle méthode de détection publiée, les logiciels de génération pourront être améliorés pour corriger leurs erreurs et rendre cette dernière obsolète. Même si ce n’est pas le cas, le simple fait qu’ils soient assez réalistes pour tromper l’homme pourrait rendre leur diffusion trop rapide pour être contrecarrée, surtout si celle-ci a tout d’abord lieu sur des réseaux sociaux n’implémentant pas les dernières technologie de vérification automatique de contenu.

Ainsi, l’IA peut avoir des impacts majeurs sur notre démocratie. Face au traitement massif de données privées qu’elle permet, il devient essentiel de proposer et faire respecter un cadre pour son utilisation, pensé en regard des droits fondamentaux et de l’égalité [55]. Sans cela, une application mal intentionnée ou simplement mal informée peut présenter une menace pour la liberté et la vie privée. Sa capacité à sélectionner l’information qui nous parvient pose aussi question. Celle-ci pourrait être synonyme d’essor de la démocratie, favorisant des débats mieux informés, basés sur des faits vérifiés et des points de vues multiples nous forçant à être critiques sur nos croyances ou opinions. Elle pourrait cependant également avoir l’effet contraire, nous désinformant et encourageant la polarisation et la radicalisation de notre pensée. Il devient donc impératif d’intégrer aux sources d’informations les plus populaires une vérification robuste de l’information et de repenser les objectifs des systèmes de recommandations afin qu’ils n’optimisent plus simplement notre engagement au prix d’une prolifération de contenus subversifs.

L’IA sera ce que nous en faisons

Nous avons pu constater que l’IA est une brique technologique qui pourrait s’avérer d’une grande aide face aux enjeux environnementaux, sociaux, économiques et politiques que l’humanité affronte aujourd’hui. Pourtant, elle a la capacité d’empirer chacune de ces problématiques plutôt que d’aider à la résoudre. Il est important de se souvenir que l’IA est avant tout un outil, et en tant que tel, elle peut devenir une arme ou échapper à notre contrôle, mais elle sera surtout ce que nous choisissons d’en faire. Dans un monde dirigé par le profit et le développement économique au détriment du bien être de l’homme et de la protection de son environnement, l’IA permettra la croissance de ces indicateurs en amplifiant leurs effets collatéraux. Elle reflète l’urgence de transformation de notre société, et comme pour elle, nous devons dès aujourd’hui co-construire son éthique et ses objectifs. Nous devons sélectionner les applications essentielles de cette technologie coûteuse pour l’environnement, et assurer leur développement suivant des principes de solidarité et d’honnêteté nous permettant d’anticiper et de minimiser les dommages qu’elles pourraient causer. Cette réflexion n’est pas le fardeau des seuls chercheurs, entreprises ou même hommes politiques, mais bien un sujet citoyen auquel chacun de nous doit être sensible, une discussion dans laquelle chacun doit avoir la possibilité de s’exprimer.

Auteur : Guillaume Vannel Lica

Références & Sources :

[1] Groupe de travail «Lean ICT», dirigé par Hugues FERREBOEUF . -Learn ICT- Pour une sobriété numérque. 2018. url : https://theshiftproject. org/wp- content/uploads/2018/05/2018- 03- 27_Rapport- interm% 5C%C3%5C%A9diaire_Lean-ICT-Pour-une-sobri%5C%C3%5C%A9t%5C% C3%5C%A9-num%5C%C3%5C%A9rique-v.._.pdf (visité le 25/04/2020).

[2] A. Altimare. « Coronavirus : vers la mise en place d’un revenu universel en Corse ? » In : France 3 (2020). url : https://france3- regions. francetvinfo . fr / corse / mise – place – revenu – universel – corse 1823698.html (visité le 03/05/2020).

[3] Sercan Arik et al. « Neural voice cloning with a few samples ». In : Advances in Neural Information Processing Systems. 2018, p. 10019-10029.

[4] Joshua Evan Blumenstock. « Fighting poverty with data ». In : Science 353.6301 (2016), p. 753-754.

[5] Joshua Blumenstock, Gabriel Cadamuro et Robert On. « Predicting poverty and wealth from mobile phone metadata ». In : Science 350.6264 (2015), p. 1073-1076.

[6] Y Brinbaum et al. Enquête sur la diversité des populations en France. 2010.

[7] E S Brondizio et al. « Global assessment report on biodiversity and ecosystem services ». In : Global assessment report. New York : United Nations Organisation (2019).

[8] Jonathan Capriel. « Amazon’s self-driving delivery robots are greenlit for Virginia. And not just on sidewalks ». In : Washington Business Journal (2020). url : https://www.bizjournals.com/washington/ news/2020/02/25/amazons- self- driving- delivery- robots- arevirginia.html (visité le 02/05/2020).

[9] Electronic Privacy Information Center. Algorithms in the Criminal Justice System : Pre-Trial Risk Assessment Tools. url : https://epic.org/ algorithmic-transparency/crim-justice/ (visité le 28/04/2020).

[10] Paul Covington, Jay Adams et Emre Sargin. « Deep neural networks for youtube recommendations ». In : Proceedings of the 10th ACM conference on recommender systems. 2016, p. 191-198.

[11] « Deep Dream Generator ». url : https://deepdreamgenerator. com (visité le 02/05/2020).

[12] Nico Derrick Mike andParis et Matthew Pegula. « Magenta + Deeplocal + The Flaming Lips = Fruit Genie ». In : Magenta (2019). url : https://magenta.tensorflow.org/fruitgenie (visité le 02/05/2020).

[13] Prafulla Dhariwal et al. « Jukebox ». In : OpenAI (2020). url : https: //openai.com/blog/jukebox/ (visité le 02/05/2020).

[14] Julia Dressel et Hany Farid. « The accuracy, fairness, and limits of predicting recidivism ». In : Science advances 4.1 (2018), eaao5580.

[15] IFAD FAO, W H O WFP, UNICEF et al. « The state of food security and nutrition in the world 2019 : safeguarding against economic slowdowns and downturns ». (2019).

[16] Rapid Flow. Surtrac Wins 2017 Le Monde International Smart City Innovation Award for Mobility. 2017. url : https://www.rapidflowtech. com / blog / surtrac – wins – 2017 – le – monde – international – smart city-innovation-award-for-mobility (visité le 25/04/2020).

[17] Seeta Peña Gangadharan. « Predictive Algorithms Are Not Inherently Unbiased ». In : The New York Times (2015). url : https : //www.nytimes.com/roomfordebate/2015/11/18/can- predictivepolicing – be – ethical – and – effective / predictive – algorithms are-not-inherently-unbiased (visité le 28/04/2020).

[18] Andrew Gebhart. « ElliQ at CES 2019 is a smart robot and display to keep Grandma company ». In : Cnet (2019). url : https://www.cnet. com/news/elliq-gives-smart-speakers-a-personality-fit-forgrandma-at-ces-2019 (visité le 02/05/2020).

[19] David Graeber et Albertine Cerutti. Bullshit jobs. Simon & Schuster New York, 2018.

[20] Volker Hirsch. AI & The Future of Work. 2017. url : https://www. youtube.com/watch?v=dRw4d2Si8LA (visité le 03/05/2020).

[21] Chris Hughes. « Why Americans Need a Guaranteed Income ». In : The New York Times (2020). url : https://www.nytimes.com/2020/05/ 01/opinion/universal- basic- income- coronavirus.html (visité le 03/05/2020).

[22] IBM. Green Horizon. url : https://www.research.ibm.com/labs/ china/greenhorizon.html (visité le 24/04/2020).

[23] IBM. IBM Expands Green Horizons Initiative Globally To Address Pressing Environmental and Pollution Challenges. 2015. url : https : / / www- 03.ibm.com/press/us/en/pressrelease/48255.wss (visité le 24/04/2020).

[24] IBM. IBM Science for Social Good. url : https://www.research.ibm. com/science-for-social-good/#overview (visité le 28/04/2020).

[25] J James. Data never sleeps 6.0. 2019.

[26] Neal Jean et al. « Combining satellite imagery and machine learning to predict poverty ». In : Science 353.6301 (2016), p. 790-794.

[27] Lucy Jordan. « Inside the Lab That’s Producing the First AI-Generated Pop Album ». In : Seeker (2017). url : https://www.seeker.com/ tech/artificial- intelligence/inside- flow- machines- the- labthats – composing – the – first – ai – generated – pop – album (visité le 02/05/2020).

[28] Lee Kai-Fu. How AI can save our humanity. 2017. url : https://www. youtube.com/watch?v=ajGgd9Ld-Wc (visité le 03/05/2020).

[29] Andreas Kaplan et Michael Haenlein. Siri, Siri, in my hand : Who’s the fairest in the land ? On the interpretations, illustrations, and implications of artificial intelligence. Jan. 2019. doi : 10.1016/j.bushor.2018.08. 004.

[30] Hyeongwoo Kim et al. « Deep video portraits ». In : ACM Transactions on Graphics (TOG) 37.4 (2018), p. 1-14.

[31] Michal Kosinski, David Stillwell et Thore Graepel. « Private traits and attributes are predictable from digital records of human behavior ». In : Proceedings of the national academy of sciences 110.15 (2013), p. 58025805.

[32] Nicolas Koumchatzky et Anton Andryeyev. « Using deep learning at scale in twitter’s timelines ». In : Twitter Blog 9 (2017).

[33] Paul Lewis. « Fiction is outperforming reality” : How YouTube’s algorithm distorts truth ». In : The Guardian 2 (2018), p. 2018.

[34] Courtney Linder. « A Self-Driving Freight Truck Just Drove Across the Country to Deliver Butter ». In : Popular Mechanics (2019). url : https://www.popularmechanics.com/technology/infrastructure/ a30196644/self-driving-truck-cross-country/ (visité le 02/05/2020).

[35] James Manyika et al. « Jobs lost, jobs gained : Workforce transitions in a time of automation ». In : McKinsey Global Institute 150 (2017).

[36] Mario Ionut, Maros, an et al. « Rapport de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle ». (2018).

[37] Robinson Meyer. « The grim conclusions of the largest-ever study of fake news ». In : The Atlantic 8 (2018), p. 2018.

[38] Microsoft. AI for Earth. url : https://www.microsoft.com/enus/ai/ai-for-earth (visité le 24/04/2020).

[39] Microsoft. AI for Humanitarian Action. url : https://www.microsoft. com/en-us/ai/ai-for-humanitarian-action (visité le 28/04/2020).

[40] Microsoft. Preventing school dropouts using ML and analytics. url : https://www.microsoft.com/en-in/campaign/artificial-intelligence/ preventing-school-dropouts-using-ml-and-analytics.aspx (visité le 28/04/2020).

[41] Masayuki Morikawa. « Assessing the impact of AI and robotics on job expectations using Japanese survey data ». In : RIETI highlight 68 (2018), p. 21-23.

[42] Mouvement Français pour un revenu de base. url : https : / / www . revenudebase.info/ (visité le 05/05/2020).

[43] Karsten Müller et Carlo Schwarz. « Fanning the flames of hate : Social media and hate crime ». Available at SSRN 3082972 (2019).

[44] Sam Naffziger. « Energy Efficiency of Computing : What’s Next ? » In : Power (2019).

[45] Bill Posters. Spectre. 2019. url : http://billposters.ch/projects/ spectre (visité le 05/05/2020).

[46] Alec Radford et al. « Better language models and their implications ». In : OpenAI Blog (2019). url : https://openai.com/blog/betterlanguage-models/ (visité le 05/05/2020).

[47] United Nations High Commissioner for Refugees. Global trends—forced displacement. 2018.

[48] Le Réveilleur. L’IA face aux défis énergétiques (ft. Science4All). 2018. url : https : / / www . lereveilleur . com / lia – face – aux – defis energetiques/ (visité le 25/04/2020).

[49] Jim Gao Richard Evans. DeepMind AI Reduces Google Data Centre Cooling Bill by 40%. 2016. url : https://deepmind.com/blog/article/ deepmind- ai- reduces- google- data- centre- cooling- bill- 40 (visité le 25/04/2020).

[50] Shourjya Sanyal. « How Is AI Revolutionizing Elderly Care ». In : Frobes (2018). url : https : / / www . forbes . com / sites / shourjyasanyal / 2018/10/31/how- is- ai- revolutionizing- elderly- care (visité le 02/05/2020).

[51] Mark Smith et Genevieve Shanahan. « Le revenu universel inconditionnel plébiscité en Europe ». In : The Conversation (2020). url : https : / / theconversation . com / le – revenu – universel – inconditionnel plebiscite-en-europe-135883 (visité le 03/05/2020).

[52] Irene Solaiman, Jack Clark et Miles Brundage. « GPT-2 : 1.5 B Release ». In : Open AI (2019). url : https://openai.com/blog/gpt2-1-5b-release (visité le 05/05/2020).

[53] Emma Strubell, Ananya Ganesh et Andrew McCallum. « Energy and policy considerations for deep learning in NLP ». arXiv :1906.02243 (2019).

[54] Supasorn Suwajanakorn, Steven M Seitz et Ira Kemelmacher-Shlizerman. « Synthesizing obama : learning lip sync from audio ». In : ACM Transactions on Graphics (TOG) 36.4 (2017), p. 1-13.

[55] Access Now Policy Team. « The Toronto Declaration : Protecting the Rights to Equality and Non-Discrimination in Machine Learning Systems ». In : Access Now. August 13 (2018). url : https://www.accessnow.org/ cms/assets/uploads/2018/08/The- Toronto- Declaration_ENG_082018.pdf (visité le 29/04/2020).

[56] Robert Townsend. « Ending poverty and hunger by 2030 : an agenda for the global food system ». In : Washington, DC : World Bank Group (2015).

[57] Institute for Transformative Technologies (ITT). Artificial Intelligence and data analytics or human development : Separating facts from hype on where AI and data can genuinely help, and where it is a distraction. 2018. url : https://d386wwnkwgr87h.cloudfront.net/wp- content/uploads/2019/03/AI- Report- Mar- 2019.pdf (visité le 28/04/2020).

[58] Carnegie Mellon University. FarmView : CMU Researchers Working to Increase Crop Yield With Fewer Resources. 2016. url : https://www. cmu.edu/work-that-matters/farmview/ (visité le 28/04/2020).

[59] UNO. 17 Goals to Transform Our World. url : https://www.un.org/ sustainabledevelopment/ (visité le 27/04/2020).

[60] Soroush Vosoughi, Deb Roy et Sinan Aral. « The spread of true and false news online ». In : Science 359.6380 (2018), p. 1146-1151.

[61] Laura Wronski. « CNBC|SurveyMonkey Workplace Happiness Index : November 2019 ». In : SurveyMonkey (2019). url : https : / / www . surveymonkey.com/curiosity/cnbc- workplace- happiness- indexnovember-2019 (visité le 02/05/2020).

[62] Vicky Xiuzhong Xu et Bang Xiao. « China’s Social Credit System seeks to assign citizens scores, engineer social behaviour ». In : Australia Broadcasting Corporation (2018). url : https://www.abc.net.au/news/201803 – 31 / chinas – social – credit – system – punishes – untrustworthy citizens/9596204 (visité le 29/04/2020).

[63] Rowan Zellers et al. « Defending against neural fake news ». In : Advances in Neural Information Processing Systems. 2019, p. 9051-9062.

[64] EPFL ZettaBytes. Smart Grids (ft. Jean-Yves Le Boudec). 2017. url : https : / / www . youtube . com / watch ? v = wXmhOmsirtI (visité le 25/04/2020).

[65] EPFL ZettaBytes. Smarter Grid Research (ft. Jean-Yves Le Boudec). 2018. url : https://www.youtube.com/watch?v=SEeFXjm00uc (visité le 25/04/2020).

Comments


bottom of page