L’IA la plus grande révolution que l’homme moderne n’ait jamais connue.
Avant toute chose, il faut éclaircir certains points. L’IA n’est qu’un outil, sans conscience ni personnalité. Ce n’est pas un être vivant doué d’initiatives, c’est une machine. Loin de Terminator et de ses robots tueurs ; la suprématie de l’homme sur les machines a encore de beaux jours devant elle, pour le meilleur… comme pour le pire.
Selon la Commission nationale de l’informatique et des libertés (Cnil), l’IA est un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies. Pour le Parlement européen, constitue une IA tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Un algorithme s’entend quant à lui comme la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Aujourd’hui, l’IA n’est qu’un algorithme hautement performant se construisant, la plupart du temps, sur un très grand jeu de données.
Aux lèvres de chacun mais incomprise par la plupart, l’IA est à la fois porteuse d’évolution et de progrès mais aussi de risques et de dangers. L’Union européenne, pionnière sur le sujet, a récemment adopté un règlement encadrant son utilisation. Le règlement sur l’IA s’appliquera de manière échelonnée dès 2025 et régulera l’utilisation de l’IA selon une approche basée sur les risques. Les services d’IA (SIA) provoquant des risques inacceptables comme la notation du citoyen seront interdits. Ceux présentant des hauts risques, comme la reconnaissance faciale à distance en temps réel, seront autori- sés sous conditions strictes. Les SIA à risques limités, comme les IA de génération de texte, devront respecter des obligations d’information et de transparence. Enfin, certains SIA présentant un risque minimal ou absent ne seront soumis à aucune restriction.
Dans le cadre de son programme France 2030, la France a investi 2,5 milliards d’euros dans l’IA. Loin des rêves utopiques, la France agit : elle sera le pays de l’IA ou ne sera pas.
Le développement d’une IA peut se heurter à des difficultés. En 2016, par exemple, la société Microsoft lançait le robot conversationnel Tay sur Twitter. En huit heures, 96 000 tweets, sou- vent vulgaires, complotistes, racistes et antisémites, ont été postés, forçant Microsoft à supprimer le compte. Pourquoi cet échec ? Tay s’est entraîné sur un jeu de données biaisé, provenant des messages de Twitter, ne pouvant distinguer le bien du mal. Pour fonctionner correctement, les IA doivent s’entraîner sur des jeux de données variés, respectueux et représentatifs. Par un exemple, en octobre 2018, l’IA de recrutement d’Amazon, basé sur un système de notation automatisé, pénalisait les candidatures des femmes. Le logiciel avait été entrainé avec des banques de CV d’anciens candidats, majoritairement des hommes. Dans sa logique interne, la machine a défavorisé les candidates lorsqu’il y avait mention explicite de leur féminité.
Les IA se heurtent à deux limites : parfois, elles sont mal codées et nécessitent des ajustements. Souvent, les jeux de données sur lesquels elles s’entraînent ne sont pas assez représentatifs de la population.
L’IA n’est qu’un outil certes, mais les outils sont aussi des armes. Utilisée à mauvais escient, l’IA peut servir, entre autres, à la fraude et la désinformation. L’exemple des deepfakes est assez frappant.
Les deepfakes c’est quoi ?
Apparu en 2017 sur un forum en ligne, les deepfakes (ou hypertrucages en français) se définissent, selon le règlement précédemment cité comme « une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou évènements existants et pouvant être perçus à tort comme authentiques ou véridiques ». La technique de l’hypertrucage est comme du bon vin, elle s’affine avec le temps. Si les premiers deepfakes étaient simples à reconnaître grâce à leurs nombreux défauts, leur véracité se peaufine avec le temps.
Février 2024, la branche de la multinationale britannique Arup basée à Hong Kong perd 25 millions de dollars à cause d’une fraude aux deepfakes. Un comptable, pensant participer à une visioconférence avec ses patrons, a transféré des fonds sur des comptes frauduleux. Les personnes avec qui il parlait n’étaient que des deepfakes manipulés par des escrocs. Ces fraudes peuvent également venir se loger au cœur des familles, en utilisant des deepfakes audio pour imiter la voix d’un proche demandant de l’argent.
Les deepfakes peuvent aussi être utilisés pour générer des vidéos pornographiques avec votre image, un phénomène moins fréquent chez les séniors mais courant chez les jeunes. Ces vidéos peuvent ensuite être utilisées pour extorquer de l’argent.
Vous l’aurez compris, les deepfakes peuvent servir divers objectifs. En 2023 par exemple, deux jours avant les élections législatives slovaques, une conversation téléphonique fictive générée par l’IA a été diffusée sur les réseaux sociaux. Cette discussion révèle que le candidat du parti progressiste essaie de truquer les élections. Sans avoir le temps de démentir publiquement cette accusation, les élections ont lieu et le parti pro- russe l’emporte devant les progressistes. Ce deepfake est-il responsable de la défaite ? A priori non. Mais s’il a influencé ne serait-ce qu’un électeur, l’essence même de la démocratie est bouleversée.
Une démocratie saine repose sur la liberté d’expression et son pendant : la liberté d’opinion. Cette liberté s’exerce à travers une information libre et éclairée, exempte de toutes manipula- tions. Si la désinformation, c’est-à-dire les fausses informations délibérément créées pour nuire à une personne ou un groupe social, n’est pas nouvelle, elle revêt de nouveaux habits. Grâce aux algorithmes, la désinformation est plus convaincante et surtout plus accessible. En 2024, alors que plus de la moitié de l’humanité était appelée aux urnes, il s’est avéré que les démocraties, grâce à un consensus technologique global, ont résisté aux deepfakes. Ce sont les algorithmes qui ont frappé.
Les IA sont avant tout des algorithmes, essentiels aux réseaux sociaux, et peuvent être manipulés par des ingérences extérieures. Le regard rivé sur l’avenir et sur le développement de l’IA, il s’est détourné du présent. Les risques se trouvent dans l’utilisation quotidienne du numérique : les réseaux sociaux et leurs algorithmes. Début décembre 2024, la Cour constitutionnelle roumaine annulait l’intégralité du processus de l’élection du président roumain après la victoire au premier tour du candidat prorusse et d’extrême droite Calin Georgescu. Pour cause ? La déclassification de documents des services secrets roumains. Ils expliquaient comment ce candidat, virtuellement inconnu il y a un mois, avait fait un tel résultat. La Russie aurait financé des influenceurs, des militants et des faux comptes pour faire la promotion de contenus politiques et diffuser massivement des vidéos de campagne. Cette manipulation des algorithmes, entraînant une survisibilité du candidat, n’est pas anodine. Elle est en grande partie responsable de sa victoire au premier tour. Loin d’être la seule, elle rend l’avenir incertain et questionne la place des réseaux sociaux et plus largement des algorithmes et des IA, dans le processus démocratique.
Je le répète : je n’ai pas peur de l’IA. J’ai peur de ceux qui la manipulent. Bien qu’imparfaite, l’IA a pour vocation d’être technologiquement neutre. Alertée par des institutions comme Le Défenseur des Droits ou la Cnil, la communauté scientifique travaille à rendre les IA impartiales. En revanche, l’utilisation de l’IA pour des manipulations et des escroqueries est véritablement inquiétante. Il faut donc repenser notre rapport à la technologie : être moins dépendants et bien plus critiques.