Covidhub est devenu essentiel.news le 8 avril 2024, découvrez pourquoi.

“Combattre les risques de l’intelligence artificielle est une priorité mondiale!”

L'avenir de l'humanité se joue-t-il en ce moment même dans la plus grande discrétion des bureaux feutrés de grandes entreprises technologiques comme Google, Microsoft ou encore OpenAI ? Des pionniers de l'IA sont très inquiets.

Partager

Le développement incontrôlé de l’intelligence artificielle (IA) inquiète depuis plusieurs années des acteurs importants du monde de la tech, craignant que dans de mauvaises mains, ces technologies puissent sonner rien de moins que le glas de l’espèce humaine.

Nombre d’entre eux plaident pour une prise de conscience et un usage éthique de l’IA alors que d’autres travaillent sur les champs de bataille robotisés du futur, les prochains outils de désinformation de masse ou encore les outils d’IA qui remplaceront 300 millions de postes de travail dans un futur proche selon Goldman Sachs.

De grands pontes de l’intelligence artificielle – dont fait partie le spécialiste des neurosciences et des programmes d’intelligence artificielle britannique Geoffrey Hinton, professeur au département d’informatique de l’Université de Toronto et considéré comme l’un des pères de l’IA, ou encore Steve Wozniak, co-fondateur d’Apple – estiment que l’IA va être utilisée par les mauvais acteurs à des fins malveillantes et qu’il est difficile de les en empêcher. Le besoin de fixer des règles est plus qu’urgent, alertent-ils.

Geoffrey Hinton

Regrets de paternité

Dans un entretien accordé à CNN et relayé en français par RFI, Geoffrey Hinton dit même “regretter avoir créé la technologie utilisée par ChatGPT, le super-assistant développé par OpenAI, Bard, son concurrent de Google, ou encore Midjourney, qui une fois maîtrisée permet à tout un chacun de créer une infinité d’images adaptées à ses critères propres en un temps extrêmement réduit.

Âgé aujourd’hui de 75 ans, ce scientifique a été l’un des premiers à mettre en application des algorithmes qui peuvent « apprendre » à voir, à lire, à écrire, à compter ou à dessiner de façon autonome, en imitant le fonctionnement d’un cerveau humain.

Il vient d’ailleurs de démissionner de Google où il était employé à mi-temps, pour mettre en garde la société sur les menaces potentielles que font courir les derniers développements des programmes d’intelligence artificielle à l’humanité.

Et l’éthique dans tout ça ?

Timnit Gebru
Timnit Gebru

L’histoire de Timnit Gebru, ancienne co-responsable chez Google d’un groupe qui étudiait les ramifications sociales et éthiques de l’intelligence artificielle, est aussi révélatrice d’une réalité où perspectives commerciales et considérations éthiques se télescopent, souvent au détriment des secondes.

Sa hiérarchie lui avait intimé l’ordre incroyable de rétracter le dernier article de recherche – ou bien de retirer son nom de la liste des auteurs, ainsi que ceux de plusieurs autres membres de son équipe. Timnit Gebru:

J’ai eu l’impression d’être censurée et j’ai pensé que cela avait des implications pour toute la recherche éthique sur l’intelligence artificielle.

Elle a depuis créé son propre centre de recherche sur l’IA, pour pouvoir poser des questions sur l’utilisation responsable de l’intelligence artificielle.

Une initiative similaire est celle du Centre pour la sécurité des IA qui estime que « la réduction du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires. »

Un moratoire sur l’intelligence artificielle ?

En mars 2023, un moratoire sur les expériences de grande envergure en matière d’intelligence artificielle a été demandé par plus de 1400 acteurs du domaine.

Selon eux, l’IA avancée pourrait représenter “un changement profond dans l’histoire de la vie sur Terre”. Elle devrait être planifiée et gérée avec le soin et les ressources nécessaires. Ces acteurs invitent “tous les laboratoires d’intelligence artificielle à interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’intelligence artificielle plus puissants que le GPT-4”.

Plus de 33’000 personnes ont rejoint l’appel depuis, sans pour autant avoir obtenu l’effet escompté si ce n’est d’avoir lancé le débat : le fait qu’Elon Musk soit l’un des signataires bien en vue a motivé les médias à en parler.

Elon Musk

Le milliardaire américain est une figure autant emblématique que mystérieuse dans l’écosystème de l’IA puisqu’il a quitté le projet OpenAI qu’il avait pourtant cofondé après que celui-ci ait abandonné son statut d’entreprise à but non-lucratif. Il a depuis mis en garde à maintes reprises contre le potentiel de l’IA de “détruire la civilisation”.

En juillet dernier, il a lancé x.AI, dont l’objectif annoncé est à la hauteur de la mégalomanie pragmatique du personnage : “Comprendre la réalité.”

Le milliardaire avait précédemment nommé ce projet “TruthGPT”. Il ambitionne de contrer des IA comme OpenAI, qui pour lui sont programmées pour créer de la désinformation “woke”. x.AI sera entraînée sur les messages publics de sa plateforme X (anciennement Twitter).

Si son projet est sincère, il pourrait s’avérer extrêmement bienvenu dans une guerre de l’information monopolisée par quelques grands acteurs aux pratiques douteuses.

Quels sont les risques principaux que l’IA fait courir à l’humanité ? 

  • Menace pour l ’emploi

Parmi les menaces les plus concrètes et les plus palpables figure le remplacement de millions de places de travail par des outils basés sur l’intelligence artificielle.

Un rapport du géant bancaire américain Goldman Sachs chiffre à  300 millions le nombre d’emplois qui pourraient disparaître dans le monde, sans qu’il existe vraiment d’équivalences en postes de travail pour les salariés touchés.

Il s’agit d’une véritable révolution économique et sociale qu’il faudra savoir anticiper et gérer.

  • Amplification de la désinformation

L’une des principales inquiétudes de Geoffrey Hinton par rapport aux utilisations malveillantes possibles de l’IA sont “les photos, vidéos et textes créés de toutes pièces, dans l’objectif de tromper les internautes”. Ce type de production élaborée est appelé “deep fake” et ne permet plus de distinguer le vrai du faux pour le grand public. De fausses rumeurs peuvent alors se propager viralement et par exemple mettre le feu à des banlieues ou créer une panique bancaire sur la base de matériel complètement fictif.

La rédaction d’articles de propagande par l’IA devient aussi un jeu d’enfant. Ces outils permettent d’inonder le web d’infox sans même avoir recours à de véritables rédacteurs. Ceux qui pourront se payer ces services d’IA automatisés, combinés à l’analyse des tendances et des préférences des internautes grâce au big data, auront la mainmise sur l’opinion publique et pourront influencer les comportements et les pensées des gens, élections et votations comprises.

  • Déshumanisation des conflits

En 2017, l’implication de Google dans le projet Maven du Pentagone avait débouché sur une lettre signée par 4500 employés de la firme technologique, demandant à Google de renoncer à tout projet de défense :

Nous pensons que Google ne devrait pas faire la guerre. C’est pourquoi nous demandons que le projet Maven soit abandonné et que Google élabore et rende publique une politique claire stipulant que ni Google ni ses sous-traitants ne construiront jamais de technologie de guerre.

Google apportait ses compétences en matière d”apprentissage automatique pour interpréter les vidéos de surveillance des drones, identifier des cibles prioritaires et analyser le comportement de l’ennemi.

L’initiative de l’époque avait fait reculer la direction mais des observateurs estiment qu’il serait difficile à l’heure actuelle d’obtenir qu’une mobilisation d’employés atteigne l’ampleur ou l’impact de celle entreprise contre Maven. La culture interne de Google est devenue plus “verrouillée” et certains employés qui s’étaient exposés à l’époque se sont plaints de représailles et ont quitté l’entreprise.

De plus, bien que l’opposition à sa participation à Maven a ralenti Google, elle n’a pas réduit de manière significative ses ambitions en matière de sécurité nationale. Bien qu’officiellement la firme ne participe plus directement au développement d’armement, une marge de manœuvre et d’interprétation subsiste. La participation à des projets secret défense reste toujours possible.

Geoffrey Hinton estime que même si les États-Unis cessent de développer des applications d’intelligence artificielle, d’autres continueront. Il faut se faire à l’idée que la guerre de demain sera en grande partie autonome et alimentée par l’IA : des navires sans équipage, des drones autonomes en essaims, des robots tueurs dotés d’IA sont déjà en développement.

L’humain seul sera dépassé par les capacités et la rapidité de l’IA. L’armée la mieux dotée en outils d’IA, couplés à du matériel bon marché en quantité suffisante, aura un avantage déterminant.

En conclusion

Les considérations éthiques sauront-elles imposer de nouvelles dispositions internationales pour brider l’usage de l’IA dans les conflits ou dans les autres domaines de la société ? Rien n’est moins sûr. Les partisans d’une approche prudente ont déjà une longueur de retard sur la technologie. A moins qu’ils n’utilisent eux aussi l’IA pour arriver à leurs fins ? Allez savoir…

Sources : RFI, CNN, Wired, Futura Sciences