L’omniprésence de l’intelligence artificielle (IA) n’est plus sujette à choix ou opinion. Elle s’impose dans notre quotidien avec ou sans notre consentement.
Article de Matthias Faeh, fondateur de Surmesure.ai, pour Essentiel News.
Que ce soit activement, au travers de l’utilisation de smartphones et d’ordinateurs, ou passivement, par les capteurs et caméras de vidéosurveillance, nos informations personnelles nourrissent ces systèmes, qu’on le veuille ou non. Alors, comment naviguer dans un monde où la collecte massive de données est omniprésente? Quelles solutions pour préserver nos libertés tout en bénéficiant des avancées technologiques?
L’IA s’est infiltrée dans tous les aspects de nos vies, rendant nos interactions plus simples et nos choix plus personnalisés. Certes, cela constitue souvent un avantage, mais il est essentiel de bien comprendre les implications qui en découlent. En effet, il faut savoir que des assistants vocaux aux systèmes de reconnaissance faciale, elle fonctionne grâce à l’analyse de données massives. Et cette omniprésence soulève de sérieuses préoccupations sur la confidentialité et le contrôle des données personnelles. Les smartphones jouent un rôle central dans cette collecte. Android, par exemple, exploite largement les données à des fins commerciales, tandis qu’iOS promet une meilleure confidentialité tout en restant opaque. Récemment, le gouvernement anglais a exigé d’Apple un accès direct aux données des utilisateurs stockées dans le cloud, révélant les tensions entre éthique et contrainte réglementaire.
Pourquoi l’IA est-elle si friande en données personnelles?
L’Intelligence Artificielle repose sur un principe fondamental: produire des réponses pertinentes dépend directement des données qu’elle peut engloutir. Les modèles de langage (LLM) s’appuient sur des données accessibles publiquement pour leur entraînement initial. Pour affiner leurs analyses et offrir des recommandations personnalisées, les systèmes se surpassent pour capter toutes nos petites habitudes et nos informations “maison” et ainsi se perfectionnent à notre insu. Chaque interaction avec un assistant vocal ou un moteur de recherche génère des données. Combinées à vos historiques de navigation, préférences d’achat et données captées par votre smartphone (nombre de pas, localisation, horaires de sommeil, etc), ces informations créent un profil comportemental détaillé. Ce profil devient une ressource clé pour offrir des expériences personnalisées – mais aussi pour alimenter des modèles économiques basés sur l’exploitation commerciale.
Oui à des outils efficaces, non à de nouveaux maîtres
L’IA fournit une valeur souvent très utile, en nous allégeant de tâches répétitives et en stimulant notre créativité. Pourtant, il est essentiel d’établir un cadre clair et des limites adaptées pour profiter pleinement de ses avantages sans compromettre notre liberté. En prenant conscience de ce risque, nous pouvons agir au quotidien pour nous en protéger. En réduisant volontairement l’accès à nos informations, en soutenant des alternatives autonomes et en privilégiant des solutions open-source et décentralisées, il devient possible de remettre la technologie au service des utilisateurs et non l’inverse; de nous servir de ses atouts pour consolider nos droits et non pas pour nous tenir plus encore en esclavage.
Conseils pratiques pour déjouer les pièges
Ce n’est pas une tâche facile et cela demande des efforts, mais on peut considérablement diminuer les risques en suivant les dix étapes suivantes:
- Privilégiez des navigateurs comme Brave (ou des extensions comme uBlock Origin et Privacy Badger) qui bloquent automatiquement les pubs et les traqueurs invisibles. Ces outils empêchent les sites web et les services d’IA de suivre vos activités en ligne. Le mode “navigation privée renforcée” (intégré dans Brave) permet de visiter des sites sensibles en laissant moins de traces.
- Créez une adresse email dédiée (avec des services comme ProtonMail) uniquement pour vos interactions avec l’IA. Évitez d’utiliser votre compte Google principal: cela limite le regroupement de vos données personnelles dans un seul espace.
- Préférez les versions sites web des outils d’IA (via votre navigateur) aux applications fermées à installer. Les apps mobiles commerciales collectent souvent des informations cachées (localisation, contacts) sans votre accord explicite.
- Utilisez des plateformes différentes selon vos besoins: une pour le travail, une autre pour les loisirs. Cette séparation rend plus difficile la création d’un profil complet de vos habitudes par les algorithmes.
- Ne partagez jamais d’informations personnelles (coordonnées bancaires, documents officiels) avec un agent conversationnel. Considérez ces outils comme des collègues de bureau à qui vous ne confieriez pas vos secrets.
- Le moteur de recherche DuckDuckGo ne conserve pas l’historique de vos requêtes et contrairement à Google, il ne personnalise pas les résultats pour éviter de vous enfermer dans une “bulle” algorithmique. De plus, il permet d’interroger directement les services IA de manière anonyme.
- Un VPN (logiciel qui camoufle votre emplacement tel que Protonvpn) empêche les sites d’IA de savoir d’où vous vous connectez. C’est utile pour accéder à des services tout en protégeant votre anonymat.
- Désactivez les assistants vocaux (Siri, Google Assistant) quand vous ne les utilisez pas. Pour plus de sécurité, couvrez physiquement les webcams avec un autocollant.
- Effacez périodiquement votre historique dans les outils d’IA (comme ChatGPT). Certaines extensions permettent de programmer cette suppression automatiquement, comme un ménage numérique programmé.
- Utilisez un coffre-fort numérique (1Password, KeePass) pour générer et stocker des identifiants uniques. Cela évite les piratages en cascade si un service d’IA subit une fuite de données.
Vers des IA ouvertes et privées
De plus, les solutions d’IA ouvertes commencent à émerger. Ces outils permettent de bénéficier de la puissance de l’IA sans compromettre notre sphère privée. Bien qu’encore techniques à mettre en place, ces alternatives deviendront de plus en plus accessibles grâce aux communautés open-source. Cette évolution ouvre la voie à une nouvelle ère où chacun peut exploiter la technologie tout en gardant un contrôle total sur ses données.
L’IA fait désormais partie intégrante de nos vies, mais nous avons le pouvoir de choisir comment l’utiliser. La clé réside dans une information claire, des pratiques responsables et la volonté des utilisateurs à maîtriser ces assistants, avant qu’ils ne deviennent des prédateurs numériques.
Choisir des pratiques respectueuses de la vie privée est un acte citoyen qui préserve nos libertés dans un monde où la technologie est omniprésente. Comme le dit le vieux dicton, “un homme averti en vaut deux“. L’anticipation des risques permet toujours de ne pas être pris au dépourvu face aux crises. Une leçon de sagesse qui n’a pas échappé à Machiavel non plus: “Celui qui est préparé au pire ne sera pas surpris par l’adversité.”
Quelques remarques qui s’imposent :
Cela fait un bail que j’ai remarqué que l’impératif d’échapper à “l’esclavage” était le moteur de notre société…
C’est problématique.
Pour travailler, pour faire une tache, on est amené à ORGANISER le travail, et plus le travail est complexe, plus il devient intéressant de pratiquer la division du travail, qu’on soit seul à diviser son propre travail, ou qu’on soit nombreux, avec de nombreuses personnes exécutant des taches qui se répètent, POUR QUE TOUT AILLE PLUS VITE et SOIT PLUS FACILE.
Ce sont des constats qu’un enfant de 10 ans peut faire, déjà.
Quoiqu’on fasse, on sera confronté à la répétition (des taches) dans nos vies, car notre vie est faite de répétitions. Le soleil se lève… tous les matins ; il se couche tous les soirs, et la répétition aide à installer des habitudes, des routines qui nous donnent un cadre. La répétition n’est pas qu’aliénante, dans le travail et dans la vie quotidienne.
Mais l’idéologie qui NOUS DOMINE en ce moment tend à faire équivaloir “répétition” et “esclavage”, en déclenchant un mouvement pour nous “libérer” de la répétition, et… tout cela finit par nous faire perdre des repères, et ensuite… perdre pied.
Si nous perdons pied… je ne vois pas en quoi nous pouvons devenir plus “créatifs”, PATIN COUFFIN. Etre créatif n’est pas synonyme de perdre pied.
Le recours à l’intelligence artificielle, à l’heure actuelle, avec l’idée qu’il s’agit outils pour nous rendre plus créatifs, éliminer les “taches répétitifs” me semble inadmissible. Au contraire, ce recours tend plutôt à délocaliser notre intelligence DANS NOS CORPS, en nous, pour le loger dans nos machines externalisées, que NOUS FABRIQUONS, et n’engendrons pas…
Et si je remercie l’auteur de cet article de ses suggestions, j’évite un maximum le non-contact avec cette technologie.
Dernier mot : je reviens constamment sur ce qui me semble être un préjugé idéologique majeure : “prédation”, pour parler des retombées de la technologie quand elle est pratiquée par des personnes sans scrupule ? sans éthique ? ignorantes, dans un désir de profit pur ?
Ce mot me renvoie au philosophe Hobbes, que je n’ai pas lu, mais je sais que c’est lui qui a décrété “L’homme est un loup pour l’homme”. Il s’agit d’un parti pris idéologique avec des conséquences lourdes, car dans mon… livre, l’homme n’est pas toujours un loup pour l’homme, et il se pourrait bien que, pris individuellement, il ne soit pas tant que ça un loup pour ses semblables. Mais l’Homme dans sa globalité, et ses capacités nous a écrasé individuellement à un degré impressionnant. Le fait que l’homme ne soit pas toujours un loup pour l’homme peut interroger notre parti pris idéologique de vouloir nous ASSURER DE NOTRE SURVIE comme étant une conduite qui n’est pas si bénéfique que ça pour… assurer notre survie…