Contre ChatGPT, l’Italie met un tour de vis

Internet

Une seule petite intelligence artificielle arrive à bousculer l’humanité entière. Bernanos avait raison, « le danger n'est pas dans la multiplication des machines, mais dans le nombre sans cesse croissant d'hommes habitués, dès leur enfance, à ne désirer que ce que les machines peuvent donner » (Le Chemin de la Croix-des-âmes). L’utilisation massive de ce petit logiciel créé par OpenAI, entreprise détenue par Microsoft, secoue le monde du travail. En Italie, la réaction face cette onde de choc numérique fut des plus promptes. Le 1er avril dernier, à la demande de la Garante per la protezione dei dati personali (GPDP), la CNIL italienne, les autorités italiennes ont bloqué l’accès à ChatGPT, invoquant de graves problèmes de sécurité autour de l’utilisation des données utilisateurs. Selon le communiqué de l'Autorité italienne, ChatGPT « a subi, le 20 mars, une perte de données concernant les conversations des utilisateurs et les informations relatives au paiement des abonnés au service payant ». L'Autorité reproche également « l'absence d'une note d'information aux utilisateurs dont les données sont récoltées par OpenAI, mais surtout l'absence d'une base juridique justifiant le recueil et la conservation en masse des données personnelles, dans le but d'"entraîner" les algorithmes faisant fonctionner la plate-forme ».

Un risque accru pour les données utilisateurs

Non, l’Italie ne fait pas une crise de paranoïa. Si la décision peut surprendre, le danger lui, est bien réel. Contacté par Boulevard Voltaire, un consultant spécialiste en cybersécurité nous affirme que le robot conversationnel d’OpenAI présente « un risque pour les données utilisateurs ». « Grâce à sa facilité d’utilisation, les gens ne peuvent pas s’empêcher de l’utiliser. Le problème, c’est que ces gens vont télécharger des documents dans ChatGPT et que les données de ces derniers vont va récupérer leurs données. » Détenue par Microsoft, l’entreprise stocke les données et « on ne sait pas où celles-ci atterrissent ni ce qu’elles deviennent », nous précise le spécialiste.

Si les États-Unis poussent actuellement des cris d’orfraie contre les données collectées par TikTok pour la Chine, certains s’inquiètent de l’opacité autour de la gestion des données utilisateurs de ChatGPT. « OpenAI n’est pas une entreprise européenne. Elle est américaine, sous le contrôle de Microsoft. Impliquant une problématique autour de toutes les données, de la plus insignifiante à la plus sensible, que les gens postent sur ChatGPT. Celles-ci sont reprises par le robot et on ne sait pas ce que Microsoft en fait. On ignore si elles sont bien protégées », explique l’expert.

Quelles solutions face aux fuites de données ?

Récemment, une pétition a été lancée par des centaines d’experts mondiaux en faveur d’une « pause d’au moins six mois » dans la recherche sur les intelligences artificielles. Le fantasque milliardaire Elon Musk, lui-même signataire, estime que le robot présente « des risques majeurs pour l’humanité ». Vrai cri du cœur ou énième coup de com' ? « Il faut prendre en compte que de nombreux signataires de cette pétition sont des concurrents d’OpenAI (ChatGPt) qui ont un intérêt à voir l’arrêt des recherches de Microsoft sur le sujet », juge le consultant en cybersécurité.

Pour limiter les fuites de données, plusieurs solutions sont envisageables. Si l’interdiction pure et simple de ChatGPT semble peu efficace sur le long terme, des barrières peuvent être mises en place. « Il y a plusieurs moyens de mettre en place des barrières contre les dérives de ChatGPT. Le cas italien, où on verrouille tout et on met tout à la poubelle. L’ennui, c’est que tout le monde peut avoir très facilement accès à un VPN pour contourner ces mesures. L’interdiction n’est peut-être pas la meilleure solution », estime l’analyste. « Il faudrait que les entreprises briefent les gens en interne en expliquant qu’utiliser ChatGPT en lui donnant accès à des documents privés de l’entreprise est prohibé », conclut-il. Toutefois, « on est encore loin de l’intelligence artificielle à la Terminator ou à la Skynet », s’amuse le spécialiste.

Julien Tellier
Julien Tellier
Journaliste stagiaire à BV

Vos commentaires

8 commentaires

  1. J’espère que des hackeurs habiles arrivent à faire sauter les verrous wokes du système pour laisser GPT fonctionner mieux

  2. Ne soyons pas simplets ! L’Intelligence Artificielle restera entre les mêmes mains douteuses et sous les mêmes autorités suspectes que l’actuelle informatique à son plus haut niveau.
    Or, si nous considérons certains inconvénients et dangers présentés par l’informatique actuelle, (inconvénients parfois gravissimes) et même en respectant ses avantages, il est clair que nous avons quelques raisons de nous méfier de l’I.A. tant dans le registre technique que dans le domaine sociétal !!!
    Les capacités de nuisance des bouliers entre des mains douteuses seront nécessairement limitées.
    Par contre, les capacités de nuisance de l’I. A. entre les mêmes mains …
    À moins de considérer, évidemment, que l’I. A. à son plus haut niveau ne risque pas de tomber dans des mains douteuses…

  3. On peut toujours se rouler par terre et s’arracher la chemise devant le « danger » pour les Institutions de 2500 traîne-savates d’extrême gauche adeptes du bris de mobilier urbain et de feux de poubelles, mais celui représenté par les GAFAM et cette nouvelle horreur lâchée par Microsoft est autrement plus percutant pour nos sociétés.

  4. Le mieux serait que l’humanité ne se précipite pas sur ce nouveau hochet comme la mouche sur le sucre. Mais ça c’était avant, quand il n’y avait pas ces béquilles de l’intelligence.

    • Vous avez tout compris, et avant que l’humanité apprenne à marcher sans béquilles (ce qui semble improbable mais gardons espoir!) il est obligatoire pour les « non atteint » de verrouiller fortement tous leurs échanges utilisant ces hochets.

  5. Le souci principal de ChatGPT c’est que les plus jeunes boivent ses paroles comme l’Évangile alors que cette dernière est codée avec une bonne dose d’idéologie voir même de propagande.
    On peut s’en convaincre facilement en lui posant quelques questions qui fâchent, notamment celle-ci : « le sort des noirs américains est-il plus enviable que celui des homosexuels d’Afghanistan ? » ou « des blancs d’Afrique du Sud ? ».
    ChatGPT fera preuve d’un wokisme pur jus et refusera d’admettre que les noirs américains, à qui on propose des avantages invraisemblables au nom d’une partie de l’histoire dont on élude les causes, est beaucoup plus enviable que celui de population victimes d’extermination d’état.
    Essayez, c’est presque drôle tellement ChatGPT est codé pour être de mauvaise foi.

Commentaires fermés.

Pour ne rien rater

Les plus lus du jour

L'intervention média

Les plus lus de la semaine

Les plus lus du mois