Chat-GPT sous pression en Italie

L’outil conversationnel d’intelligence artificielle est temporairement bloqué par les autorités italiennes sur fond de préoccupations concernant la gestion des données personnelles des utilisateurs.

Chat-GPT dans le collimateur de l’Italie. Le modèle de dialogue fonctionnant grâce à l’intelligence artificielle (IA) n’est plus accessible dans le pays depuis le 31 mars dernier. Une situation due à l’initiative des autorités.

Ces dernières ont en effet bloqué l’accès de cet outil sur le territoire en raison des inquiétudes à propos de la gestion des données personnelles des utilisateurs par la société créatrice, OpenIA.

À l’origine de cette décision, le non-respect présumé par cette firme californienne de la confidentialité des utilisateurs, selon l’autorité de protection des données du pays. Cette dernière cite notamment une fuite de données liées aux paiements des abonnés, constatée le 20 mars.

Risque de sanction

Le régulateur allègue également d’une faillite de la part d’OpenIA dans le cadre de la protection des mineurs contre les risques pouvant découler de l’utilisation de son logiciel. « Nous travaillons activement à réduire les données personnelles dans la formation de nos systèmes comme ChatGPT parce que nous voulons que notre IA en apprenne sur le monde, pas sur les particuliers », a déclaré la société dans un communiqué.

Elle dispose d’une vingtaine de jours pour plaider sa cause devant les autorités italiennes. Lesquelles pourraient la condamner à une amende pouvant atteindre 20 millions d’euros en cas d’infractions avérées.

« Il semble qu’il n’y ait aucune base juridique sous-tendant la collecte et le traitement massif de données à caractère personnel afin de « former » les algorithmes sur lesquels la plateforme s’appuie », a indiqué le régulateur italien, dans le cadre de ce qui apparaît comme un premier défi majeur pour Chat-GPT et son concepteur.

Préoccupation globale

C’est en effet la première fois que l’outil conversationnel est épinglé pour des accusations de violation des données personnelles. Ce qui pourrait, à en croire de nombreux analystes, représenter un fâcheux précédent pour OpenIA et le reste des acteurs impliqués dans le développement des systèmes d’IA.

Car malgré leurs capacités spectaculaires, voire révolutionnaires, selon certains à l’instar de Bill Gates, ces outils présentent de nombreux défis. Cela concerne par exemple un possible usage à des fins de désinformation. Sans compter des incidences que de tels programmes pourraient avoir sur les emplois ou encore la civilisation humaine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *