OpenAI met fin à son détecteur de contenus d’IA

L’outil dénommé Classifer se révèle finalement incapable de différencier précisément un texte généré par la machine d’une œuvre humaine.

Il n’aura vécu que six petits mois. OpenAI, entreprise connue comme étant à la base du système d’intelligence artificielle (IA), a indiqué le 20 juillet dernier avoir abandonné « Classifer », son détecteur de contenus provenant de l’IA.

« Classifer n’est plus disponible en raison de son faible taux de précision », indique la firme californienne dans un article de blog publié sur son site internet, sans trop s’épancher sur les raisons de cette décision.

Une telle discrétion témoigne du malaise de l’entreprise. OpenAI avait en effet lancé Classifer en janvier 2023 avec la promesse que l’outil veillerait à distinguer le contenu rédigé par l’homme de celui généré par les systèmes d’IA. Le détecteur était par ailleurs censé s’améliorer avec le temps.

Incapable et trompeur

Mais il n’en est rien finalement. Non seulement l’outil est incapable de détecter avec précision, mais il brille également par le caractère trompeur de ses détections. Certains des contenus soumis à la machine sont notamment faussement identifiés par la machine.

De quoi induire en erreur. Il résulte de cet aveu que OpenAI est en quelque sorte dans l’impuissance d’appréhender sa bête. Depuis son lancement en novembre 2022, le robot conversationnel ChatGPT connaît une popularité sans précédent pour un outil de la tech.

Cela s’explique par ses performances exceptionnelles concernant la génération de contenus. Il peut en effet écrire des codes, faire de l’humour et même passer des examens. Au grand bonheur des centaines de millions d’utilisateurs à travers le monde.

Inquiétudes persistantes

Cette capacité fort bien utile à l’homme s’accompagne hélas de multiples préoccupations. Le public et les décideurs alertent sur les effets pervers d’une machine qui semble avoir réponse à tout.

Comment distinguer un texte écrit par l’humain de celui de l’IA ? Quid des risques, dont celui de la désinformation, pouvant découler de l’usage d’un système tel que ChatGPT ? Ce sont autant de questions encore sans réponses aujourd’hui. Quand bien même OpenAI en reconnaît la pertinence.

Dans ce contexte, la nouvelle de l’abandon de Classifer n’est pas rassurante. Elle tend au contraire à accréditer la thèse de ceux et celles qui voient à travers des systèmes d’intelligence artificielle, une menace pour l’humanité.

« Nous travaillons pour intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces », affirme OpenAI concernant l’outil de détection.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *