San Francisco, Etats-Unis | AFP | mercredi 31/01/2023 - La start-up qui a créé ChatGPT, le logiciel à succès capable de générer aussi bien des articles que des poèmes ou des rédactions, peine à mettre au point un programme capable de détecter si un texte a été rédigé par une intelligence artificielle (IA).
OpenAI a lancé mardi un nouvel outil en accès libre, pour aider les humains à faire la distinction entre les textes produits avec un logiciel à base d'IA (comme ChatGPT, mais pas seulement) et ceux écrits par des personnes.
Il doit permettre de repérer, par exemple, si des dissertations ont été rédigées par un programme informatique et non par un étudiant ou encore si on s'adresse à un humain ou à un "chatbot" (robot conversationnel) dans une messagerie en ligne.
Mais il est pour l'instant "impossible de détecter de façon fiable tous les textes écrits avec de l'IA", prévient d'emblée OpenAI dans son communiqué.
D'après sa propre évaluation, le nouveau logiciel identifie correctement 26% de tous les textes rédigés par des algorithmes comme "probablement écrits avec de l'IA".
Et dans 9% des cas, il classe des textes écrits pas des humains comme rédigés avec de l'IA.
Il est "beaucoup plus fiable" que la précédente version, souligne OpenAI, mais il reste "très peu fiable" sur les textes courts (moins de 1.000 caractères) et il vaut mieux s'en servir en anglais.
Au-delà de l'ironie de cette situation, les enjeux sont importants.
Beaucoup d'experts craignent que des technologies d'IA générative, comme celle de ChatGPT, servent notamment à automatiser la création à grande échelle d'arnaques ou de campagnes de désinformation ultra crédibles.
Des outils similaires ont déjà été créés avec des degrés variables de fiabilité, comme GPTZero, développé par Edward Tian, un étudiant de l'université américaine Princeton.
OpenAI, une start-up cofondée en 2015 à San Francisco par Elon Musk - le patron de Tesla a quitté l'entreprise en 2018 - a lancé ChatGPT en novembre dernier.
La plateforme, facile à utiliser, se présente comme un chatbot et produit des textes bluffants sur simple requête. Elle connaît depuis un succès foudroyant, relayé par une hyper médiatisation.
L'entreprise n'était jusque-là connue que dans des milieux restreints, pour deux logiciels de création automatisée, DALL-E pour la génération d'images et GPT-3 pour la génération de textes (ChatGPT repose sur GPT-3).
Elle a reçu 1 milliard de dollars de Microsoft en 2019 et vient de passer un nouvel accord avec le géant informatique de plusieurs milliards.
OpenAI a lancé mardi un nouvel outil en accès libre, pour aider les humains à faire la distinction entre les textes produits avec un logiciel à base d'IA (comme ChatGPT, mais pas seulement) et ceux écrits par des personnes.
Il doit permettre de repérer, par exemple, si des dissertations ont été rédigées par un programme informatique et non par un étudiant ou encore si on s'adresse à un humain ou à un "chatbot" (robot conversationnel) dans une messagerie en ligne.
Mais il est pour l'instant "impossible de détecter de façon fiable tous les textes écrits avec de l'IA", prévient d'emblée OpenAI dans son communiqué.
D'après sa propre évaluation, le nouveau logiciel identifie correctement 26% de tous les textes rédigés par des algorithmes comme "probablement écrits avec de l'IA".
Et dans 9% des cas, il classe des textes écrits pas des humains comme rédigés avec de l'IA.
Il est "beaucoup plus fiable" que la précédente version, souligne OpenAI, mais il reste "très peu fiable" sur les textes courts (moins de 1.000 caractères) et il vaut mieux s'en servir en anglais.
Au-delà de l'ironie de cette situation, les enjeux sont importants.
Beaucoup d'experts craignent que des technologies d'IA générative, comme celle de ChatGPT, servent notamment à automatiser la création à grande échelle d'arnaques ou de campagnes de désinformation ultra crédibles.
Des outils similaires ont déjà été créés avec des degrés variables de fiabilité, comme GPTZero, développé par Edward Tian, un étudiant de l'université américaine Princeton.
OpenAI, une start-up cofondée en 2015 à San Francisco par Elon Musk - le patron de Tesla a quitté l'entreprise en 2018 - a lancé ChatGPT en novembre dernier.
La plateforme, facile à utiliser, se présente comme un chatbot et produit des textes bluffants sur simple requête. Elle connaît depuis un succès foudroyant, relayé par une hyper médiatisation.
L'entreprise n'était jusque-là connue que dans des milieux restreints, pour deux logiciels de création automatisée, DALL-E pour la génération d'images et GPT-3 pour la génération de textes (ChatGPT repose sur GPT-3).
Elle a reçu 1 milliard de dollars de Microsoft en 2019 et vient de passer un nouvel accord avec le géant informatique de plusieurs milliards.