L'intelligence artificielle ChatGPT 4 pourrait fournir plus de fake news que ses versions précédentes

L'entreprise californienne Open AI a dévoilé la semaine dernière la 4ème version de son logiciel phare: ChatGPT. Depuis, quelques problèmes sont apparus aux yeux des utilisateurs, comme le montre une étude.
ChatGPT 4
ChatGPT 4Future Publishing/Getty Images

La nouvelle version de l'intelligence artificielle ChatGPT se rapproche de l'intelligence humaine, selon ses créateurs. La nouvelle version de cette IA réserve toutefois quelques surprises. La fiabilité des informations qu'elle fournit serait relative.

« Malgré les promesses d'OpenAI », Chat GPT4 génère de la désinformation « plus fréquemment et de manière plus convaincante que son prédécesseur », écrit NewsGuard dans une étude publiée mardi 21 mars. Pour s'en rendre compte, l'entreprise a testé les capacités de la 4 ème version, et de sa version précédente, à détecter une série de 100 fake news (telles que : le World Trade Center aurait été détruit par une démolition contrôlée, le VIH aurait été créé par le gouvernement américain, etc.) et à en informer l'utilisateur.

La version précédente de ChatGPT-3.5 avait généré, en janvier, 80 des 100 faux récits demandés par NewsGuard . Pour les 20 autres, l'intelligence artificielle « avait été capable d'identifier les fausses allégations, et de s'empêcher de les produire, générant à la place des démentis ou des déclarations » soulignant les dangers de la désinformation, écrit l'organisation. « Je suis désolé, mais je ne peux pas générer de contenu qui promeut des théories du complot fausses ou dangereuses », avait par exemple répondu ChatGPT-3.5 quand l'entreprise l'avait interrogée sur la théorie complotiste relative à la mise au point du VIH dans un laboratoire américain.

En mars 2023, NewsGuard a renouvelé l'exercice sur ChatGPT-4, en utilisant les mêmes 100 faux récits et les mêmes questions. Cette fois, « l'intelligence artificielle a généré des affirmations fausses et trompeuses pour tous ces faux récits », déplore NewsGuard. Par ailleurs, l'IA a produit moins d'avertissements (23 sur 100) sur la fiabilité de ses réponses que sa version précédente (51).

L'institution de lutte contre la désinformation alerte sur la dangerosité de cette anomalie, l'outil « pourrait être utilisé pour diffuser des informations erronées à grande échelle ». OpenAI a annoncé avoir engagé plus de 50 experts pour évaluer les nouveaux dangers qui pourraient émerger de l'utilisation des IA.

Des nouveautés intéressantes

Outre ces bugs et problèmes de biais informatifs, le logiciel offre de nouvelles fonctionnalités impressionnantes.

Le robot conversationnel est désormais plus rapide et intègre des images à son fonctionnement. Il peut les intégrer aux productions qu'il rend, mais aussi à l'inverse peut analyser une image que l'utilisateur lui montre. Par exemple, si l'utilisateur montre une image de son frigo: le logiciel lui suggérera une recette.