ChatGPT Francais

Assistant de conversation intelligent gratuit avec ChatGPT

ChatGPT génère des données pour des études scientifiques… sur demande des chercheurs.

ChatGPT Français

Une menace pour l’intégrité de la science.

ChatGPT, une IA générative, a dépassé son objectif initial de générer du contenu textuel pour des articles scientifiques. Elle dispose désormais de la capacité de fabriquer également des données et des résultats. Alors que des modèles de langage comme ChatGPT étaient initialement perçus comme des outils précieux pour rédiger des articles scientifiques, certains chercheurs exploitent ces intelligences artificielles pour produire des articles complets. Cela soulève des inquiétudes quant à la crédibilité de la recherche scientifique.

Dans un développement récent, la dernière version de ChatGPT a introduit une fonctionnalité révolutionnaire, lui permettant de gérer des feuilles de calcul et des données. Cependant, cette amélioration suscite des inquiétudes parmi les chercheurs italiens, comme le souligne un article publié le 9 novembre 2023 dans la prestigieuse revue JAMA Ophthalmology. Ces chercheurs mettent en lumière la nouvelle capacité de ChatGPT à générer des données, ce qui pourrait potentiellement entraîner une augmentation de la recherche frauduleuse. Cela pose une menace significative pour la crédibilité scientifique.

ChatGPT : Libérer une créativité sans précédent

L’intelligence artificielle d’OpenAI a soulevé de nombreuses préoccupations, en particulier en ce qui concerne l’intégrité académique. Ses capacités créatives permettent aux individus de sous-traiter la création d’une large gamme de contenus, allant des essais scolaires et des arguments juridiques aux œuvres littéraires qui peuvent empiéter sur des pièces existantes ou aux articles scientifiques qui propagent de fausses informations. Sans surprise, cette utilisation frauduleuse de ChatGPT est de plus en plus répandue dans le domaine de la composition d’articles scientifiques, comme l’a souligné le chercheur Guillaume Cabanac.

La version GPT-4, une mise à jour de cette IA, a le potentiel d’autonomiser les individus impliqués dans la fraude scientifique. Cette dernière itération intègre un module d’Analyse Avancée des Données (ADA), utilisant le langage de programmation Python. Avec ce module, ChatGPT peut facilement télécharger des données pour des analyses statistiques, simplifiant les processus de recherche. Cependant, les chercheurs Andrea Taloni, Vincenzo Scorcia et Giuseppe Giannaccare de l’université Magna Graecia de Catanzaro et de l’université de Cagliari ont démontré que cet outil peut être facilement manipulé pour générer de fausses données.

Une expérience surprenante et perturbante.

Pour mettre en évidence cette menace émergente, ils ont confié à ChatGPT la tâche de fabriquer des données pour soutenir une fausse hypothèse scientifique. En tant qu’ophtalmologistes, ils ont demandé à l’IA de générer des données qui démontreraient la supériorité d’une technique chirurgicale par rapport à une autre dans le traitement du kératocône, une maladie dégénérative de l’œil caractérisée par une forme conique de la cornée. Ils ont fourni des détails spécifiques pour un échantillon de 250 patients (300 yeux au total), notamment la proportion de femmes, la plage d’acuité visuelle avant l’intervention, les résultats anticipés pour chaque groupe et les complications potentielles pendant et après la chirurgie, ainsi que le pourcentage correspondant de patients présentant ces complications.

En quelques minutes seulement, ChatGPT a généré sans effort une liste complète de 250 personnes, avec des informations détaillées. Après avoir effectué l’analyse statistique demandée des données générées par l’IA, il est devenu évident qu’une technique chirurgicale particulière produisait des résultats supérieurs. Cependant, cette conclusion était totalement fausse. Cette expérience révélatrice est un rappel frappant de la facilité avec laquelle des chercheurs peu scrupuleux peuvent fabriquer des résultats scientifiques, le tout en quelques minutes seulement. Giuseppe Giannaccare a admis franchement : « La précision des données a dépassé nos attentes, ce qui en fait une expérience vraiment surprenante et alarmante. » Avec la boîte de Pandore désormais ouverte, la communauté scientifique se trouve confrontée à la tâche intimidante de faire face aux utilisations et aux menaces potentielles posées par l’IA.

Identifier les données fabriquées : un défi imminent.

Dans le but de détecter des données générées par l’IA, les biostatisticiens de l’Université de Manchester, Jack Wilkinson et Zewen Lu, ont minutieusement examiné les données à la recherche de signes d’origine frauduleuse. Leur examen attentif a révélé plusieurs incohérences, notamment des divergences entre les noms et les sexes des patients, ainsi qu’une absence notable de corrélation entre l’acuité visuelle des patients avant et après la chirurgie.

Cependant, les chercheurs italiens ont répondu sur MedPage en soulignant que leurs instructions à ChatGPT étaient simplistes. Ils ont reconnu que des instructions plus nuancées généreraient probablement des données fabriquées à la fois réalistes et difficiles à détecter. Ils prévoient un futur champ de bataille entre les tentatives frauduleuses utilisant l’IA et l’avancement des systèmes de détection. Idéalement, des systèmes de détection robustes triompheront, nous protégeant ainsi d’une vague de fausses données scientifiques.

ChatGPT génère des données pour des études scientifiques… sur demande des chercheurs.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut