Skip to content
Les réponses générées par l’IA sont temporairement interdites sur le site de questions-réponses sur le codage Stack Overflow


Stack Overflow, le site de questions-réponses incontournable pour les codeurs et les programmeurs, a temporairement interdit aux utilisateurs de partager les réponses générées par le chatbot AI ChatGPT.

Les mods du site ont déclaré que l’interdiction était temporaire et qu’une décision finale serait rendue dans le futur après consultation de sa communauté. Mais, comme l’ont expliqué les mods, ChatGPT permet simplement aux utilisateurs de générer des réponses trop facilement et d’inonder le site de réponses qui semblent correctes à première vue, mais qui sont souvent erronées après un examen approfondi.

« Le problème principal est […] les réponses produites par ChatGPT ont un taux élevé d’erreurs.

« Le principal problème est que même si les réponses produites par ChatGPT ont un taux élevé d’erreurs, elles sont généralement ressembler elles ou ils force sois bon et les réponses sont très facile à produire », ont écrit les mods (c’est eux qui soulignent). « A ce titre, nous avons besoin du volume de ces postes pour réduire […] Donc, pour l’instant, l’utilisation de ChatGPT pour créer des messages ici sur Stack Overflow n’est pas autorisée. Si un utilisateur est soupçonné d’avoir utilisé ChatGPT après la publication de cette politique temporaire, des sanctions seront imposées pour empêcher les utilisateurs de continuer à publier ce contenu, même si les publications seraient autrement acceptables.

ChatGPT est un chatbot expérimental créé par OpenAI et basé sur son générateur de texte à saisie semi-automatique GPT-3.5. Une démo Web pour le bot a été publiée la semaine dernière et a depuis été accueillie avec enthousiasme par les utilisateurs du Web. L’interface du bot encourage les gens à poser des questions et offre en retour des résultats impressionnants et fluides sur une gamme de requêtes ; de la génération de poèmes, de chansons et de scripts télévisés à la réponse à des questions triviales et à l’écriture et au débogage de lignes de code.

Mais alors que de nombreux utilisateurs ont été impressionnés par les capacités de ChatGPT, d’autres ont noté sa tendance persistante à générer des réponses plausibles mais fausses. Demandez au bot d’écrire une biographie d’une personnalité publique, par exemple, et il peut très bien insérer données biographiques incorrectes en toute confiance. Demandez-lui d’expliquer comment programmer un logiciel pour une fonction spécifique et il peut produire de la même manière crédible mais finalement incorrect code.

Les modèles de texte AI comme ChatGPT apprennent en recherchant des régularités statistiques dans le texte

Il s’agit de l’un des nombreux défauts bien connus des modèles de génération de texte d’IA, autrement connus sous le nom de grands modèles de langage ou LLM. Ces systèmes sont formés en analysant des modèles dans d’énormes rames de texte extraites du Web. Ils recherchent des régularités statistiques dans ces données et les utilisent pour prédire quels mots devraient suivre dans une phrase donnée. Cela signifie, cependant, qu’ils manquent de règles codées en dur sur le fonctionnement de certains systèmes dans le monde, ce qui conduit à leur propension à générer des « conneries fluides ».

Compte tenu de l’énorme échelle de ces systèmes, il est impossible de dire avec certitude quel pourcentage de leur production est fausse. Mais dans le cas de Stack Overflow, la société a jugé pour l’instant que le risque d’induire les utilisateurs en erreur est tout simplement trop élevé.

La décision de Stack Overflow est particulièrement remarquable car les experts de la communauté de l’IA débattent actuellement de la menace potentielle posée par ces grands modèles de langage. Yann LeCun, scientifique en chef de l’IA chez Meta, parent de Facebook, a argumentépar exemple, que si les LLM peuvent certainement générer de mauvais résultats comme la désinformation, ils ne font pas le réel partage de ce texte plus facile, c’est ce qui cause du tort. Mais d’autres disent la capacité de ces systèmes à générer du texte à moindre coût à grande échelle augmente nécessairement le risque qu’il soit ensuite partagé.

À ce jour, il y a eu peu de preuves des effets nocifs des LLM dans le monde réel. Mais ces événements récents à Stack Overflow soutiennent l’argument selon lequel l’échelle de ces systèmes crée effectivement de nouveaux défis. Les modérateurs du site en disent autant en annonçant l’interdiction de ChatGPT, notant que le « volume de ces [AI-generated] réponses (des milliers) et le fait que les réponses nécessitent souvent une lecture détaillée par quelqu’un ayant au moins une certaine expertise en la matière afin de déterminer que la réponse est réellement mauvaise a effectivement submergé notre infrastructure de conservation de qualité basée sur le bénévolat.

L’inquiétude est que ce modèle puisse se répéter sur d’autres plates-formes, avec un flot de contenu d’IA noyant les voix des vrais utilisateurs avec des données plausibles mais incorrectes. Cependant, la manière exacte dont cela pourrait se dérouler dans différents domaines du Web dépendrait de la nature exacte de la plate-forme et de ses capacités de modération. Reste à savoir si ces problèmes pourront être atténués à l’avenir à l’aide d’outils tels que des filtres anti-spam améliorés.

« La partie effrayante était à quel point c’était incorrect avec confiance. »

Pendant ce temps, les réponses à l’annonce de la politique de Stack Overflow sur les propres forums de discussion du site et sur des forums connexes comme Hacker News ont été largement favorables, les utilisateurs ajoutant la mise en garde qu’il peut être difficile pour les mods de Stack Overflow d’identifier les réponses générées par l’IA en premier lieu. .

De nombreux utilisateurs ont raconté leurs propres expériences d’utilisation du bot, un individu sur Hacker News déclarant avoir constaté que ses réponses aux questions sur les problèmes de codage étaient plus souvent fausses que correctes. « La partie effrayante était à quel point c’était incorrect avec confiance », a déclaré l’utilisateur. « Le texte avait l’air très bien, mais il y avait de grosses erreurs là-dedans. »

D’autres ont confié la question de la modération de l’IA à ChatGPT lui-même, demandant au bot de générer des arguments pour et contre son interdiction. Dans une réponse, le bot est arrivé à la même conclusion que les propres mods de Stack Overflow : « Dans l’ensemble, autoriser ou non les réponses générées par l’IA sur Stack Overflow est une décision complexe qui devrait être soigneusement examinée par la communauté. »




Entertainment

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.