Le fabricant de ChatGPT a externalisé le travail à des Kenyans mal payés – TIME – RT World News
L’IA derrière le chatbot prometteur devait être formée pour ne pas cracher de contenu sexuel et violent
ChatGPT, un chatbot alimenté par l’IA qui a suscité une large attention pour sa génération de texte, est partiellement construit en utilisant le travail de travailleurs mal payés au Kenya, a rapporté le magazine TIME. Ils ont été embauchés pour lire des passages de texte explicite et les étiqueter, afin que l’algorithme puisse éviter ce type de langage.
Selon un exposé publié mercredi, le développeur OpenAI a engagé une société basée à San Francisco appelée Sama, spécialisée dans l’annotation de données pour la formation à l’IA. Le travail est effectué par des humains dans des pays comme le Kenya et l’Ouganda, où les salaires sont inférieurs à ceux des pays développés.
Trois contrats Sama avec OpenAI ont été signés fin 2021 et valaient environ 200 000 $, a rapporté TIME sur la base des documents de facturation. Environ trois douzaines de travailleurs au Kenya ont été chargés de lire des descriptions graphiques d’actes, notamment d’abus sexuels sur des enfants, de bestialité, de meurtre, de suicide, de torture, d’automutilation et d’inceste.
Leur sortie, étiquetée en fonction de la nature du contenu, a été utilisée par OpenAI pour entraîner leur IA à contrôler son propre langage. ChatGPT génère du texte après avoir appris à partir de milliards de mots écrits par des humains disponibles en ligne, y compris des matériaux inappropriés.
Selon le scoop, les travailleurs au Kenya recevaient un salaire net compris entre 1,32 et 2 dollars de l’heure en fonction de leur poste et de leurs performances. Trois d’entre eux ont déclaré à TIME qu’ils devaient analyser entre 150 et 250 passages de texte, d’une longueur allant de 100 à 1 000 mots, en neuf heures.
L’année dernière, TIME a rapporté que Sama avait fait un travail similaire pour Facebook, aidant à la suppression de contenu violant les règles de la plateforme. Dans les deux cas, le magazine a déclaré que certaines personnes se sont retrouvées avec « cicatrices mentales » après avoir lu les matériaux toxiques.
Début 2022, OpenAI a embauché Sama pour un autre travail, qui consistait à étiqueter des images explicites pour un projet différent. Mais, en quelques semaines, le sous-traitant s’est retiré de l’accord, apparemment parce que certaines des images étaient illégales en vertu de la loi américaine. OpenAI a blâmé une mauvaise communication.
Plus tôt ce mois-ci, Sama a annoncé qu’il ne fonctionnerait plus avec du contenu sensible et se concentrerait plutôt sur l’annotation des données pour les solutions de vision par ordinateur IA. TIME a observé que, malgré tout son glamour, « L’IA s’appuie souvent sur le travail humain caché dans les pays du Sud, qui peut souvent être préjudiciable et exploiter. »
Vous pouvez partager cette histoire sur les réseaux sociaux :
RT