Derrière la promesse d’une IA toute-puissante se cache une armée de travailleurs précaires, souvent invisibles.
Ces annotateurs et formateurs de données, recrutés dans des pays à bas salaires ou parmi des diplômés en difficulté, sont la colonne vertébrale des modèles comme ChatGPT. Leurs conditions oscillent entre contrats précaires, rémunérations aléatoires et pression psychologique.
J’ai travaillé sur ChatGPT. J’ai travaillé sur Gemini. On m’a montré des choses que les humains ne devraient jamais voir.
La crise de l’emploi liée à l’IA est là, mais ce n’est pas ce que l’on vous a dit.
Vous avez entendu que l’IA pourrait faire grimper le chômage à 10 ou 20 % dans les 1 à 5 prochaines années. Oui, c’est possible. Les PDG de la tech parlent d’un avenir où les systèmes d’IA élimineront le besoin de main-d’œuvre humaine.
Ce n’est pas l’IA qui remplace l’humain : c’est un nouveau modèle d’exploitation de l’intelligence à la tâche
Mais ce discours cache une réalité plus sinistre
Alors que l’IA provoque des licenciements, son développement stimule la croissance rapide d’un nouveau type de travailleur.
Je pouvais programmer des alarmes pour des tâches spécifiques. Si l’alarme se déclenchait au milieu de la nuit, je me levais et je travaillais jusqu’à épuisement des tâches. C’est une main-d’œuvre cachée que la Silicon Valley recrute dans des pays à bas salaires où les diplômés constituent une part record des chômeurs.
L’annotation de données et la formation à l’IA font partie des emplois qui connaissent la croissance la plus rapide en Europe. Le genre d’inégalité dont nous parlons ici pourrait être quelque chose de très profond.
La face cachée de la production IA
Indicateurs clés sur l’annotation de données et la précarité
Les diplômés d’aujourd’hui sont confrontés au pire marché de l’emploi depuis des années
Pour joindre les deux bouts, une collègue a obtenu des bons d’alimentation. Elle a emménagé chez sa sœur. Elle a commencé à travailler pour 14 euros de l’heure comme caissière et professeur suppléant.
Puis elle a vu une offre d’emploi.
« Le poste que j’ai vu était celui d’analyste en intelligence philosophique. Je me suis dit : pourquoi je ne pourrais pas faire ça ? »
Après avoir postulé, elle a obtenu un entretien, mais pas avec un humain…
Un entretien avec une machine
Alors que j’écoutais cette histoire, j’ai reçu un message de recrutement de la même entreprise. J’ai passé un entretien pour voir à quoi ressemblait l’expérience de ma collègue.
L’entreprise s’appelle Meror, l’un des nombreux sous-traitants qui connectent des entreprises comme OpenAI et Google à une main-d’œuvre distribuée pour former leurs systèmes d’IA. Le boom de l’IA a créé un appétit insatiable pour ces travailleurs.
✍️ À retenir : Pour sécuriser votre stratégie éditoriale face à l'essor de l'IA, faites appel à des experts en rédaction web. Découvrir mes services de rédaction
C’est le résultat d’une chaîne d’approvisionnement mondiale entière. Tout, de l’extraction minière à la fabrication, en passant par les centres de données et les travailleurs des données.
Pourquoi les entreprises d’IA ont besoin d’expertise humaine
Pendant des années, les entreprises technologiques ont cherché des travailleurs des données dans des pays à bas salaires comme le Kenya et des économies en effondrement comme le Venezuela.
Ça change aujourd’hui parce que les entreprises d’IA poussent à construire des systèmes plus performants. Avec GPT-5, c’est comme parler à un expert de niveau doctorat qui peut vous aider avec tous vos objectifs.
Pour faire le prochain grand bond en avant, ils doivent adapter le cas d’usage pour des industries très spécifiques. Nous sommes passés de modèles qui étaient comme un bon élève de lycée à un niveau doctorat.
En répondant à cette demande, les quatre plus grandes startups de travail sur les données ont chacune réalisé un chiffre d’affaires brut d’environ 1 milliard de dollars par an.
- ScaleAI prétend avoir plus de 700 000 diplômés à sa disposition.
- Mercur affirme compter environ 30 000 professionnels actifs, comme ma collègue.

L’instabilité chronique des contrats
Au bout d’un mois, un deuxième projet est proposé mais la rémunération était tombée à 41 euros de l’heure.
Lorsqu’elle a protesté, ma collègue a été ignorée. Quelques mois plus tard, on lui a proposé 32 euros de l’heure. « J’ai signé, même si l’année dernière j’aurais trouvé cela insultant. »
Elle avait retenu la leçon. Avec ce type de travail, il faut accepter tout ce qui vous est proposé. Si on vous propose une tâche bien rémunérée, c’est une course contre la montre.
« Mon dernier contrat m’a proposé 93 euros de l’heure. Vous ne me verrez pas la semaine prochaine, car je vais maximiser toutes ces heures avant qu’ils ne mettent fin au projet. J’ai effectué ces 40 heures. Le projet s’est terminé le lendemain. »
Les mécanismes de la précarité organisée
Payer jusqu’à 370 euros de l’heure, et malgré ça, c’est une industrie qui repose sur des travailleurs précaires.
L’année dernière, Tim et ses collègues ont mené une étude sur les travailleurs de données. 86 % d’entre eux peinent à assumer leurs responsabilités financières. Un quart dépendaient de programmes d’aide publique comme les aides au logement et les bons alimentaires.
« Je n’ai pas les moyens d’aller chez le médecin. Je rationne mes médicaments contre le TDAH pour quand je pourrai retravailler régulièrement. »
Plus d’un sur cinq avait connu l’itinérance. Les travailleurs déclaraient un revenu médian inférieur à 21 000 euros par an.
L’exploitation au sommet de la chaîne
En 2021, Alexander Wang, l’ancien PDG de Scale, est devenu le plus jeune milliardaire autodidacte au monde.
L’année dernière, il a été détrôné par les trois fondateurs de 22 ans de Meror. Embauchent-ils des personnes qui travaillent pour des banques d’investissement ou des concepteurs de jeux ? Non, juste des diplômés.
| Acteurs | Rôle | Chiffre clé |
|---|---|---|
| ScaleAI | Plateforme de données | Plus de 700 000 diplômés |
| Meror | Sous-traitant IA | 30 000 professionnels actifs |
| Travailleurs de données | Annotateurs/formateurs | Revenu médian < 21 000 € / an |
Un travailleur diplômé universitaire de Normandie a étudié la philosophie et a travaillé sur la plateforme de Serji. « Le but était que quelqu’un puisse poser absolument n’importe quelle question sur absolument n’importe quoi, et que je sois capable de répondre. »
Le projet Arsenic : quand l’IA expose à l’horreur
« Mon travail consistait à lire absolument n’importe quoi, puis à répondre absolument n’importe quoi. J’ai lu l’intégralité de Dracula en trois heures, puis j’ai eu 30 minutes pour noter ce livre d’images qui était d’une nullité absolue. » Au début, il aimait la nature variée du travail. Mais ensuite, il a reçu un projet nommé Arsenic.
« Je regarde des films d’horreur. Je pensais savoir dans quoi je m’embarque, et ça a donné lieu aux choses les plus monstrueuses. » Cela l’obligeait à examiner des vidéos générées par une IA violente.
« J’ai vu deux types assassinant un golden retriever à mains nues. »
Il y avait des vidéos de gens construisant des meubles à partir d’humains, comme des célébrités connues, qui seraient dans une cellule de prison en train de saigner, avec une violence extrême. J’avais des cauchemars pendant quelques semaines après cela.
J’ai interrogé Serji à propos de ce projet. Sa porte-parole a affirmé que sa plateforme ne contient aucun contenu graphique, mais cela contredit la documentation que ce témoin a partagé avec moi. Il trouvait étrange qu’on lui demande souvent d’effectuer des tâches pour lesquelles il n’était pas qualifié.
✍️ À retenir : Pour une stratégie de contenu éthique et durable, confiez votre rédaction à des professionnels du secteur. Découvrir mes services de rédaction
Un système qui pousse à la vulnérabilité
Il existe des centaines d’entreprises de sous-traitance et elles travaillent toutes pour un petit nombre de clients de premier plan au sommet de la chaîne d’approvisionnement en IA.
Voir notre article ⇒ Révolution des tâches, comment l’IA redéfinit le travail au-delà du binaire
La course au moins-disant
Tout commence au sommet avec les entreprises d’IA cherchant à en avoir le plus pour leur argent. Pour être compétitives pour les contrats de ces géants de la tech, les entreprises de travail de données sont incitées à maintenir leurs coûts et leurs engagements bas.
« Quand votre plateforme saute d’un endroit à l’autre, vous avez l’impression de n’avoir aucun pouvoir pour dire : « Hé, ce n’est pas juste. Je travaille 13 heures par jour et je gagne peut-être 37 euros. » »
Crystal Kaufman est une travailleuse de données de longue date qui étudie désormais les conditions de travail dans le secteur. Elle a rejoint sa première plateforme après qu’une maladie l’a éloignée du travail traditionnel.
« Je travaillais pour une plateforme, puis avant que je ne m’en rende compte, pour gagner de l’argent et payer les factures, c’est devenu une question de sauter d’une plateforme à l’autre. »
Un vivier de main-d’œuvre fragile
Ce n’est pas une coïncidence si les travailleurs des données proviennent souvent de milieux vulnérables. On trouve parmi eux des personnes bénéficiant de bons alimentaires, sans logement, ou en situation de handicap. « Lorsque vous en êtes à ce point, vous prenez ce que vous pouvez obtenir. »
Outlier AI : Fonctionnement en 5 points
Synthèse des critères, délais et modalités pour les experts
Synthèse visuelle · Données officielles Outlier
Ils démantèlent l’emploi à temps plein
En 2019, une chercheuse nommée Mary Gray m’a adressé un avertissement. Le travail de données pourrait représenter le début de l’ubérisation de tout le travail intellectuel. Dans une quête pour consommer l’expertise mondiale, la Silicon Valley chercherait à créer une version « gig » de chaque emploi afin d’acquérir des fragments de connaissances au moindre coût, auprès d’une classe inférieure qui pourrait inclure la plupart d’entre nous.
« Nous voyons un avenir où l’intelligence est une commodité comme l’électricité ou l’eau, et où les gens l’achètent auprès de nous au compteur. »
« Aucun PDG humain ne peut parler à chaque employé, à chaque client, être présent à chaque réunion, être un expert dans chaque domaine. De plus en plus, ces emplois consisteront à superviser un ensemble d’IA. »
Comment les entreprises d’IA justifient-elles ces conditions de travail ?
Elles invoquent la flexibilité et l’accès à une expertise mondiale à la demande. Mais dans les faits, cette flexibilité profite surtout aux plateformes, pas aux travailleurs qui subissent l’instabilité des revenus et l’absence de protection sociale.
Actuellement, nous choisissons d’utiliser l’IA comme une technologie d’automatisation. Cela crée un cercle vicieux où de plus en plus de tâches sont prises en charge par l’IA. En chemin, nous avons besoin de travailleurs humains pour former ces mêmes systèmes.
Voilà le vrai visage du progrès. Une armée de travailleurs invisibles, dont la précarité est le carburant de l’innovation. Et si ce modèle s’étendait demain à nos propres métiers ?
⇒ La prochaine fois que vous utiliserez ChatGPT, souvenez-vous de tous ceux qui travaillent dans l’ombre pour faire briller la promesse de l’IA.
Cet article explore les coulisses de l’industrie de l’IA, un sujet que nous suivons de près sur Des Geeks et des Lettres. Découvrez aussi notre analyse sur l’évolution du travail à l’ère numérique.
Vous croyez que l’IA, c’est juste des algos et des data centers ? Détrompez-vous. Derrière chaque réponse de ChatGPT, il y a des humains : souvent précaires, parfois même sans domicile fixe : qui triment pour que le modèle ne vous sorte pas une ânerie. Et croyez-moi, les conditions sont loin d’être glamour.
La face cachée de la chaîne de production de l’IA
La Silicon Valley adore vendre du rêve avec ses discours sur l’automation totale et la fin du travail humain. Mais la réalité, c’est que ces systèmes reposent sur une gigantesque chaîne d’approvisionnement mondiale composée d’annotateurs et de formateurs de données bien réels.
On parle de milliers de personnes, recrutées aux quatre coins du globe, souvent dans des pays où le coût de la vie est bas et où les diplômés universitaires peinent à trouver un emploi stable.
Et ce n’est pas une main-d’œuvre de second choix. Les entreprises tech recrutent de plus en plus de profils hyper-qualifiés : y compris des docteurs pour fournir des données de haut niveau pour les modèles les plus récents comme GPT-5.
Pourquoi ? Parce qu’un modèle, aussi puissant soit-il, a besoin d’expertise humaine pour comprendre des concepts complexes, nuancés, ou spécialisés. Ironique, non ? On embauche des cerveaux pour former la machine qui est censée les remplacer.
Des plateformes aux pratiques prédatrices
Vous avez déjà entendu parler de Scale AI ou d‘Outlier ? Ce sont des plateformes qui mettent en relation les travailleurs et les entreprises d’IA. Le problème, c’est que leurs pratiques sont souvent, disons, « discutables ».
Les témoignages rapportent des baisses de salaire soudaines, sans préavis. Et si un travailleur ose protester ou demander des comptes ? Il se fait tout simplement « ghoster » : plus de réponse, plus de missions, plus rien. Vous êtes remplaçable en un clic.
Les revenus sont une véritable loterie
Certaines missions paient bien au début, puis tout s’effondre. Selon des études sur le sujet, le salaire annuel médian de ces travailleurs est inférieur à 23 000 dollars.
Pour un boulot qui demande souvent une expertise pointue et une concentration de tous les instants, ça pique.

Un coût psychologique énorme
Le plus grave, c’est peut-être l’impact sur la santé mentale. Ces annotateurs sont régulièrement exposés à des contenus traumatisants :
- vidéos violentes
- images choquantes
- discours haineux
- sans aucun soutien psychologique digne de ce nom.
Pas de briefing, pas de débriefing, pas de psy à disposition. Vous encaissez, et vous passez à la tâche suivante.
Et ce n’est pas tout. Il arrive fréquemment qu’on demande à ces travailleurs d’intervenir sur des sujets qui ne sont pas du tout leur domaine de compétence. Imaginez qu’on vous demande soudainement de donner des conseils en santé mentale à un utilisateur, alors que vous êtes spécialiste en annotation d’images.
Ça met en danger à la fois le travailleur, qui n’a pas les outils pour répondre, et l’utilisateur final, qui reçoit potentiellement des conseils dangereux. Une belle tambouille.
Un cercle vicieux bien huilé
Le plus absurde dans tout ça, c’est le cycle infernal qui se met en place. Les entreprises licencient des employés, puis les re-embauchent via ces plateformes : comme main-d’œuvre précaire pour former les IA qui ont causé leur licenciement.
Vous avez bien lu : on vous vire, puis on vous propose de revenir en tant que free-lance payé au lance-pierre pour peaufiner l’outil qui vous a remplacé. C’est un peu comme si on vous demandait de creuser votre propre tombe avec une pioche rouillée et sans protection.
Derrière tout ça, il y a une idéologie bien ancrée dans la Silicon Valley : une forme d’élitisme technologique qui considère l’humain comme un bruit, un problème à éliminer, plutôt qu’une ressource précieuse.
On veut des machines parfaites, et tant pis si les humains qui les rendent possibles sont traités comme de la chair à canon numérique.
Sources fiables
- Intelligence artificielle : « En plein Sommet de Paris, des millions de travailleurs sacrifiés de l’IA ont été oubliés » : France Culture
- Une intelligence pas si artificielle : qui sont les petites mains derrière l’IA ? : Basta!
- I Tracked Down the Hidden Workers Secretly Powering ChatGPT : YouTube
Pour aller plus loin
🔒 À retenir : La sécurité en ligne est essentielle, ne naviguez pas sans protection. Protéger mes données avec NordVPN

