Les entreprises d'IA dominent les indices boursiers et les conversations des conseils d'administration, mais la crainte d'un effondrement s'accroît chaque trimestre. La vague actuelle d'investissements dans l'IA ressemble moins à une innovation technologique stable qu'à un pari surendetté sur une automatisation qui ne fonctionne pas comme prévu. S'appuyant sur les arguments popularisés par Cory Doctorow, ce texte examine comment les échecs commerciaux dans le domaine de l'IA reflètent les bulles passées, quelles leçons sont importantes pour les travailleurs et les utilisateurs, et quels outils méritent d'être préservés une fois que les retombées se font sentir. Il ne s'agit pas de prédire l'avenir de l'IA, mais de disséquer qui en bénéficie, qui en paie les frais et ce qu'il en reste une fois que le battage médiatique s'est dissipé.
Derrière les démonstrations brillantes se cache une dure réalité économique. Les monopoles technologiques obsédés par la croissance ont besoin d'une nouvelle histoire pour justifier des valorisations extrêmes, après que les crypto et les métavers ont perdu leur éclat. Les entreprises d'IA remplissent ce rôle en vendant aux investisseurs une histoire dans laquelle les logiciels remplacent une main-d'œuvre coûteuse à l'échelle industrielle. Pourtant, dans la pratique, les systèmes d'IA dégradent souvent la qualité, évincent l'expertise et créent ce que Doctorow appelle des "centaures inversés" : des humains réduits à des périphériques biologiques pour des algorithmes indifférents. Lorsque ce modèle éclatera, les retombées risquent de ressembler aux frénésies spéculatives passées sur les crypto-monnaies, comme l'illustrent les analyses du L'effondrement d'un empire cryptographique lié à Trump ou la fragilité de la richesse en bitcoins à effet de levier. Comprendre ces parallèles permet d'identifier ce qui mérite d'être préservé après l'éclatement de la bulle de l'IA : des outils ouverts, des compétences humaines et des infrastructures solides plutôt que des fantasmes financiers.
L'effondrement des entreprises d'IA et la critique de Doctorow sur les mythes de la croissance
La thèse centrale qui sous-tend le point de vue "l'effondrement des entreprises d'IA" est brutalement simple. Les grandes entreprises technologiques détiennent déjà des positions de quasi-monopole dans les publicités, les écosystèmes mobiles et les infrastructures en nuage. Lorsqu'une entreprise sature son marché, les investisseurs commencent à la considérer comme "mature", ce qui menace son ratio cours/bénéfice et sa capacité à acheter des rivaux ou des talents avec des actions gonflées. Pour éviter ce reclassement, les dirigeants ont besoin d'une nouvelle histoire de croissance qui semble suffisamment importante pour faire bouger l'aiguille des valorisations de plusieurs milliards de dollars. Les entreprises spécialisées dans l'IA offrent précisément ce type de récit.
Cory Doctorow souligne qu'il s'agit moins d'innovation technologique pure que de théâtre financier. Le discours à Wall Street est simple : L'IA fera votre travail, votre patron vous licenciera, gardera la moitié de votre salaire et enverra l'autre moitié à un fournisseur d'IA. Ce scénario sous-tend des projections alléchantes de milliers de milliards de dollars de valeur nouvelle. L'histoire montre des scénarios similaires dans les bulles cryptographiques et les poussées métaverses, dont beaucoup sont couvertes par des documents tels que l'avertissement sur le Bulle d'IA : même le PDG de Google s'y retrouve. Les revendications techniques sont importantes, mais le véritable moteur est l'exigence de maintenir les multiples de croissance à tout prix.
Les entreprises d'IA, le pouvoir des monopoles et la machine à bulles
Une fois qu'un monopole existe sur les publicités, les recherches, les systèmes d'exploitation mobiles et les plateformes en nuage, l'expansion organique ralentit. Les histoires de croissance passent de la conquête des marchés à leur "réinvention". En pratique, cela se traduit par un cycle de battage médiatique autour de la vidéo, des crypto-monnaies, du métavers et maintenant de l'IA. Chaque cycle brûle du capital dans l'espoir qu'un récit perdure suffisamment longtemps pour permettre de passer au suivant. Lorsqu'un dirigeant déclare que l'IA va "tout transformer", le sous-texte est souvent "notre ratio PE a besoin d'une nouvelle raison pour rester gonflé".
Doctorow affirme que ce schéma récurrent alimente une machine à bulles structurelle. Une poignée d'entreprises d'IA absorbe des centaines de milliards, échangeant des reconnaissances de dettes entre elles tout en s'appuyant sur des crédits dans le nuage, de l'argent bon marché et des acquisitions basées sur des actions. L'histoire de la cryptographie montre à quel point ces constructions sont fragiles lorsque les conditions extérieures changent. Des rapports tels que l'analyse de les performances historiques des ICO montrent comment les investisseurs de détail finissent par payer une fois que les initiés se sont retirés. L'IA se situe sur la même ligne de faille, avec une empreinte beaucoup plus importante sur l'infrastructure de base.
Les centaures inversés et le coût humain de l'échec commercial de l'IA
L'une des leçons les plus importantes à tirer de l'œuvre de Doctorow est la distinction entre les centaures et les centaures inversés. Un centaure utilise la technologie comme une extension qui amplifie les forces humaines. Un centaure inversé sert de complément fragile à un processus mécanique rigide. Les entreprises spécialisées dans l'IA promettent des améliorations de type centaure, mais déploient souvent des systèmes qui poussent les travailleurs dans la position inverse, supportant le stress et le blâme tandis que les algorithmes dictent le rythme et les résultats.
Prenons l'exemple d'un système logistique d'IA surdimensionné qui mesure chaque mouvement d'un chauffeur-livreur. Les caméras signalent les "distractions", les modèles de microphones classent les chants comme improductifs et les optimiseurs d'itinéraires réduisent les pauses à quelques secondes. La camionnette ne peut pas accompagner les colis jusqu'à la porte, mais le chauffeur ne contrôle plus ni le temps ni le rythme. Lorsque l'IA évalue mal les conditions, la direction prend des mesures disciplinaires à l'encontre du conducteur, et non du code. L'échec commercial de ces entreprises d'IA n'effacerait pas les dommages : la surveillance normalisée, la confiance dégradée et le personnel épuisé restent des retombées qu'il convient de traiter et, si possible, d'inverser.
L'IA en radiologie et en codage : les promesses se brisent
La radiologie apparaît souvent dans les documents commerciaux comme la preuve que l'IA sera plus performante que les experts. Doctorow renverse cette logique. Un déploiement réaliste utiliserait l'IA pour le dépistage secondaire, laissant les radiologues humains traiter moins d'images par jour avec une plus grande précision. Cette voie améliore les résultats mais augmente les coûts. Le véritable argumentaire commercial cible plutôt les dirigeants : il s'agit de licencier neuf radiologues sur dix, de payer un abonnement important à un fournisseur d'IA et de laisser un humain comme "puits de responsabilité" pour les tumeurs manquées.
Le génie logiciel connaît des tensions similaires. De nombreux développeurs apprécient l'assistance de l'IA pour les tâches répétitives ou les remaniements rapides. Toutefois, lorsque la direction s'en sert comme d'une raison pour licencier du personnel expérimenté et attendre de l'équipe restante qu'elle valide de vastes volumes de code généré par l'IA, le profil d'erreur change. Les modèles statistiques génèrent des appels de bibliothèque ou des modèles plausibles mais subtilement erronés que les attaquants exploitent. Les développeurs seniors, les personnes les plus susceptibles de détecter ces problèmes, apparaissent souvent en premier sur les listes de licenciements. Les études sur l'IA et l'emploi, telles que les discussions sur les L'IA remplace des emplois dans le domaine de la connaissanceLes entreprises et les administrations publiques ignorent souvent cette dynamique d'effondrement de la qualité déguisée en gain de productivité.
Retombées économiques : les leçons de la cryptographie pour l'avenir de l'effondrement de l'IA
Les entreprises d'IA opèrent dans un macro-environnement façonné par des frénésies spéculatives antérieures. Les crypto-monnaies ont connu des vagues d'adoption euphorique et des corrections brutales, liées à l'image de marque politique, à l'appui de célébrités et aux récits sur l'"or numérique". De nombreuses personnalités ont promu des jetons qui ont ensuite implosé, comme l'ont montré les enquêtes concernant la richesse générée par les crypto-monnaies s'effondre autour des personnalités politiques ou des stratégies d'entreprise liées à une exposition agressive au bitcoin. La ruée vers l'IA s'inspire largement de ce modèle, mais avec une intégration plus poussée dans les infrastructures critiques.
Lorsque les valorisations de l'IA se débloqueront, les victimes immédiates seront les fonds de pension et les investisseurs indiciels fortement exposés aux indices des grandes technologies. Cependant, les retombées secondaires s'étendent encore plus loin. La surcapacité des centres de données, les clusters de GPU bloqués et les plateformes expérimentales abandonnées créent un désordre matériel. La comparaison avec les articles couvrant les scénarios d'effondrement potentiels pour les entreprises de crypto-monnaies est instructif. Dans les deux cas, la question est de savoir s'il reste quelque chose de productif après la faillite de la structure à effet de levier.
La mécanique des bulles : Entreprises d'IA, finance et transfert de risque
Doctorow souligne comment les entreprises d'IA fonctionnent comme des machines de transfert de risque. Les initiés profitent de l'appréciation des actions alimentée par des récits qui promettent une automatisation radicale. Les investisseurs externes absorbent les pertes lorsque les attentes ne se concrétisent pas. Le mécanisme ressemble aux premiers marchés cryptographiques, où les produits structurés et les dérivés amplifiaient la volatilité. Les analystes qui suivent Principales baisses du bitcoin et de l'éther montrent comment les liquidations en cascade amplifient le stress bien au-delà des déclencheurs initiaux.
Dans le domaine de l'IA, l'effet de levier prend une forme différente. Les crédits cloud, la rémunération à base d'actions, le financement des fournisseurs et les investissements croisés entre les grandes entreprises sont autant de dépendances cachées. Lorsqu'une grande entreprise d'IA est en difficulté, les fournisseurs et les clients qui lui sont liés subissent rapidement des chocs liés à la valeur de marché. Ce lien systémique explique pourquoi Doctorow décrit l'IA comme de "l'amiante dans les murs" : quelque chose qui s'infiltre partout à la recherche de rendements à court terme, avec des coûts de nettoyage à long terme rejetés sur la société. La leçon principale est claire : c'est l'économie de la bulle, et non les capacités technologiques pures, qui détermine le véritable profil de risque.
Préservation après les retombées : ce qui reste utile lorsque les entreprises d'IA échouent
Malgré les critiques, Doctorow ne plaide pas en faveur d'une régression technologique. La question clé est de savoir ce qui mérite d'être préservé une fois que les entreprises d'IA se seront effondrées. L'histoire offre des précédents encourageants. Les télécoms frauduleuses ont laissé derrière elles des réseaux de fibres optiques qui ont ensuite permis d'offrir une large bande bon marché. Les entreprises point-coms qui ont échoué ont produit des compétences, des protocoles ouverts et des bases de code qui alimentent toujours le web. Dans le même esprit, les retombées de l'IA laisseront probablement des infrastructures et des outils qui prendront de la valeur une fois la spéculation terminée.
Trois catégories se distinguent. Premièrement, le capital humain : des milliers d'ingénieurs formés aux statistiques appliquées, à la conception de systèmes et aux opérations de ML. Deuxièmement, le matériel : des GPU et des accélérateurs excédentaires réaffectés à la simulation climatique, à la modélisation scientifique et au travail sur les effets. Troisièmement, des modèles ouverts : des systèmes plus petits, adaptés à des tâches ciblées telles que la transcription, le résumé et l'édition d'images, qui fonctionnent sur des appareils de base. En dehors des cadres spéculatifs, ces systèmes ressemblent moins à une intelligence dévoreuse de monde qu'à des plugins efficaces.
Modèles ouverts, outils locaux et innovation technologique saine
Lorsque les marchés financiers se désintéresseront des "modèles de fondation" géants et déficitaires, l'attention se portera sur les systèmes compacts et vérifiables. La transcription locale, la description d'images et la suppression de l'arrière-plan offrent déjà une grande valeur sur les ordinateurs portables et les téléphones. Ces fonctionnalités ne nécessitent pas de connexion permanente à l'internet, de collecte de données invasive ou de dépendance à l'égard d'un fournisseur unique. Elles s'inscrivent dans une vision plus saine de l'innovation technologique, où les outils donnent du pouvoir aux utilisateurs plutôt que d'extraire des rentes ou de permettre une surveillance de masse.
L'argument de Doctorow va dans le sens d'un écosystème où l'IA se comporte davantage comme une bibliothèque standard ou un plugin. Les développeurs intègrent les modèles comme des composants, et non comme des remplacements monolithiques du jugement humain. Ce cadrage réduit également l'effet de levier qui a permis à un petit cartel d'entreprises d'IA de dicter leurs conditions à des industries entières. Le travail de préservation le plus précieux consiste donc à documenter les poids ouverts, les procédures de formation et les modèles de déploiement avant que l'effondrement des entreprises ne les enterre derrière les procédures de faillite et les ventes d'actifs. En transformant les résidus des bulles en infrastructures publiques, on transforme les retombées en fondations.
Leçons juridiques : droits d'auteur, art de l'IA et échec commercial
Une grande partie du débat public sur les entreprises d'IA porte sur les données d'entraînement et les droits d'auteur. Doctorow adopte une position impopulaire mais rigoureuse. La loi actuelle sur le droit d'auteur autorise la lecture, le comptage et la publication de faits concernant les œuvres. La formation de modèles s'inscrit dans ce cadre. L'extension du droit d'auteur à ce type d'analyse risque d'englober un large éventail d'activités socialement utiles, de l'indexation des recherches à l'exploration de textes universitaires, tout en ne protégeant guère les artistes individuels contre les échecs commerciaux des entreprises d'IA ou des conglomérats médiatiques.
Il insiste sur un point structurel. La concentration des marchés des médias fait en sorte que les droits supplémentaires profitent généralement aux intermédiaires et non aux créateurs. L'histoire depuis les années 1970 montre une augmentation constante de la portée des droits d'auteur parallèlement à une baisse de la part des revenus des artistes en activité. Les procès intentés pour défendre la créativité aboutissent souvent à des mises à jour de contrats standard où les studios et les maisons de disques exigent la cession de nouveaux droits. Dans ce contexte, un "droit de formation" ressemble moins à un bouclier pour les artistes qu'à de nouvelles munitions pour les négociations avec les entreprises.
Domaine public, production d'IA et préservation stratégique
L'évolution juridique la plus prometteuse soulignée par Doctorow provient de l'Office américain du droit d'auteur. En insistant sur le fait que les œuvres générées par l'IA ne peuvent être protégées par le droit d'auteur que si elles font appel à une contribution créative humaine significative, les régulateurs introduisent une contrainte commerciale que l'engouement du marché ignore souvent. Si un studio produit un film entièrement à l'aide de l'IA, ses concurrents peuvent le copier ou le redistribuer librement. Pour obtenir des droits exclusifs, les entreprises doivent employer des créateurs humains et documenter leur contribution.
Ce principe ouvre la voie à une préservation claire. Les flux de travail hybrides dans lesquels les humains dirigent et affinent les résultats de l'IA restent protégeables et donc commercialement viables. Les fermes de contenu entièrement automatisées, en revanche, produisent du matériel non protégé que d'autres reproduisent, remixent ou sous-cotent à leur guise. Du point de vue des enseignements, ce régime pousse le système vers une collaboration de type centaure et l'éloigne de l'exploitation de type centaure inversé. Il prive également les entreprises d'intelligence artificielle qui promettent d'éliminer complètement le travail créatif d'un élément clé de leur chiffre d'affaires.
Pouvoir des travailleurs, négociations sectorielles et résilience après l'effondrement
Un élément essentiel de la réflexion de Doctorow concerne le pouvoir des travailleurs. La grève de la Writers Guild of America a montré comment des travailleurs organisés dans un secteur créatif peuvent obliger les employeurs à négocier des limites au déploiement de l'IA. L'action collective a permis d'obtenir des garanties en matière de crédit, de rémunération et d'implication humaine minimale dans la production de scénarios. Contrairement à la plupart des professions, les scénaristes américains bénéficient de négociations sectorielles, ce qui leur permet de négocier en bloc contre tous les grands studios.
La plupart des travailleurs ne disposent pas d'un tel levier. Dans de nombreux pays, le droit du travail traditionnel limite les accords sectoriels, fragmentant les négociations en luttes au niveau de l'entreprise où les grandes sociétés détiennent un avantage écrasant. Dans le contexte de l'IA, cette fragmentation permet aux employeurs de fixer plus facilement des conditions de travail à l'envers et de les présenter comme inévitables. L'un des enseignements les plus profonds de l'analyse de Doctorow est que la protection durable contre le déploiement abusif de l'IA dépend davantage des cadres de négociation collective que des amendements au droit d'auteur ou des normes techniques.
Principaux enseignements pratiques pour les travailleurs et les utilisateurs
La condensation du point de vue de Doctorow en conseils exploitables débouche sur une liste concrète de comportements et de priorités. Ceux-ci aident les individus à interpréter les réclamations des entreprises d'IA et à se préparer aux retombées en cas de faillite de l'entreprise. L'objectif n'est pas la peur, mais une gestion lucide des risques.
- Traitez les promesses de remplacement intégral des emplois avec scepticisme et examinez qui en bénéficie.
- Résister aux rôles de centaure inversé où les humains portent le risque juridique et émotionnel pour des systèmes opaques.
- Soutenir les outils d'IA ouverts et locaux qui fonctionnent sur des appareils que vous contrôlez plutôt que sur des plateformes opaques dans le nuage.
- Soutenir les efforts de négociation sectorielle et les normes collectives sur l'utilisation de l'IA au travail.
- Établir des parallèles avec d'autres bulles financières, telles que l'effet de levier agressif des cryptomonnaies ou les systèmes de jetons politiques.
- Concentrer le plaidoyer sur les droits relatifs aux données, les conditions de travail et les limites de la surveillance plutôt que sur des modifications étroites du droit d'auteur.
- Pousser les institutions à documenter et à ouvrir les modèles et les outils avant que les ventes d'actifs en difficulté ne les bloquent.
Chacun de ces points s'inscrit dans le fil conducteur de l'œuvre de Doctorow : traiter l'IA non pas comme une prophétie ou une fatalité, mais comme un ensemble de décisions d'entreprise contingentes qui répondent à des pressions.
Notre avis
L'effondrement des entreprises d'IA, s'il se produit, ne marquera pas la fin de l'IA en tant qu'ensemble de techniques. Elle marquera la fin d'une histoire financière spécifique qui traite les modèles statistiques comme un raccourci pour supprimer les salaires et étendre le pouvoir de monopole. Les leçons les plus importantes de l'analyse de Cory Doctorow concernent les points sur lesquels il faut concentrer la résistance : les pratiques commerciales qui créent des centaures inversés, les incitations de l'économie de bulle qui récompensent le battage médiatique plutôt que la fiabilité, et les cadres juridiques qui renforcent le contrôle de l'entreprise plutôt que la créativité de l'homme.
Les efforts de préservation devraient privilégier les modèles ouverts, les infrastructures réutilisables et les structures de gouvernance favorables aux travailleurs. La société héritera probablement d'une capacité de calcul abondante, de praticiens qualifiés et d'une bibliothèque d'outils plus petits et plus performants une fois que la vague spéculative actuelle aura déferlé. Il s'agira alors de refuser le fatalisme, d'orienter ces actifs vers une augmentation de type centaure et de considérer les retombées des échecs commerciaux de l'IA comme une matière première pour un avenir plus sûr et plus responsable de l'IA plutôt que comme une raison d'abandonner complètement la technologie.


