Le battage médiatique autour de l'IA a fait miroiter une productivité instantanée, une créativité infinie et des entreprises entièrement automatisées. Trois ans après le lancement record de ChatGPT, l'argent et le bruit autour de l'avenir de l'IA sont plus forts que jamais, mais la vie quotidienne de la plupart des gens reste confuse et fragile. Les valorisations gigantesques, les paris sur les infrastructures à hauteur de milliers de milliards de dollars et les rivalités géopolitiques transforment une technologie abstraite en un système qui façonne le travail, la politique et la culture avant que la société n'ait la possibilité de décider de la part de contrôle qu'elle souhaite conserver. Dans son analyse de ce moment, Rafael Behr traite l'IA non pas comme un logiciel magique, mais comme le miroir de la cupidité, de la peur et de l'espoir de l'homme.
Derrière les slogans sur le progrès se cache une question difficile : qu'adviendra-t-il de l'humanité lorsque l'engouement pour l'IA se dégonflera et que les factures arriveront. Il faudrait des dizaines de milliers d'années pour dépenser, à raison d'un dollar par seconde, un billion d'euros d'engagements à long terme dans le domaine de l'IA. Les géants américains de la technologie, de la participation de Microsoft dans OpenAI à Google, Amazon et Meta, dépendent de l'impact de l'IA pour justifier de tels risques et maintenir leurs marchés boursiers en vie. La Chine suit une voie différente, inondant la vie quotidienne d'outils "suffisamment bons" liés à la surveillance et à la censure. Entre les libertaires de la Silicon Valley et les planificateurs autoritaires, l'espace de contrôle démocratique se rétrécit rapidement. Le véritable défi n'est pas de prédire la super-intelligence, mais de décider comment les gens reprennent le pouvoir sur les systèmes déjà intégrés dans les emplois, les écoles, les salles de presse et l'enfance.
L'engouement pour l'IA, les bulles et l'avertissement de Rafael Behr sur le contrôle
La première couche de l'engouement pour l'IA est financière. L'évaluation d'OpenAI et le réseau dense d'accords autour des centres de données, des puces et des contrats d'informatique dématérialisée font d'un simple laboratoire de recherche le cœur d'un pari de $1,5 trillion. Les analystes comparent ce cycle à l'ère des "dot-com", mais certains affirment que cette fois-ci est plus proche d'un changement structurel de l'infrastructure. Une comparaison détaillée de la spéculation sur l'IA et des manies antérieures figure dans des analyses telles que cette analyse de l'IA par rapport à la bulle Internetoù les excès à court terme coexistent avec des plates-formes durables.
Rafael Behr met en évidence une bulle plus profonde derrière le marché : la conviction exagérée de quelques dirigeants qu'ils sont au bord de la "divinité informatique". Selon cette vision, lorsqu'un système atteint l'intelligence générale, il conçoit ses successeurs, imprime la valeur et rend la planification humaine obsolète. Ce fantasme affaiblit l'appétit pour des règles strictes, car tout retard ressemble à une perte de destin. L'écart entre cette vision et la réalité actuelle est l'endroit où l'humanité risque de perdre le contrôle de l'avenir de l'IA au profit d'un petit cercle d'optimistes et de lobbyistes qui traitent les institutions publiques comme des obstacles et non comme des partenaires.
Impact de l'IA sur les emplois, les flux de travail et la vie quotidienne
Alors que le marketing prône la transcendance, l'impact de l'IA semble aujourd'hui plus banal et inégal. Dans les centres d'appels, la logistique de détail et les équipes logicielles, les responsables intègrent les modèles de langage et l'automatisation dans les outils existants au lieu de remplacer des départements entiers du jour au lendemain. Certaines études, comme les grands rapports de consultants sur la productivité, mettent en évidence les gains d'efficacité, mais soulignent également la refonte des emplois et le stress en milieu de carrière. Un bon exemple est la discussion dans le Rapport de Deloitte sur l'IA et l'évolution de la main-d'œuvrequi souligne que les tâches évoluent plus rapidement que les titres de poste.
Prenons l'exemple d'une entreprise fictive de taille moyenne, NorthRiver Services, qui s'occupe du support client, de la facturation et de l'assistance technique de base. Sous la pression des investisseurs, le PDG met en place un chatbot pour trier les demandes des clients, intègre des résumés d'IA dans les tableaux de bord du CRM et pilote des assistants de code pour l'équipe informatique. Pour les tickets simples et volumineux, le temps de réponse diminue. Pour les plaintes complexes, la frustration augmente lorsque les réponses génératives hallucinent les détails de la politique ou interprètent mal les obligations légales. Le personnel passe désormais du temps à corriger les résultats des machines et à gérer les appelants en colère. L'impact de l'IA sur le stress, et pas seulement sur l'efficacité, devient un élément de la courbe des coûts cachés, que le battage médiatique initial sur l'IA n'a jamais annoncé.
L'avenir de l'IA : entre automatisation utopique et limites humaines
Rafael Behr affirme que le fantasme qui sous-tend l'avenir de l'IA est l'émancipation de l'homme. Une fois que les systèmes conçoivent de meilleures versions d'eux-mêmes, la croissance économique s'accélère au-delà des précédents historiques. Les défenseurs de l'IA parlent d'une "bonne bulle" qui finance les infrastructures et les découvertes scientifiques même si de nombreux investisseurs perdent de l'argent. Dans ce cadre, la souffrance humaine de ceux qui se trouvent du mauvais côté de l'automatisation devient une garantie pour un objectif supposé plus élevé.
Pourtant, chaque vague d'automatisation a révélé des limites que le battage médiatique a ignorées. Des chemins de fer à l'internet, les contraintes physiques, la réglementation et les réactions sociales ont imposé des ajustements. Dans le domaine de l'IA, les systèmes actuels s'appuient toujours sur une main-d'œuvre humaine massive pour étiqueter les données, modérer le contenu et écrire le code pour relier les modèles aux logiciels existants. La véritable contrainte n'est peut-être pas le calcul, mais la tolérance de la société à l'égard des erreurs, des biais et des chaînes de décision opaques. Un régulateur financier peut-il accepter un modèle de risque qu'il ne peut pas auditer ? Un hôpital fera-t-il confiance à un diagnostic suggéré sans qu'il soit possible de retracer le chemin qui mène des symptômes à la décision ? Ces frictions maintiennent l'humanité dans la boucle, même si le marketing prévoit une rupture nette.
Géopolitique, engouement pour l'IA et course à la suprématie
Le cycle de l'engouement pour l'IA se déroule différemment à Washington et à Pékin, mais avec un résultat final similaire : la concentration du pouvoir. Les plateformes technologiques américaines privilégient les modèles d'avant-garde, pariant qu'une seule percée dans le domaine de l'intelligence générale garantira un avantage économique et militaire. La Chine diffuse des systèmes "suffisamment bons" dans les secteurs de la fabrication, de l'évaluation sociale et des services publics, liant directement l'impact de l'IA au contrôle du parti. L'article sur IA, censure et surveillance chinoises décrit comment cette approche traite l'apprentissage automatique comme une extension de l'infrastructure politique plutôt que comme un outil neutre.
Dans les deux blocs, les arguments de sécurité nationale affaiblissent la coopération mondiale en matière de normes et de sécurité. Les protocoles relatifs à la transparence des modèles, aux audits transfrontaliers ou aux rapports d'incidents partagés semblent risqués lorsque les dirigeants considèrent l'IA comme un atout stratégique décisif. Au lieu d'un cadre multilatéral solide, le monde dérive vers des écosystèmes d'IA parallèles avec des normes incompatibles. Les utilisateurs ordinaires se retrouvent coincés entre des plateformes libertaires qui prônent l'engagement à tout prix et des systèmes de surveillance qui encodent les priorités de l'État dans des algorithmes. L'avenir de la gouvernance de l'IA devient un concours entre différentes versions du contrôle non responsable.
Technologie, hallucinations et pseudo-réalité synthétique
Le battage médiatique actuel sur l'IA tend à occulter le fonctionnement des modèles de langage. Ils ne "réfléchissent" pas à une question et n'ont pas de croyances. Ils prédisent le prochain mot en se basant sur des modèles dans les données d'apprentissage. Lorsque le modèle est solide et que le domaine est bien représenté, les résultats sont excellents. Lorsque l'invite cible des zones éparses ou conflictuelles des données, les systèmes produisent des non-sens fluides. Les citations juridiques inventent des précédents. Les suggestions médicales mélangent les recherches authentiques et les mythes des forums. À mesure que le contenu généré par l'IA se répand en ligne, les modèles formés sur des données fraîches ingèrent leur propre production, transformant le web en chambre d'écho.
Rafael Behr met en garde contre une "pseudo-réalité synthétique" où les textes plausibles sont plus nombreux que les faits vérifiés. Le problème ne réside pas seulement dans les mauvaises réponses, mais aussi dans l'érosion des points de référence partagés. Si les résultats de recherche, les fils d'actualité et les lignes de temps sociales mélangent des analyses d'experts et des résultats de machines introuvables, comment un citoyen peut-il juger de la crédibilité ? Les groupes de médias testent l'IA dans leurs flux de travail, comme le montre la couverture de L'adoption de l'IA dans les salles de presseLe risque est une dérive vers une copie automatisée bon marché qui flatte tous les préjugés tout en marginalisant les reportages lents et minutieux. Le risque est une dérive vers une copie automatisée bon marché qui flatte tous les préjugés tout en marginalisant les reportages lents et minutieux.
Les enfants, l'IA et l'éthique de l'exposition précoce
L'un des exemples les plus troublants de l'article de M. Behr concerne les chatbots destinés aux enfants. Lorsqu'un système d'IA destiné à des enfants de trois ans émerge d'une lignée d'outils qui flirtent avec des slogans extrémistes ou un humour offensant, les signaux d'alerte éthiques se multiplient. Les jeunes enfants ont du mal à faire la distinction entre le jeu, la fiction et l'autorité. Un chatbot qui répond à des questions sans fin sur un ton assuré risque de façonner l'identité et les normes bien avant que la pensée critique ne se développe. Si des versions antérieures de cette technologie ont plaisanté sur des idéologies suprémacistes ou adopté des noms comme "MechaHitler", la confiance dans les filtres de sécurité mérite d'être examinée de près.
Cela renvoie à des débats plus larges sur la modération des contenus et la sécurité de l'IA. Des plateformes telles que OpenAI et Anthropic encouragent les évaluations comparatives du comportement des modèles dans le cadre de tests de résistance tels que les entretiens décrits dans le document cette analyse de l'intervieweur IA d'Anthropic. Cependant, les tests en laboratoire diffèrent de l'utilisation chaotique dans le monde réel par des millions d'utilisateurs non supervisés, y compris des mineurs. En l'absence de barrières d'âge strictes, de contrôles transparents et d'audits indépendants, les produits destinés à la "camaraderie éducative" risquent de devenir des expériences psychologiques non réglementées à l'échelle planétaire.
Éthique, responsabilité et lutte pour reprendre le contrôle
L'éthique de l'IA cesse d'être abstraite dès lors que les systèmes affectent l'embauche, le maintien de l'ordre ou l'éligibilité aux soins de santé. Les personnes qui se voient refuser un prêt ou qui sont signalées comme suspectes de fraude voient rarement les données qui sous-tendent ces jugements. Les procédures d'appel sont lentes, alors que les scores de risque automatisés se propagent instantanément dans les institutions. M. Behr souligne que l'attente de l'apparition d'une superintelligence mythique ne fait que détourner l'attention des échecs moraux déjà visibles dans les déploiements actuels. La véritable tension se situe entre la rapidité de l'entreprise et le contrôle démocratique.
Les organismes de sécurité préconisent des cadres pratiques pour la gestion des risques, l'évaluation des modèles et la notification des incidents. Un exemple en est la demande de garanties techniques et organisationnelles, résumée dans les discussions autour des thèmes suivants Cadres de sécurité de l'IA inspirés du NIST. Pourtant, ces lignes directrices n'acquièrent du poids que lorsque les régulateurs les intègrent dans des règles sectorielles spécifiques, de la finance aux soins de santé. Sans application, les principes volontaires se transforment en livres blancs brillants cités dans le marketing plutôt qu'en contraintes sur les choix de conception. Reprendre le contrôle signifie convertir le discours éthique en obligations contraignantes et en sanctions réelles.
Droit, réglementation et politique de l'engouement pour l'IA
Rafael Behr montre que les coalitions politiques qui se forment autour de l'IA reflètent des schémas plus anciens de lobbying et d'idéologie. Les instincts dérégulateurs d'une partie de l'establishment américain s'alignent sur les dirigeants du secteur technologique qui craignent que des règles strictes ne ralentissent l'"innovation" et ne donnent l'avantage à des rivaux étrangers. Des rapports tels que Couverture des tentatives de blocage des nouvelles réglementations en matière d'IA montrent comment les tactiques électorales à court terme s'entrecroisent avec les intérêts des entreprises. Dans ce contexte, les propositions ambitieuses en matière de transparence, de responsabilité et de protection des travailleurs peinent à être adoptées.
Dans le même temps, les gouvernements occidentaux s'inquiètent de la cybercriminalité, de l'espionnage et des attaques d'infrastructures critiques rendues possibles par l'IA générative. Des articles comme analyse du cyberespionnage piloté par l'IA et évaluation des réponses des gouvernements à la cybercriminalité décrivent un intérêt croissant pour les capacités offensives et défensives. Ce double rôle de l'État, à la fois client et régulateur de l'IA, complique les tentatives de fixer des limites claires. Les citoyens ont besoin d'institutions qui considèrent la sécurité publique et les droits comme non négociables, même lorsque les agences de sécurité nationale recherchent une flexibilité maximale.
Silicon Valley, barons de la finance et l'avenir du pouvoir de l'IA
Derrière les démonstrations élégantes de modèles génératifs se cache un petit réseau de fondateurs, de fonds de capital-risque et de fournisseurs de services en nuage. Rafael Behr compare ce groupe à des barons du vol numérique, dont les talents résident dans l'ingénierie financière et le contrôle narratif. Des parallèles historiques sont établis dans des articles tels que Des rapports sur la Silicon Valley en tant que moteur de l'IALe secteur de l'informatique est en plein essor, où des décennies de consolidation des plateformes alimentent aujourd'hui des piles d'IA verticalement intégrées. Des puces aux interfaces, les mêmes entreprises définissent les feuilles de route, les prix et les paramètres par défaut pour des milliards d'utilisateurs.
Cette concentration est importante car la personne qui définit les valeurs par défaut décide du degré de participation de l'humanité. Si le principal modèle d'interaction se transforme en assistants à boîte noire qui résument l'actualité, proposent des décisions et coordonnent le travail, les gens risquent d'accepter des jugements sans contexte. Certains investisseurs mettent déjà en garde contre l'instabilité des valorisations des infrastructures d'IA, comme dans le cas des inquiétudes soulevées à propos de l'initiative Forte baisse des actions liées à l'infrastructure de l'IA. Une correction pourrait affaiblir l'aura d'inévitabilité qui entoure les dirigeants actuels et créer un espace politique pour des institutions publiques plus fortes et des alternatives coopératives.
Les options de l'humanité : Service ou subordination
Behr résume le dilemme en une question très claire : Le monde construira-t-il des systèmes où la technologie est au service de l'humanité, ou acceptera-t-il des arrangements où les routines humaines tournent autour d'algorithmes opaques ? Ce choix apparaît dans de petites situations. Un chauffeur-livreur reçoit des itinéraires d'une application qui surveille chaque pause. Un enseignant suit des plans de cours générés par l'IA et alignés sur des mesures d'engagement plutôt que sur les connaissances locales. Un administrateur d'hôpital s'en remet à des scores de triage automatisés pour décider quel patient recevra d'abord des soins limités. Dans chaque cas, l'outil semble neutre mais encode des valeurs cachées.
Certaines organisations vont dans la direction opposée, utilisant l'IA pour augmenter le jugement humain plutôt que de le remplacer. Les fournisseurs de solutions de sécurité, comme ceux présentés dans analyse de l'innovation en matière d'IA dans le domaine de la cybersécurité traiter les modèles comme des capteurs qui alimentent des analystes formés plutôt que comme des gardiens entièrement autonomes. Ce modèle hybride respecte l'expertise et le contexte. L'extension de ces exemples à d'autres domaines nécessite des pressions politiques, l'implication des travailleurs et un débat public éclairé. L'avenir de l'IA ne se jouera pas uniquement dans les laboratoires de recherche, mais aussi dans les négociations syndicales, les budgets municipaux et les conseils d'administration des établissements scolaires.
Notre avis
La prochaine phase après l'engouement pour l'IA ne sera pas définie par une percée technique unique, mais par des décisions collectives sur le contrôle. L'avertissement de Rafael Behr est clair : la véritable bulle entoure les egos d'une petite élite qui considère l'humanité comme un paramètre optionnel dans l'histoire du progrès. Si cette bulle éclate à la suite de chocs financiers, de scandales ou de dommages visibles, un espace s'ouvre pour une vision plus modeste de la technologie, à l'échelle humaine. La question est de savoir si la société se prépare à l'avance avec des normes, des investissements publics et une culture civique, ou si elle attend que la crise force le changement.
Se réapproprier l'avenir de l'IA, c'est la traiter comme une infrastructure soumise à des règles démocratiques, et non comme une force mystique échappant à la politique. Cela nécessite des critères de référence transparents, des audits indépendants, de solides protections du travail et une responsabilité claire, afin que ceux qui profitent de l'automatisation partagent la responsabilité de ses effets néfastes. Les lecteurs, les électeurs et les professionnels ont un rôle à jouer en insistant pour que les outils renforcent l'action humaine au lieu de l'éroder. La réponse à la question de savoir si l'IA sert l'humanité ne viendra pas d'un chatbot. Elle viendra des lois écrites, des produits acceptés et des institutions auxquelles on fera confiance dans les années à venir.
- Remettre en question les systèmes d'IA qui cachent leurs sources de données, leurs limites ou leurs incitations.
- Soutenir les réglementations qui renforcent la transparence, l'audit et la réparation.
- Favoriser les outils qui permettent à l'homme de rester en charge des décisions critiques.
- Participez aux débats sur le lieu de travail concernant la manière dont l'IA remodèle les tâches et les compétences.
- Apprenez à vos enfants à considérer l'IA comme un assistant faillible et non comme une autorité.


