Perspectives de l'IA en 2025 : Le dernier bilan de l'année de Cloudflare brosse un tableau sans fard d'un Internet dominé par le trafic automatisé, l'adoption rapide du cryptage postquantique et le doublement de l'utilisation de la langue Go pour les clients API. Le trafic mondial a augmenté de 19 %, mais une part croissante de ces demandes provient de l'activité des robots d'IA plutôt que d'utilisateurs humains. Googlebot est resté en tête avec une part massive des recherches HTML, tandis que les agents pilotés par l'utilisateur, tels que les robots basés sur ChatGPT, ont multiplié leurs visites sans renvoyer aux éditeurs un trafic de référence équivalent. Pour les équipes et les ingénieurs chargés de la sécurité, cette évolution oblige à repenser en profondeur la planification des capacités, l'analyse et les modèles de monétisation.
Derrière l'augmentation du trafic, la technologie de cryptage a progressé à une vitesse record. Près de la moitié des sessions web humaines utilisent désormais le chiffrement post-quantique, contre moins d'un tiers au début de l'année. Dans le même temps, les clients API basés sur Go ont presque doublé leur part d'appels automatisés, ce qui montre à quel point les priorités des développeurs évoluent rapidement lorsque les performances, la simultanéité et la sécurité deviennent stratégiques. Pour un fournisseur SaaS de taille moyenne comme l'entreprise fictive NetPulse, ces tendances convergent dans les opérations quotidiennes : pression croissante du scraping de l'IA, vagues de DDoS plus sévères et exigences plus strictes de la part des clients qui attendent à la fois la vitesse et la protection post-quantique par défaut.
Perspectives de l'IA en 2025 : Bilan de l'année Cloudflare pour le trafic et les bots
Le bilan de l'année de Cloudflare regroupe les données de son réseau mondial et du résolveur 1.1.1.1 pour quantifier la façon dont l'activité des robots d'intelligence artificielle a remodelé les schémas de trafic en 2025. L'utilisation globale d'Internet a augmenté d'environ 19 %, les plateformes telles que Google et les services de Meta continuant de dominer l'attention des utilisateurs. Les options de connectivité ont également évolué, les fournisseurs de services par satellite tels que Starlink se développant plusieurs fois plus rapidement que les réseaux d'accès traditionnels, ce qui modifie le profil de latence et de routage que les applications doivent prendre en charge.
Au sein de cette base de trafic en expansion, Cloudflare signale une forte augmentation de l'exploration liée à l'IA. Googlebot représente à lui seul environ 4,5 % de toutes les requêtes HTML sur les propriétés de Cloudflare, ce qui confirme son rôle central dans l'indexation de recherche classique et les pipelines d'entraînement à l'IA. Si l'on ajoute les agents déclenchés par l'utilisateur, tels que ChatGPT-User et d'autres outils similaires, l'exploration des "actions de l'utilisateur" a été multipliée par 15 par rapport à l'année précédente, ce qui correspond à l'explosion des assistants basés sur le chat intégrés dans les navigateurs et les outils de productivité.
Perspectives de l'IA en 2025 : ratios "crawl-to-refer" et valeur du contenu
L'une des mesures les plus frappantes du bilan de l'année de Cloudflare concerne les ratios "crawl-to-refer" pour les principales plateformes d'IA. Pour plusieurs grands fournisseurs d'IA, le nombre de visites de robots par visite de référence humaine à partir de leurs produits a grimpé en flèche. Anthropic a atteint des ratios allant jusqu'à 500 000 pour 1 dans des cas extrêmes, tandis qu'OpenAI a culminé autour de 3700 pour 1, soulignant la fréquence à laquelle leurs robots lisent les pages par rapport à la rareté des clics des utilisateurs à partir des réponses de l'IA.
Perplexity a montré le ratio crawl-to-refer le plus bas parmi les grandes plateformes d'IA, ce qui suggère une boucle de rétroaction plus forte entre les réponses et l'attribution de la source. Pour un éditeur comme le blog de NetPulse, ce détail se traduit par un impact commercial direct. L'activité des robots d'IA consomme de la bande passante, du calcul d'origine et des invalidations de cache avec un bénéfice limité si les utilisateurs ne visitent jamais le contenu original. Les journaux de trafic se remplissent de GPTBot, Bingbot, GoogleOther et d'autres agents similaires, tandis que les sessions humaines plafonnent ou même diminuent.
Les responsables techniques utilisent ces informations pour négocier les règles d'accès des robots, les limites tarifaires et les stratégies de monétisation. Certains introduisent des chemins d'accès réservés à l'IA, une mise en cache adaptée ou un accès basé sur des jetons pour les robots d'exploration à fort volume. En ce sens, le rapport de Cloudflare transforme un débat abstrait sur l'IA en une question concrète de gestion des opérations et des revenus.
Perspectives de l'IA en 2025 : bots dominants et part de trafic vérifiée
Au-delà des ratios, le bilan de l'année de Cloudflare indique quels sont les bots spécifiques qui génèrent le plus de visites automatisées. Googlebot est resté en tête, avec plus de 28 % du trafic provenant de bots vérifiés. Les services connexes de Google, tels que AdsBot, Image Proxy et GoogleOther, ont renforcé cette avance et montrent l'étendue de l'empreinte du crawling de l'entreprise dans les domaines de la publicité, de l'image et d'autres secteurs verticaux.
Le GPTBot d'OpenAI et le Bingbot de Microsoft suivent avec des parts respectives d'environ 7,5 % et 6 % du trafic de robots vérifié. Ensemble, ces acteurs définissent la majeure partie du profil d'activité des robots d'intelligence artificielle observé sur les serveurs d'origine. Pour NetPulse, dont le site de marketing et le portail de documentation se trouvent derrière Cloudflare, cela signifie que la charge générée par les robots n'est plus une tâche d'arrière-plan. Il s'agit d'un facteur de conception de premier ordre, au même titre que les pics humains lors des lancements de produits.
Perspectives de l'IA en 2025 : la gestion de l'indexation agressive en pratique
La gestion de cette pression du crawling entraîne de nouvelles pratiques dans de nombreuses équipes. Les ingénieurs s'appuient de plus en plus sur les règles WAF et la gestion des robots pour différencier les robots d'indexation légitimes des scrapers non vérifiés. L'échantillonnage et l'agrégation des logs deviennent essentiels pour éviter de se noyer dans les données brutes des requêtes. Dans le même temps, les chefs de produit suivent la fréquence à laquelle les réponses de l'IA incluent des mentions de marque ou des liens, afin d'évaluer si le crawling à haut volume mérite un feu vert.
L'optimisation des performances va de pair avec cette démarche. Étant donné que les bots accèdent aux pages à la vitesse de la machine, NetPulse a optimisé les stratégies de mise en cache à la périphérie de Cloudflare et a retravaillé certains actifs pour qu'ils se chargent plus rapidement. Les articles sur les performances des navigateurs font référence à des méthodes pratiques telles que celles décrites dans des guides tels que améliorer la vitesse de votre navigateur webEn effet, un site rapide et allégé sert plus efficacement les utilisateurs humains et les clients automatisés. La dernière leçon à retenir est simple : les robots se comportent comme des utilisateurs impatients à grande échelle, et chaque milliseconde compte.
Perspectives de l'IA en 2025 : L'adoption du chiffrement postquantique atteint 50 pour cent
Sur le plan de la sécurité, le bilan de l'année de Cloudflare montre que l'adoption du chiffrement postquantique atteindra environ 50 % du trafic humain sur le web d'ici à la fin 2025. Au début de l'année, cette part avoisinait les 29 %. Cette croissance rapide reflète le déploiement concret de l'échange de clés post-quantique dans les navigateurs, les CDN et les grands services, et pas seulement les discussions théoriques dans les cercles de cryptographie.
L'élément moteur est le modèle de menace "récolter maintenant, décrypter plus tard". Les attaquants capturent aujourd'hui des données chiffrées en espérant que les futurs ordinateurs quantiques briseront les algorithmes classiques. Lorsque le chiffrement postquantique enveloppe ces sessions, le risque de confidentialité à long terme diminue fortement. Pour NetPulse, qui traite les données d'analyse et d'API des clients, cela est important pour se conformer aux exigences plus strictes en matière de conservation des données et de protection de la vie privée imposées par les entreprises clientes.
Perspectives de l'IA en 2025 : technologie de cryptage et compromis en matière de performances
Le passage à des suites post-quantiques a soulevé des inquiétudes quant à la taille de la poignée de main, à l'impact sur le processeur et à la latence. Les mesures de Cloudflare montrent que les implémentations modernes minimisent ces coûts, en particulier lorsqu'elles sont associées à HTTP/3 et à une terminaison TLS efficace à la périphérie. Pour la plupart des utilisateurs, le seul changement notable est une meilleure protection à long terme, et non des pages plus lentes.
Les investisseurs et les analystes spécialisés dans la sécurité suivent ces changements de près. Les rapports sur les actions de cybersécurité mettre en évidence les fournisseurs dont la feuille de route en matière de technologie de cryptage est solide, y compris en ce qui concerne la prise en charge de la technologie post-quantique. Pour les leaders technologiques, le bilan de l'année écoulée est clair. Les capacités post-quantiques sont passées du stade expérimental à celui de courant dominant, et tout nouveau produit dépourvu de plan de migration risque d'être à la traîne des attaquants et des attentes en matière de conformité.
Perspectives de l'IA en 2025 : L'utilisation de la langue Go double pour le trafic API
Une autre constatation essentielle de la revue de l'année de Cloudflare concerne les écosystèmes de backend et d'API. Parmi les demandes d'API automatisées, environ 20 % proviennent désormais de clients basés sur le langage Go, contre 12 % environ l'année précédente. En d'autres termes, l'utilisation du langage Go double en part relative, tandis que Python, Java et Node.js conservent de fortes positions mais progressent plus lentement dans ce segment spécifique.
Ce changement correspond à ce que de nombreuses équipes rapportent. Go offre des primitives de concurrence simples, un bon comportement en mémoire et un déploiement direct sous forme de binaires statiques. Pour NetPulse, la réécriture d'un collecteur de métriques Node.js en Go a permis de réduire la latence p95 et l'utilisation de la mémoire dans des conditions de pointe de " bot scraping ". Avec l'activité des robots d'IA qui génère des rafales de requêtes d'API, de tels gains d'efficacité réduisent directement les coûts d'infrastructure.
Perspectives de l'IA en 2025 : choix de la langue, API et posture de sécurité
L'adoption d'un langage est également liée à la sécurité et à la facilité de maintenance. L'écosystème de Go comprend des clients HTTP et des bibliothèques gRPC populaires qui s'intègrent bien aux piles d'observabilité, ce qui permet de détecter les anomalies dans le trafic causées par des bots ou des clients abusifs. Combinées aux analyses de Cloudflare, les équipes obtiennent une image plus claire de la façon dont leurs API se comportent en cas de stress.
Dans le même temps, les piles plus anciennes telles que PHP et Java classique continuent de dominer de nombreux sites de premier plan, selon les scans Cloudflare Year in Review à travers les domaines populaires. Les frameworks JavaScript tels que React sont toujours en tête pour les interfaces utilisateur, suivis par Vue et d'autres. Plutôt qu'un changement soudain, le doublement de la part du langage Go indique un recalibrage progressif dans les couches où la concurrence et le débit comptent le plus, en particulier dans les profils de trafic pilotés par l'IA.
Perspectives de l'IA en 2025 : DDoS, pannes et pressions réelles en matière de cybersécurité
Le bilan de l'année indique également que les pressions en matière de cybersécurité se sont intensifiées. Cloudflare a observé des attaques hyper-volumétriques record au niveau des couches 3 et 4 du réseau, dépassant souvent un térabit par seconde ou un milliard de paquets par seconde. Il ne s'agit pas de tests théoriques en laboratoire, mais de tentatives réelles contre des services critiques, notamment des fournisseurs qui soutiennent la société civile, les médias et les plateformes financières.
Les playbooks de réponse aux incidents de NetPulse supposent désormais explicitement que les incidents DDoS se mélangent avec des pics d'activité des robots d'intelligence artificielle. Par exemple, une augmentation soudaine du nombre de robots d'exploration "légitimes" peut masquer une inondation simultanée de trafic indésirable provenant d'un réseau de zombies. Les analyses de campagnes telles que le DDoS du botnet Shadowv2 sur AWS montrent comment les attaquants coordonnent de grands essaims IoT avec le bruit de la couche d'application pour contourner les seuils naïfs. Le rapport de Cloudflare fonctionne comme un résumé de test de stress pour cet environnement.
Perspectives de l'IA en 2025 : pannes, fermetures et perturbations induites par les politiques
Il est intéressant de noter que près de la moitié des pannes majeures enregistrées dans le bilan de l'année de Cloudflare n'étaient pas dues à des défaillances techniques pures. Elles étaient dues à des fermetures planifiées, souvent ordonnées pour réduire la tricherie pendant les examens universitaires ou pour contrôler l'agitation pendant les manifestations. Les coupures de fibre, y compris les incidents liés aux câbles sous-marins, ont représenté une autre part importante des perturbations dans les différentes régions.
Pour NetPulse et les plateformes SaaS similaires, cela signifie que les plans de continuité des activités doivent prendre en compte les pannes techniques et politiques. Un déploiement multirégional et des fournisseurs de transit diversifiés aident, mais l'expérience des utilisateurs souffre toujours lorsque des pays entiers étranglent ou bloquent le trafic. L'observabilité des outils Radar de Cloudflare donne aux équipes opérationnelles des signaux précoces sur les problèmes régionaux afin qu'elles puissent adapter les politiques de routage ou informer les clients rapidement.
Perspectives de l'IA en 2025 : adoption, performances et attentes des utilisateurs
Dans tous ces domaines, un modèle apparaît de façon récurrente dans le bilan de l'année Cloudflare. L'adoption de nouvelles technologies tend à suivre les attentes des utilisateurs en matière de rapidité et de sécurité, et non à s'en détacher. L'adoption du cryptage post-quantique a progressé parce que les navigateurs et les principales plates-formes l'ont adopté sans ajouter de frictions. L'utilisation du langage Go double pour les API car les ingénieurs préfèrent des outils simples et rapides lorsque la charge de trafic s'accélère.
Les utilisateurs finaux continuent de juger les services en fonction de leur réactivité et de leur fiabilité. C'est pourquoi l'optimisation des performances joue un rôle si important dans le référencement et la fidélisation des utilisateurs. Des guides tels que optimisation de la vitesse du navigateur peut se concentrer sur le côté client, mais des principes similaires s'appliquent au backend : réduire les allers-retours, compresser les actifs et simplifier les chemins d'accès. L'activité des robots d'intelligence artificielle et les frais généraux de cryptage amplifient les pénalités liées à une conception inefficace, de sorte que chaque requête gaspillée ou chaque script lourd fait plus mal qu'auparavant.
Perspectives de l'IA en 2025 : liste de contrôle pratique pour les responsables techniques
Pour traduire les conclusions de la Revue de l'année de Cloudflare en mesures concrètes, les responsables techniques les condensent souvent en une courte liste de contrôle. Le conseil d'architecture de NetPulse, par exemple, examine les points suivants lors de sessions de planification trimestrielles afin d'aligner les priorités en matière d'infrastructure et de produits.
- Vérifier le trafic des robots et définir des politiques explicites pour les principaux robots d'indexation, y compris des limites de débit et des chemins d'accès autorisés.
- Activer et surveiller le chiffrement postquantique sur les connexions d'origine et de périphérie, avec des données de référence sur les performances avant et après le déploiement.
- Réévaluer les implémentations des clients API et envisager Go pour les intégrations à haut débit ou sensibles à la latence.
- Renforcer la protection contre les attaques DDoS à la fois au niveau du réseau et des applications, et répéter la réponse aux incidents avec des scénarios d'attaque réalistes.
- Suivre les modèles de panne régionaux et intégrer des plans de routage, de mise en cache et de communication avec les utilisateurs qui tiennent compte des fermetures imposées par les politiques.
Chacun de ces points est directement lié aux mesures du bilan de l'année, ce qui transforme le document d'un rapport passif en un outil de planification. L'exécution de cette liste de contrôle prépare les équipes à la prochaine vague de développements en matière d'IA, de trafic et de sécurité, au lieu de les laisser réagir sous la pression.
Notre avis
Le bilan de l'année 2025 de Cloudflare confirme un changement structurel. L'activité des robots d'IA n'est plus un effet secondaire de la recherche mais un moteur principal du trafic, et l'adoption du cryptage post-quantique montre que les préoccupations de sécurité à long terme influencent désormais l'ingénierie courante. L'utilisation du langage Go double pour les API car les équipes gravitent autour d'outils qui survivent à une concurrence élevée et à une automatisation intense sans complexité inutile.
Du point de vue de la cybersécurité, le rapport constitue à la fois un avertissement et une opportunité. L'avertissement réside dans les volumes records de DDoS, le routage fragile et le scraping agressif qui met à rude épreuve les ressources d'origine. L'opportunité vient de la maturité de la technologie de cryptage, des outils d'observabilité et des plates-formes de pointe qui permettent même aux entreprises de taille moyenne d'opérer avec des défenses autrefois réservées aux grandes entreprises de grande taille. Pour les entreprises qui sont prêtes à considérer l'année écoulée comme un carnet de commandes plutôt que comme une curiosité, le prochain cycle de croissance de l'internet s'annonce exigeant mais gérable.


