Accélérez vos découvertes en matière d'IA avec le système sur puce NEXCOM FTA 5190 et Xeon® 6

Brève présentation de la plateforme et de son rôle dans les déploiements de l'edge AI.

Accélérer la compréhension en plaçant le calcul à proximité des sources de données, à l'aide d'un serveur compact conçu pour les besoins de l'entreprise. cybersécurité et l'analyse à haut débit.

L'intelligence artificielle avec NEXCOM FTA 5190 et le SoC Xeon 6

Le NEXCOM FTA 5190 associe un système sur puce Xeon 6 à une accélération IA intégrée pour les tâches de périphérie. La conception vise la cybersécurité, les services sécurisés en périphérie, la fourniture de contenu et l'analyse en temps réel dans des racks à espace limité.

Un opérateur fictif, EdgeSecure, a utilisé le FTA 5190 pour consolider les systèmes de pare-feu, d'inférence et de contrôle de la qualité. CDN dans un seul nœud de 1U. Les résultats ont montré une diminution de la latence et du nombre d'appareils au sol.

L'intelligence artificielle au service de la cybersécurité et de la diffusion de contenu

Les choix matériels se concentrent sur le débit et la décharge cryptographique. Intel QAT Gen 5 et l'accélération Hyperscan réduisent la surcharge du processeur pour les charges de travail de recherche et de compression.

La densité de mise en réseau répond aux besoins des télécoms avec plusieurs ports fibre 25GbE et des ports cuivre 1GbE pour des combinaisons flexibles de liaisons montantes.

  • Principaux cas d'utilisation : cybersécurité, inférence Edge AI, services sécurisés en périphérie, CDN haute performance.
  • Matériel de base : jusqu'à 36 cœurs, accélération de l'IA, Intel QAT Gen 5 pour la compression et la cryptographie.
  • Facteur de forme : serveur compact 1U pour les armoires de télécommunication et les racks denses.
SpécificationsFTA 5190 ValeurPertinence
UNITÉ CENTRALEJusqu'à 36 cœurs Xeon 6 SoCCalculs parallèles pour l'inférence
Accélération de l'IAAccélérateurs intégrésRéduction du temps de latence pour les modèles à la périphérie
Moteur cryptographiqueIntel QAT Gen 5TLS et compression plus rapides
Mise en réseauHuit fibres 25GbE, huit cuivre 1GbEConsolidation des services multiples
Facteur de formeMontage en rack 1UConvient aux baies de télécommunication et d'entreprise

Des lectures clés et des références de produits provenant de points de vente de l'industrie fournissent des détails techniques plus approfondis.

Dernier conseil pour cette section, veillez à ce que la densité du matériel soit alignée sur les exigences de refroidissement du rack.

Analyse comparative des performances pour les charges de travail de l'IA en périphérie

Des tests indépendants mettent en évidence le traitement des paquets, la réduction de la latence de recherche et les gains de compression. Les résultats mesurés offrent une image claire aux opérateurs qui planifient leur capacité.

EdgeSecure a exécuté des charges de travail mixtes pour valider les performances réelles des tâches de sécurité et d'analyse.

Gains mesurés en matière d'analyse, de compression et de traitement des paquets

Parmi les points forts des tests, citons l'absence de perte de paquets lors du traitement de plus de 4,3 millions de paquets à 20 Gbps. L'accélération Hyperscan a permis de réduire la latence de la recherche de source ouverte des bases de données analytiques.

Intel QAT a augmenté les taux de compression jusqu'à 40 % et amélioré le débit d'écriture de 27 % pendant les flux de données accélérés.

  • Aucune perte de paquets à 20 Gbps sur 4,3 millions de paquets traités.
  • Réduction de la latence de recherche grâce à Hyperscan dans les requêtes analytiques.
  • Amélioration du taux de compression jusqu'à 40 %, débit d'écriture jusqu'à 27 %.
LIRE  Les pièges de l'IA : comment l'augmentation du nombre de données peut conduire à des conclusions erronées
MétriqueRésultat mesuréImpact opérationnel
Perte de paquets0 paquet à 20Gbps sur 4,3M paquetsTraitement fiable des paquets en périphérie pour les dispositifs de sécurité
Temps de latence de la rechercheRéduction significative grâce à HyperscanChasse aux menaces et analyse plus rapide
CompressionJusqu'à 40 % d'amélioration du ratioRéduction des coûts de stockage et de bande passante
Débit d'écritureJusqu'à 27 % d'augmentationUne ingestion plus rapide pour la journalisation et la télémétrie

Les équipes opérationnelles doivent définir les combinaisons de charges de travail prévues avant de faire évoluer un parc de serveurs périphériques.

  • Exécutez des profils de trafic représentatifs pour la charge de paquets et de CPU.
  • Valider le comportement de la compression pour les solutions de stockage attachées.
  • Mesurer la latence de l'inférence du modèle avec des flux d'entrée réels.

Pour de plus amples informations techniques, consultez les notes d'information des fournisseurs et les analyses de tiers lors de la planification de la capacité.

L'essentiel est de valider les performances dans des conditions de charge maximale avant de procéder à un déploiement à grande échelle.

L'intelligence artificielle au service du déploiement, des partenaires et de l'échelle

Les choix de déploiement déterminent le coût total, la latence et la complexité de l'intégration. La FTA 5190 s'intègre dans les nuages publics, les nuages privés et les piles de télécommunications pour les stratégies hybrides.

EdgeSecure a utilisé Microsoft Azure pour l'orchestration tout en associant le FTA 5190 à des GPU NVIDIA pour les tâches d'inférence lourdes aux points de présence régionaux.

Intégration de l'écosystème avec les fournisseurs de serveurs et de services en nuage

Les principaux fournisseurs proposent du matériel et des services complémentaires pour les déploiements en périphérie. Hewlett Packard Enterprise et Dell Technologies fournissent des plates-formes de rack et de gestion. IBM et Supermicro proposent des configurations validées par les entreprises. Lenovo propose des options de serveurs compacts pour les sites restreints.

Les services en nuage tels que Microsoft Azure gèrent l'orchestration et la gestion du cycle de vie des nœuds périphériques. Les partenariats OEM réduisent les risques d'intégration et accélèrent le temps de mise en service.

  • Orchestration dans le nuage : Microsoft Azure pour l'approvisionnement et les mises à jour à distance.
  • Couplage de GPU : Accélérateurs NVIDIA pour l'inférence à haut débit.
  • Partenaires matériels : Hewlett Packard Enterprise, Dell Technologies, IBM, Supermicro, Lenovo pour des déploiements variés.
Type de déploiementPartenaires typiquesPrincipal avantage
Bordure gérée dans l'informatique en nuageMicrosoft Azure, Dell TechnologiesOrchestration et correctifs centralisés
Bordure TelcoHewlett Packard Enterprise, SupermicroConnectivité à faible latence et support de niveau opérateur
Entreprise sur siteIBM, LenovoSouveraineté des données et contrôle étroit
HybrideMicrosoft Azure, NVIDIAÉquilibre entre l'échelle et la transformation locale

Les étapes recommandées pour les projets pilotes et les déploiements comprennent la validation du matériel, la coordination des partenaires et la mise à l'échelle progressive.

  • Valider les chemins d'accès au réseau et la capacité de liaison montante avant le déploiement.
  • Aligner les fenêtres de maintenance sur les politiques d'orchestration du cloud.
  • Effectuer des essais sur le terrain avec un trafic représentatif pendant au moins deux semaines.

Une analyse supplémentaire des politiques et de la protection de la vie privée permet de réduire le risque réglementaire pour les projets d'intelligence artificielle.

Dernier conseil pour cette section : choisissez des partenaires qui s'alignent sur votre modèle opérationnel et vos exigences en matière de latence.

LIRE  Situation actuelle du marché des cryptomonnaies : L’appel urgent à « Rester en vie »