Suse veut superviser les workloads IA

Suse veut aider les entreprises avec l'IA en proposant Suse AI. Cette stack étend Rancher Prime de l'éditeur.

SUSE AI garantit des opérations d'IA fluides, et permet de réduire les coûts indirects, d'améliorer la visibilité sur les dépenses et de générer des économies grâce à :

  • Proxy universel : Le proxy de Protocole de Contexte de Modèle (MCP) intégré à SUSE AI, disponible en version d’évaluation technique, simplifie les connexions en centralisant la gestion de la prolifération des points d'accès MCP. Cela permet d'optimiser les coûts des modèles et de renforcer le contrôle de l'accès aux données. Cette fonctionnalité s'inscrit dans la lignée de l'introduction des composants MCP dans SUSE Linux Enterprise Server 16
  • Inférence d'IA accélérée : Le portefeuille élargi de moteurs d'inférence comprend des plateformes hautes performances comme vLLM. Elles fournissent une inférence LLM rapide, très efficace et évolutive, simplifiant la mise en production des modèles d'IA.
  • Observabilité de l'IA : En étendant les capacités fondamentales de SUSE Rancher Prime, SUSE AI intègre l'opérateur OpenTelemetry (OTel) pour l'auto-instrumentation. De plus, cette version inclut l'observabilité native pour Ollama, Open WebUI, Milvus via les pipelines Open WebUI, ainsi que des métriques d'observabilité optimisées pour la performance et la prévisibilité.

SUSE accélère l'adoption et la gouvernance de l'IA en renforçant ses partenariats stratégiques pour bâtir un écosystème complet et intégré. La collaboration avec des partenaires comme ClearML et Katonic pour les solutions MLOps & GenAI et de gestion d'infrastructure d'IA, AI & Partners pour la gouvernance et la conformité de l'IA, Avesha pour l'orchestration GPU et Altair, une société Siemens, pour les solutions HPC & IA, offre des solutions spécialisées et ciblées qui minimisent l'effort d'intégration et maximisent les capacités.

Lire plus