Cloudflare, spécialiste mondial de la connectivité cloud, vient d’annoncer une série de partenariats stratégiques visant à accélérer son développement dans le domaine de l’intelligence artificielle.
Les porte-paroles de Cloudflare sont disponibles pour échanger avec vous si vous souhaitez en savoir plus sur ces différents rapprochements dont voici quelques détails ci-après. Vous pouvez accéder aux communiqués de presse en cliquant sur les
Databricks est une entreprise spécialisée dans les données et l’IA qui propose un service managé pour MLflow, la plateforme open source qui permet de gérer le cycle de vie du machine learning. Avec ce partenariat, Cloudflare va proposer les capacités de MLflow aux développeurs qui travaillent sur sa plateforme serverless. En rejoignant le projet open source MLflow en tant que contributeur actif, Cloudflare va faciliter le déploiement des modèles d’IA sur son réseau global, rapprochant ainsi leur exécution des utilisateurs finaux qui bénéficieront d’une expérience à faible latence.
NVIDIA et Cloudflare ont conclu un partenariat afin de déployer des processeurs graphiques NVIDIA, combinés avec des commutateurs Ethernet NVIDIA, à la périphérie, via le réseau de Cloudflare. Ce déploiement vise rapprocher la puissance de calcul des utilisateurs, où qu’ils se trouvent dans le monde. Ils pourront ainsi exécuter des charges de travail d’IA à grande échelle et donc accélérer les performances des applications d’IA, en ne payant seulement la puissance de calcul dont ils ont besoin.
Hugging Face est une plateforme open source qui aide les développeurs à déployer facilement des modèles d’IA de manière abordable. Avec ce partenariat, Cloudflare va devenir le processeur graphique serverless de prédilection pour le déploiement des modèles Hugging Face. Ainsi, les développeurs vont pouvoir déployer rapidement et facilement de l’IA à l’échelle mondiale, sans avoir à gérer d’infrastructure ni à payer de la capacité informatique qu’ils n’utiliseraient pas.
Meta, maison mère de Facebook, propose Llama 2, un grand modèle de langage (LLM) open-source. Grace à ce partenariat Cloudflare le met à la disposition des développeurs d’applications IA sur sa plateforme Workers.
Jusqu’à récemment, la seule possibilité qui existait pour avoir accès à un LLM était de faire appel à des modèles propriétaires coûteux. Llama 2, un LLM publiquement accessible, permet aux développeurs d’exécuter et de déployer leurs propres LLM. Les plus d’un million de développeurs qui développent déjà sur Cloudflare y ont donc accès pour enrichir leurs applications.
Microsoft et Cloudflare ont conclu un partenariat pour permettre aux entreprises d’exécuter plus facilement les applications d’IA à l’emplacement correspondant le mieux à leurs besoins. Celles-ci pourront ainsi déployer avec fluidité des modèles IA dans un continuum informatique englobant les environnements d’appareils, de périphérie du réseau et de cloud, et ainsi, de maximiser les avantages des modèles informatiques centralisés et distribués. Cette approche permettra de répondre au mieux aux exigences en matière de bande passante, de latence, de connectivité, de traitement, de batterie/d’énergie, de souveraineté des données et de localisation d’une application ou d’un service