PARTNER
Künstliche Intelligenz – Partnerschaften
Bahnbrechende Unternehmen im Bereich generative KI setzen ihr Vertrauen in Cloudflare
Cloudflare R2 Storage – ein verteilter Objektspeicher ohne Egress-Kosten – stellt eine wichtige Infrastruktur für führende Anbieter von generativer künstlichen Intelligenz (KI) bereit. Diese Partnerschaften helfen KI-Infrastrukturunternehmen dabei, sich nicht fest an bestimmte Anbieter binden zu müssen und das Training von Modellen generativer KI zugänglich und erschwinglich machen.
Übersicht
Generative KI stützt sich auf leistungsstarke GPUs für eine effiziente parallele Verarbeitung. Mit Cloudflare Workers AI können Benutzer Machine Learning-Modelle auf serverlosen GPUs innerhalb des globalen Netzwerks von Cloudflare einsetzen. Da Startups im Bereich der generativen KI, die KI-Modelle trainieren, mit Engpässen bei der Rechenkapazität von Cloud-Anbietern konfrontiert sind, sorgt Cloudflare für Flexibilität, indem es R2 als Objektspeicher für Trainingsdaten verwendet. So können Kunden den besten GPU-Cloud-Anbieter auf der Grundlage von Kapazität, Kosten und Performance ohne Gebühren für die Datenübertragung auswählen.
Unsere Partner
Cloudflare arbeitet mit führenden Unternehmen im generativen KI- und ML-Ökosystem zusammen, darunter solche, die beliebte Basismodelle anbieten - integriert mit R2 Object Storage für Datensätze, die beim Training verwendet werden, Vectorize für Vektoreinbettungen und AI Gateway für Caching, Rate Limiting und Analytics. Diese Partnerschaften stellen sicher, dass die Kunden die Möglichkeit haben, KI-Anwendungen mit den Tools ihrer Wahl auf einfache und kosteneffiziente Weise zu erstellen und einzusetzen.
Unsere Kunden
KI-Firmen wie Character.ai, Leonardo.ai, Lexica.art und SiteGPT.ai lassen sich von Cloudflare die nötigen Tools bereitstellen, um Nutzer auf der ganzen Welt in Echtzeit unter anderem mit Inferenzen und Bildern zu versorgen und ihnen Unterhaltungen zu ermöglichen.
Das sagen unsere Partner
„Hier bei CoreWeave entwickeln wir Infrastrukturen für rechenintensive Anwendungsfälle und ermöglichen es Unternehmen, die Art und Weise, wie wir mit Technologie umgehen, durch generative KI und LLMs zu verändern. Durch diese Spezialisierung erhalten unsere Kunden Zugang zu der Anzahl und Vielfalt an GPUs, die sie benötigen, und zwar auf einer Infrastruktur, die speziell für die Performance, Agilität und Effizienz entwickelt wurde, die KI-Workloads benötigen. Durch die Partnerschaft mit R2 Storage von Cloudflare können wir das Data-Lock-in, die durch ausufernde Egress-Gebühren bei Hyperscalern verursacht wird, weiter verringern und Multi-Cloud für Unternehmen, die davon profitieren, auf sinnvolle Weise ermöglichen.“
-Max Hjelm
Vice President, Sales