Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Mistral-AI-Modelle für Databricks Data Intelligence Platform

Databricks hat eine Partnerschaft inklusive Beteiligung an der Serie-A-Finanzierung von Mistral AI bekannt gegeben.
Databricks-Kunden können über den Databricks Marketplace auf Mistral-Modelle zugreifen, sie als optimierte Modell-Endpunkte durch Model Serving nutzen und sie durch Adaption an ihre eigenen Daten anpassen. Unternehmen können die Modelle von Mistral schnell für ihre generativen KI-Anwendungen nutzen, ohne Kompromisse bei Sicherheit, Datenschutz und Governance einzugehen.Für Benutzer, die mehr Präzision für bestimmte Anwendungsfälle benötigen, ist die Anpassung von Mistral-Modellen an eigene Daten durch Mosaic AI FM Adaptation möglich. Die serverlose Inferenz basiert laut Databricks auf einem einheitlichen Ansatz für Governance und Sicherheit.Diese offenen Modelle sind vollständig in die Databricks-Plattform integriert:
  • Mistral 7B ist ein kleines, aber leistungsstarkes dichtes Transformatormodell, das mit einer Kontextlänge von 8k trainiert wurde. Es ist, so der Anbieter, aufgrund seiner relativ geringen Größe von 7 Milliarden Parametern und seiner Modellarchitektur, die "Grouped Query Attention (GQA)" und "Sliding Window Attention (SWA)" nutzt, sehr effizient in der Bedienung.
  • Mixtral 8x7B ist ein Sparse Mixture of Experts Modell (SMoE), das eine Kontextlänge von 32k unterstützt und in der Lage ist, Englisch, Französisch, Italienisch, Deutsch und Spanisch zu verarbeiten. Es übertrifft laut Databricks Llama 2 70B in den meisten Benchmarks und bietet eine sechs Mal schnellere Inferenz dank seiner SMoE-Architektur, die nur 12 Milliarden Parameter während der Inferenz aktiviert, von insgesamt 45 Milliarden trainierten Parametern.
Der Databricks Marketplace ermöglicht Kunden die Mistral-Modelle aufzurufen, sich über ihre Fähigkeiten zu informieren und Anwendungsbeispiele kennenzulernen. Die Modelle können auf der gesamten Databricks-Plattform beispielsweise dafür genutzt werden, um Modelle mit Mosaic AI Model Serving, Batch-Inferenz mit Spark und Modell Inferenz in SQL mit AI Functions bereitzustellen.In diesem Blogbeitrag finden Sie technische Details der Zusammenarbeit.

Neueste Beiträge

Müssen Ziele SMART sein?
Wenn es um Ziele im Projektmanagement oder in der Führung einer Organisation geht, stoßen wir schnell und fast ausnahmslos auf das Akronym SMART. Was steckt dahinter, und kann es nicht auch sinnvolle Ziele geben, die nicht SMART sind?
8 Minuten
Managed DevOps Pools - Azure DevOps Pipelines Security
Agent Pools als Managed Service mit einfacher Integration in private Netzwerke und Authentisierung mittels Managed Identity tragen deutlich zur Sicherheit der Agent-Infrastruktur bei.
7 Minuten
7. Aug 2025
Browser-Apps mit Avalonia entwickeln - Avalonia
Klassische UI-Frameworks finden ihren Weg in den Browser
7 Minuten
11. Aug 2025
Miscellaneous

Das könnte Dich auch interessieren

Sicher ist sicher - Azure DevOps Pipelines Security
Als integraler Bestandteil der Entwicklungsumgebung ist Azure DevOps Pipelines oft Ziel von Angriffen. Da ist es gut zu wissen, wo die Schwachstellen des Systems liegen.
14 Minuten
16. Jun 2025
Testarchitektur: Warum wir mehr als QA brauchen - Interview
Wenn Testautomatisierung nicht reicht und QA-Rollen an ihre Grenzen stoßen, braucht es jemanden, der das große Ganze sieht – und auch zusammenhält. Marco Achtziger im Interview.
3 Minuten
25. Jul 2025
CodeProject.AI Server in neuer Version - Lokaler AI-Server
CodeProject.AI Server (jetzt in Version 2.1.10) ist ein lokal installierter, selbstgehosteter, schneller, kostenloser und Open Source Artificial Intelligence Server für jede Plattform und jede Sprache.
2 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige