Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Mistral-AI-Modelle für Databricks Data Intelligence Platform

Databricks hat eine Partnerschaft inklusive Beteiligung an der Serie-A-Finanzierung von Mistral AI bekannt gegeben.
Databricks-Kunden können über den Databricks Marketplace auf Mistral-Modelle zugreifen, sie als optimierte Modell-Endpunkte durch Model Serving nutzen und sie durch Adaption an ihre eigenen Daten anpassen. Unternehmen können die Modelle von Mistral schnell für ihre generativen KI-Anwendungen nutzen, ohne Kompromisse bei Sicherheit, Datenschutz und Governance einzugehen.Für Benutzer, die mehr Präzision für bestimmte Anwendungsfälle benötigen, ist die Anpassung von Mistral-Modellen an eigene Daten durch Mosaic AI FM Adaptation möglich. Die serverlose Inferenz basiert laut Databricks auf einem einheitlichen Ansatz für Governance und Sicherheit.Diese offenen Modelle sind vollständig in die Databricks-Plattform integriert:
  • Mistral 7B ist ein kleines, aber leistungsstarkes dichtes Transformatormodell, das mit einer Kontextlänge von 8k trainiert wurde. Es ist, so der Anbieter, aufgrund seiner relativ geringen Größe von 7 Milliarden Parametern und seiner Modellarchitektur, die "Grouped Query Attention (GQA)" und "Sliding Window Attention (SWA)" nutzt, sehr effizient in der Bedienung.
  • Mixtral 8x7B ist ein Sparse Mixture of Experts Modell (SMoE), das eine Kontextlänge von 32k unterstützt und in der Lage ist, Englisch, Französisch, Italienisch, Deutsch und Spanisch zu verarbeiten. Es übertrifft laut Databricks Llama 2 70B in den meisten Benchmarks und bietet eine sechs Mal schnellere Inferenz dank seiner SMoE-Architektur, die nur 12 Milliarden Parameter während der Inferenz aktiviert, von insgesamt 45 Milliarden trainierten Parametern.
Der Databricks Marketplace ermöglicht Kunden die Mistral-Modelle aufzurufen, sich über ihre Fähigkeiten zu informieren und Anwendungsbeispiele kennenzulernen. Die Modelle können auf der gesamten Databricks-Plattform beispielsweise dafür genutzt werden, um Modelle mit Mosaic AI Model Serving, Batch-Inferenz mit Spark und Modell Inferenz in SQL mit AI Functions bereitzustellen.In diesem Blogbeitrag finden Sie technische Details der Zusammenarbeit.

Neueste Beiträge

DWX hakt nach: Wie stellt man Daten besonders lesbar dar?
Dass das Design von Websites maßgeblich für die Lesbarkeit der Inhalte verantwortlich ist, ist klar. Das gleiche gilt aber auch für die Aufbereitung von Daten für Berichte. Worauf besonders zu achten ist, erklären Dr. Ina Humpert und Dr. Julia Norget.
3 Minuten
27. Jun 2025
DWX hakt nach: Wie gestaltet man intuitive User Experiences?
DWX hakt nach: Wie gestaltet man intuitive User Experiences? Intuitive Bedienbarkeit klingt gut – doch wie gelingt sie in der Praxis? UX-Expertin Vicky Pirker verrät auf der Developer Week, worauf es wirklich ankommt. Hier gibt sie vorab einen Einblick in ihre Session.
4 Minuten
27. Jun 2025
„Sieh die KI als Juniorentwickler“
CTO Christian Weyer fühlt sich jung wie schon lange nicht mehr. Woran das liegt und warum er keine Angst um seinen Job hat, erzählt er im dotnetpro-Interview.
15 Minuten
27. Jun 2025
Miscellaneous

Das könnte Dich auch interessieren

UIs für Linux - Bedienoberflächen entwickeln mithilfe von C#, .NET und Avalonia
Es gibt viele UI-Frameworks für .NET, doch nur sehr wenige davon unterstützen Linux. Avalonia schafft als etabliertes Open-Source-Projekt Abhilfe.
16 Minuten
16. Jun 2025
Mythos Motivation - Teamentwicklung
Entwickler bringen Arbeitsfreude und Engagement meist schon von Haus aus mit. Diesen inneren Antrieb zu erhalten sollte für Führungskräfte im Fokus stehen.
13 Minuten
19. Jan 2017
Evolutionäres Prototyping von Business-Apps - Low Code/No Code und KI mit Power Apps
Microsoft baut Power Apps zunehmend mit Features aus, um die Low-Code-/No-Code-Welt mit der KI und der professionellen Programmierung zu verbinden.
19 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige