Mistral Small 3: Was kann das KI-Modell?

Die französische KI-Schmiede Mistral AI sorgt erneut für Aufsehen: Mit Mistral Small 3 präsentiert das Unternehmen ein leistungsfähiges Sprachmodell, das trotz seiner kompakten Größe mit deutlich größeren Systemen mithalten kann. Besonders überzeugt es durch niedrigere Kosten und eine schnellere Verarbeitung – ein echter Wendepunkt für Unternehmen, die auf effiziente KI setzen.


Mit einer Bewertung von 6 Milliarden Dollar etabliert sich Mistral als Europas führendes KI-Unternehmen und plant bereits seinen Börsengang. Der Fokus auf effiziente Open-Source-Modelle wie jetzt mit Mistral Small 3 könnte sich als wegweisend erweisen – insbesondere in einem Markt, in dem Tech-Giganten wie OpenAI und Anthropic auf immer größere und teurere Modelle setzen.

Das steckt in Mistral Small 3

Das Modell verfügt über 24 Milliarden Parameter und erreicht nach Angaben der Entwickler eine Genauigkeit von 81 % in gängigen Benchmarks. Mit einer Verarbeitungsrate von 150 Tokens pro Sekunde ist es schneller als viele größere Alternativen. Ein weiterer Vorteil: Mistral stellt das Modell unter der Apache-2.0-Lizenz zur Verfügung, sodass Unternehmen es flexibel anpassen und nutzen können. Mistral Small 3 sieht sich in Konkurrenz zu Meta Llama 3.3 70B, das aber dreimal größer ist.


Warum kleine Modelle die KI-Welt verändern

Die Veröffentlichung fällt in eine Zeit, in der steigende Kosten für KI-Entwicklung heiß diskutiert werden. Erst kürzlich behauptete das chinesische Start-up DeepSeek, ein wettbewerbsfähiges Modell für nur 5,6 Millionen Dollar trainiert zu haben – eine Nachricht, die den Marktwert von Nvidia um 600 Milliarden Dollar sinken ließ. Gut an den Angaben von Deepseek kann gezweifelt werden. Wahrscheinlich wurde dieser Betrag im letzten Entwicklungsschritt ausgegeben, aber einmal in der Welt kriegt man es nicht mehr raus.

Auch Mistral Small 3 will beweisen, dass hohe Leistung nicht zwangsläufig mit hohen Rechenkosten verbunden sein muss. Laut Benchmarks arbeitet es 30 % schneller als GPT-4o Mini, ohne an Präzision einzubüßen.

Statt auf immer größere Modelle zu setzen, verfolgt Mistral eine Strategie der optimierten Trainingsmethoden. Anstatt einfach mehr Rechenleistung einzusetzen, wurde die Architektur gezielt verbessert.

Laut dem Unternehmen wurde Mistral Small 3 mit 8 Billionen Tokens trainiert – weit weniger als vergleichbare Modelle, die oft 15 Billionen Tokens benötigen. Zudem verzichtet Mistral auf verstärkendes Lernen und synthetische Trainingsdaten, um Verzerrungen zu minimieren.

Zielgruppen von kleineren KI-Modellen

Besonders in den Bereichen Finanzen, Gesundheitswesen und Industrie profitieren Unternehmen von kompakten KI-Modellen. Mistral Small 3 kann auf einer einzigen lokalen GPU laufen und deckt laut Mistral 80–90 % der typischen Business-Anwendungen ab.

Man sieht man muss nicht immer nur „größer“ denken, um Erfolg zu haben. Der Fokus auf kleinere KI-Modelle, die spezielle Aufgaben und Projekte lösen könnte sich als wegweisend erweisen – auch in Bezug auf Ressourcen sparend.

Dieser Artikel erschien am und wurde am aktualisiert.
Veranstaltungstipp! Wir laden Sie ein zum kostenlosen Event: KI im Fokus

In eigener Sache: Die Welt der künstlichen Intelligenz entwickelt sich rasant. Um stets auf dem Laufenden zu halten, führen wir (ich) einen monatlichen Online-Impuls im und beim Digitalzentrum Zukunftskultur durch. Immer am letzten Donnerstag im Monat präsentieren wir in der kostenlosen Veranstaltung „KI im Fokus: Up to date in 30 Minuten“ interessante Entwicklungen und Neuigkeiten aus dem Bereich der Künstlichen Intelligenz des letzten Monats und das kurz und knapp in einer halben Stunde.

Der nächste Termin von KI im Fokus ist am 27. Februar 2025 von 12 Uhr bis 12:30 Uhr. Melden Sie noch heute an. Die Teilnahme ist kostenlos:
Nach oben scrollen