Donnerstag , 21 August 2025
Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 zu konkurrieren

Apple veröffentlicht 8 kleine KI-Sprachmodelle, um mit Microsofts Phi-3 zu konkurrieren

Auf decrypt.co ist ein neuer Beitrag erschienen: “Apple Releases 8 Small AI Language Models To Compete Wit Microsoft’s Phi-3”

Das wichtigste in Kürze:

  • **Apple stellt 8 kleine AI-Modelle als OpenELM zur Verfügung:** Diese kompakten Tools sind darauf ausgelegt, auf Geräten offline zu laufen und eignen sich besonders für Smartphones.
  • **Verschiedene Versionen und Anwendungsmöglichkeiten:** Die OpenELM-Modelle werden in Versionen mit bis zu 3 Milliarden Parametern angeboten. Nutzer können aus vortrainierten oder anweisungsabgestimmten Versionen wählen, die sich für verschiedene Anwendungsfälle eignen, wie z.B. Assistenten für E-Mails und Texte.
  • **Transparenz und Code-Teilung:** Apple hat die Modelle auf öffentlich verfügbaren Datensätzen trainiert und sowohl den Code für die verwendete Bibliothek als auch die “Rezepte” für die Modelle geteilt, was Nutzern Einblicke in die Entwicklung ermöglicht.
  • **Konkurrenz von Microsoft und potenzielle Anwendung im Vergleich:** Microsoft hat Phi-3 Mini angekündigt, ein leistungsfähiges Sprachmodell, das lokal ausgeführt werden kann. Mit offener Quellcode und geringem Ressourcenverbrauch könnte es traditionelle Assistenten wie Siri oder Gemini möglicherweise ersetzen.
  • **Vorteile von Apple-Hardware für lokale AI-Nutzung:** Apples Fähigkeit, den Geräte-RAM mit GPU-Video-RAM zu kombinieren, bietet Vorteile für die lokale AI-Nutzung. Im Vergleich zu Windows-Geräten, bei denen RAM und GPU-VRAM getrennt sind, stellt dies eine Effizienzsteigerung dar. Dennoch hinkt Apple in der AI-Entwicklung hinter Windows/Linux hinterher, da Nvidia-Hardware zugunsten eigener Chips ausgeblendet wurde.

Eroberung des AI-Marktes: Apples Strategischer Schachzug mit OpenELM

Die künstliche Intelligenz (AI) wird zunehmend zum Herzstück moderner Technologien, und Unternehmen wie Apple erkennen die Bedeutung von leistungsstarken AI-Modellen. In einem strategischen Schritt hat Apple nun einen Schritt in Richtung Eroberung des wettbewerbsintensiven AI-Marktes unternommen, indem es acht kleine AI-Modelle veröffentlicht hat, die zusammen als OpenELM bekannt sind. Diese kompakten Werkzeuge sind darauf ausgelegt, auf Geräten offline zu laufen und eignen sich perfekt für Smartphones.

OpenELM-Modelle: Ein Überblick über Apples Innovation

Die OpenELM-Modelle, die auf der Open-Source-AI-Community Hugging Face veröffentlicht wurden, sind in Versionen mit 270 Millionen, 450 Millionen, 1,1 Milliarden und 3 Milliarden Parametern erhältlich. Nutzer haben die Möglichkeit, entweder die vortrainierten oder die anweisungsabgestimmten Versionen von Apple’s OpenELM herunterzuladen.

Vorteile der Vortrainierten und Anweisungsabgestimmten Modelle

Die vortrainierten Modelle dienen als Basis, auf der Nutzer Feinabstimmungen und Entwicklungen vornehmen können. Die anweisungsabgestimmten Modelle sind bereits darauf programmiert, Anweisungen zu befolgen, was sie für Unterhaltungen und Interaktionen mit Endbenutzern besser geeignet macht.

Anwendungsmöglichkeiten der OpenELM-Modelle

Obwohl Apple keine spezifischen Anwendungsfälle für diese Modelle genannt hat, könnten sie beispielsweise für die Ausführung von Assistenten verwendet werden, die E-Mails und Texte analysieren oder intelligente Vorschläge basierend auf den Daten liefern. Dieser Ansatz ähnelt dem von Google, das sein Gemini AI-Modell in seiner Pixel-Smartphone-Reihe eingesetzt hat.

Einblick in die Entwicklung von Apple’s OpenELM-Modellen

Die Modelle wurden auf öffentlich verfügbaren Datensätzen trainiert, und Apple teilt sowohl den Code für CoreNet (die Bibliothek zum Training von OpenELM) als auch die “Rezepte” für seine Modelle. Nutzer haben also die Möglichkeit, nachzuvollziehen, wie Apple sie entwickelt hat.

Die Konkurrenz und Apples Position im AI-Markt

Mit der Veröffentlichung von Phi-3 Mini kündigte Microsoft kürzlich eine Familie von kleineren Sprachmodellen an, die lokal ausgeführt werden können. Phi-3 Mini hat 3,8 Milliarden Parameter und ist in der Lage, mit 3,3 Billionen Tokens trainiert zu werden, wodurch es vergleichbar mit GPT-4 ist.

Vor- und Nachteile der Hardware für die lokale AI-Nutzung

Apple-Hardware bietet Vorteile für die lokale AI-Nutzung, insbesondere durch die Möglichkeit, den Geräte-RAM mit dem GPU-Video-RAM zu kombinieren. Im Gegensatz dazu gibt es bei Windows-Geräten einen Nachteil, da Geräteram und GPU-VRAM getrennt sind.

Ihre Einführung von AI-Funktionen in kommenden Softwareupdates zeigt, dass Apple darauf bedacht ist, Nutzerdaten auf Geräten zu verarbeiten, um die Privatsphäre zu schützen.

Insgesamt verdeutlicht dieser Schritt von Apple seine Ambitionen im AI-Bereich und unterstreicht die Bedeutung von lokalen, effizienten AI-Modellen für die zukünftige Technologieentwicklung.

Mehr zum Thema:

#AI, #Apple, #OpenELM, #künstlicheIntelligenz, #Technologieentwicklung

Quelle:

Zum englischen Artikel auf Decrypt

Check Also

Wird die Verwendung von KI wie ChatGPT Sie dümmer machen? Wissenschaftler äußern sich

Wird die Verwendung von KI wie ChatGPT Sie dümmer machen? Wissenschaftler äußern sich

Die Forscher kommen zu dem Schluss, dass die zunehmende Nutzung von ChatGPT unter Studenten „zur Tendenz zum Aufschieben und Gedächtnisverlust führt“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert