Das wichtigste in Kürze:
- **Apple stellt 8 kleine AI-Modelle als OpenELM zur Verfügung:** Diese kompakten Tools sind darauf ausgelegt, auf Geräten offline zu laufen und eignen sich besonders für Smartphones.
- **Verschiedene Versionen und Anwendungsmöglichkeiten:** Die OpenELM-Modelle werden in Versionen mit bis zu 3 Milliarden Parametern angeboten. Nutzer können aus vortrainierten oder anweisungsabgestimmten Versionen wählen, die sich für verschiedene Anwendungsfälle eignen, wie z.B. Assistenten für E-Mails und Texte.
- **Transparenz und Code-Teilung:** Apple hat die Modelle auf öffentlich verfügbaren Datensätzen trainiert und sowohl den Code für die verwendete Bibliothek als auch die “Rezepte” für die Modelle geteilt, was Nutzern Einblicke in die Entwicklung ermöglicht.
- **Konkurrenz von Microsoft und potenzielle Anwendung im Vergleich:** Microsoft hat Phi-3 Mini angekündigt, ein leistungsfähiges Sprachmodell, das lokal ausgeführt werden kann. Mit offener Quellcode und geringem Ressourcenverbrauch könnte es traditionelle Assistenten wie Siri oder Gemini möglicherweise ersetzen.
- **Vorteile von Apple-Hardware für lokale AI-Nutzung:** Apples Fähigkeit, den Geräte-RAM mit GPU-Video-RAM zu kombinieren, bietet Vorteile für die lokale AI-Nutzung. Im Vergleich zu Windows-Geräten, bei denen RAM und GPU-VRAM getrennt sind, stellt dies eine Effizienzsteigerung dar. Dennoch hinkt Apple in der AI-Entwicklung hinter Windows/Linux hinterher, da Nvidia-Hardware zugunsten eigener Chips ausgeblendet wurde.
Eroberung des AI-Marktes: Apples Strategischer Schachzug mit OpenELM
Die künstliche Intelligenz (AI) wird zunehmend zum Herzstück moderner Technologien, und Unternehmen wie Apple erkennen die Bedeutung von leistungsstarken AI-Modellen. In einem strategischen Schritt hat Apple nun einen Schritt in Richtung Eroberung des wettbewerbsintensiven AI-Marktes unternommen, indem es acht kleine AI-Modelle veröffentlicht hat, die zusammen als OpenELM bekannt sind. Diese kompakten Werkzeuge sind darauf ausgelegt, auf Geräten offline zu laufen und eignen sich perfekt für Smartphones.
OpenELM-Modelle: Ein Überblick über Apples Innovation
Die OpenELM-Modelle, die auf der Open-Source-AI-Community Hugging Face veröffentlicht wurden, sind in Versionen mit 270 Millionen, 450 Millionen, 1,1 Milliarden und 3 Milliarden Parametern erhältlich. Nutzer haben die Möglichkeit, entweder die vortrainierten oder die anweisungsabgestimmten Versionen von Apple’s OpenELM herunterzuladen.
Vorteile der Vortrainierten und Anweisungsabgestimmten Modelle
Die vortrainierten Modelle dienen als Basis, auf der Nutzer Feinabstimmungen und Entwicklungen vornehmen können. Die anweisungsabgestimmten Modelle sind bereits darauf programmiert, Anweisungen zu befolgen, was sie für Unterhaltungen und Interaktionen mit Endbenutzern besser geeignet macht.
Anwendungsmöglichkeiten der OpenELM-Modelle
Obwohl Apple keine spezifischen Anwendungsfälle für diese Modelle genannt hat, könnten sie beispielsweise für die Ausführung von Assistenten verwendet werden, die E-Mails und Texte analysieren oder intelligente Vorschläge basierend auf den Daten liefern. Dieser Ansatz ähnelt dem von Google, das sein Gemini AI-Modell in seiner Pixel-Smartphone-Reihe eingesetzt hat.
Einblick in die Entwicklung von Apple’s OpenELM-Modellen
Die Modelle wurden auf öffentlich verfügbaren Datensätzen trainiert, und Apple teilt sowohl den Code für CoreNet (die Bibliothek zum Training von OpenELM) als auch die “Rezepte” für seine Modelle. Nutzer haben also die Möglichkeit, nachzuvollziehen, wie Apple sie entwickelt hat.
Die Konkurrenz und Apples Position im AI-Markt
Mit der Veröffentlichung von Phi-3 Mini kündigte Microsoft kürzlich eine Familie von kleineren Sprachmodellen an, die lokal ausgeführt werden können. Phi-3 Mini hat 3,8 Milliarden Parameter und ist in der Lage, mit 3,3 Billionen Tokens trainiert zu werden, wodurch es vergleichbar mit GPT-4 ist.
Vor- und Nachteile der Hardware für die lokale AI-Nutzung
Apple-Hardware bietet Vorteile für die lokale AI-Nutzung, insbesondere durch die Möglichkeit, den Geräte-RAM mit dem GPU-Video-RAM zu kombinieren. Im Gegensatz dazu gibt es bei Windows-Geräten einen Nachteil, da Geräteram und GPU-VRAM getrennt sind.
Ihre Einführung von AI-Funktionen in kommenden Softwareupdates zeigt, dass Apple darauf bedacht ist, Nutzerdaten auf Geräten zu verarbeiten, um die Privatsphäre zu schützen.
Insgesamt verdeutlicht dieser Schritt von Apple seine Ambitionen im AI-Bereich und unterstreicht die Bedeutung von lokalen, effizienten AI-Modellen für die zukünftige Technologieentwicklung.
Quelle:
Zum englischen Artikel auf Decrypt