Frau freut sich, während sie zwei Handys hochhält
Gut möglich, dass die KI-Funktionen künftig auch den Weg aufs iPhone finden.
REUTERS/ALY SONG

Künstliche Intelligenz (KI) und Offenheit sind nicht unbedingt Schlagworte, die man in Verbindung mit Apple nennen würde. Während Microsoft in seiner Partnerschaft mit OpenAI den Copilot in diverse Produkte integriert, Meta KI-Chatbots in seine Social Networks einbaut und Google im Kontext der KI das ganze Unternehmen umbaut, gab sich der iPhone-Konzern in dieser Hinsicht eher zögerlich. Und was die Offenheit angeht, so war Cupertino immer schon ein Verfechter der geschlossenen Systeme.

Umso mehr überrascht, dass Apple auf Huggingface – einer Plattform zum Veröffentlichen von KI-Code und -Datensätzen – mehrere Large Language Models (LLMs) unter dem Namen OpenELM (Open-source Efficient Language Models) veröffentlicht hat.

Eine Frage der Parameter

Apple stellt neben den trainierten Modellen auch den Code und entsprechende Dokumentation zur Verfügung. Die OpenELM-Modelle wurden mit der Corenet-Library trainiert, sie verfügen je nach Größe über 270 Millionen, 450 Millionen, 1,1 Milliarden oder drei Milliarden Parameter.

Im begleitenden Paper heißt es, dass das Modell mit rund einer Milliarde Parametern 2,36 Prozent genauer als OLMo sei: Bei OLMo handelt es sich um ein Modell des Allen Institute for AI, das vom ehemaligen Microsoft-Cofounder Paul G. Allen gegründet wurde.

Ein anderer Vergleich wäre hingegen der mit dem von Meta in der Vorwoche – ebenfalls als Open Source – veröffentlichten Llama 3: Dieses gibt es in zwei Größen, mit jeweils acht oder 70 Milliarden Parametern.

Für das iPhone?

Apple begründet das Vorgehen mit der Intention, "die offene Forschungscommunity zu bereichern". Forschende können die Modelle nun analysieren und etwaige Schwächen ausfindig machen. Außerdem können Developer und andere Unternehmen die Modelle in ihrer aktuellen Form verwenden oder nach Bedarf modifizieren.

Korrekterweise weist Apple auch darauf hin, dass die OpenELM-Modelle mit öffentlich verfügbaren Datensätzen trainiert wurden und man somit keine Garantie für korrektes Verhalten – Stichwort: "Bias" und "Halluzinationen" – abgeben könne.

In einem Artikel des Fachmediums Macrumors.com heißt es außerdem, dass Apple auf diesem Weg neue Fachkräfte rekrutieren könnte. Und dass diese Modelle kleiner sind als zum Beispiel Metas Llama 3, könnte auch eine gezielte Strategie sein: Bei den OpenELMs handelt es sich nämlich um On-Device-LLMs – also Modelle, die direkt auf dem Gerät anstatt auf einem Server laufen. Aus Datenschutzgründen könnte Apple nämlich erwägen, ein kleineres LLM lokal auf iPhones laufen zu lassen. Gerüchten zufolge könnte das kommende iOS 18 entsprechende KI-Funktionen enthalten. (stm, 25.4.2024)