StableDiffusion kann dank neuer Optimierungen in macOS 13.1 ein Bild auf Apple Silicon Macs in weniger als 18 Sekunden erstellen

Auf seinem Blog zum maschinellen Lernen , Apple kündigte durchschlagende Unterstützung für das StableDiffusion-Projekt an. Dazu gehören Updates in den gerade veröffentlichten macOS 13.1 Beta 4 und iOS 16.2 Beta 4, um die Leistung beim Ausführen dieser Modelle auf Apple Silicon-Chips zu verbessern.
OPTAD-1
Apple hat außerdem umfangreiche Dokumente und Beispielcode veröffentlicht, um zu zeigen, wie StableDiffusion-Quellmodelle in ein natives Core ML-Format konvertiert werden können.
Diese Ankündigung ist die größte offizielle Bestätigung, die Apple für das jüngste Aufkommen von KI-Bildgeneratoren gezeigt hat.
OPTAD-2
Zusammenfassend lässt sich sagen, dass auf maschinellem Lernen basierende Bilderzeugungstechniken dank der überraschenden Ergebnisse des DALL-E-Modells an Bedeutung gewonnen haben. Diese KI-Bildgeneratoren akzeptieren eine Textfolge als Eingabeaufforderung und versuchen, ein Bild von dem zu erstellen, wonach Sie gefragt haben.
Eine Variante namens StableDiffusion wurde im August 2022 eingeführt und hat bereits viel Community-Investition erfahren.
Dank neuer Hardwareoptimierungen in den Apple OS-Versionen nutzen die Core ML StableDiffusion-Modelle die Neural Engine- und Apple GPU-Architekturen der Chips der M-Serie voll aus.
OPTAD-3
Dies führt zu einigen beeindruckend schnellen Generatoren. Laut Apple kann ein Basismodell M2 MacBook Air ein Bild mit einem StableDiffusion-Modell mit 50 Iterationen in weniger als 18 Sekunden erzeugen. Sogar ein M1 iPad Pro könnte die gleiche Aufgabe in weniger als 30 Sekunden erledigen.
Apple hofft, dass diese Arbeit Entwickler ermutigen wird, StableDiffusion in ihre Apps zu integrieren, um auf dem Client zu laufen, anstatt von Backend-Cloud-Diensten abhängig zu sein. Im Gegensatz zu Cloud-Implementierungen ist die Ausführung auf dem Gerät „kostenlos“ und wahrt die Privatsphäre.
Fügen Sie macOSxHints zu Ihrem Google News-Feed hinzu.
OPTAD-4