Apple MLX
,Apple Silicon
,CUDA
,NVIDIA GPU
,gépi tanulás
,mesterséges intelligencia
,ML keretrendszer
,PyTorch
,TensorFlow
,AI fejlesztés
Az Apple saját gépi tanulási keretrendszere, az MLX mostantól CUDA-támogatást kap, ami óriási előrelépés a Macen fejlesztők és kutatók számára.
Védd a mobilod stílusosan – nézd meg!
Az Apple MLX, amelyet eredetileg az Apple Silicon és a Metal technológiára optimalizáltak, most egy váratlan, de annál izgalmasabb frissítést kapott: megérkezett a CUDA háttértár támogatás. A fejlesztést a @zcbenz nevű mérnök vezeti a GitHubon, aki néhány hónapja kezdte el a CUDA integráció prototípusának kidolgozását, majd lépésről lépésre olvasztotta be azt az MLX fő ágába.
Bár a fejlesztés még korai szakaszban van, számos alapvető művelet – mint a mátrixszorzás, softmax, redukció, rendezés és indexelés – már működik és tesztelhető.
De miért ekkora dolog ez? A CUDA (Compute Unified Device Architecture) az NVIDIA saját GPU-architektúrája, amely a világ gépi tanulási munkaterheléseinek túlnyomó részét hajtja. Olyan népszerű ML-keretrendszerek, mint a PyTorch és a TensorFlow, régóta a CUDA-ra támaszkodnak, hogy kiaknázzák az NVIDIA GPU-k párhuzamos számítási erejét.

Az Apple MLX eddig szinte kizárólag az Apple Silicon hardverre és Metal API-ra épült, így a kutatók és fejlesztők, akik NVIDIA GPU-klasztereken szeretnének nagy modelleket betanítani, kénytelenek voltak más keretrendszereket választani. Most viszont a CUDA támogatásnak köszönhetően könnyedén lehet majd helyben, Mac-en prototípusokat tesztelni MLX-szel, majd azokat skálázni NVIDIA GPU-kkal működő környezetben – ami óriási rugalmasságot jelent.
Természetesen nem minden funkció érhető el azonnal. Számos MLX-operátor implementációja még hiányzik, és egyelőre az AMD GPU-k támogatása sem megoldott – de a közösség aktív, és a fejlesztés folyamatosan halad.
Az Apple lépése egyértelmű üzenet: nyitnak a szélesebb AI-ökoszisztéma felé, és lehetőséget adnak a fejlesztőknek, hogy még rugalmasabban építhessenek és futtathassanak gépi tanulási projekteket a preferált hardverükön.
Aki kíváncsi, már most kipróbálhatja a CUDA-támogatást az MLX GitHubján, és hozzájárulhat a projekt fejlődéséhez. Ez az integráció nemcsak az Apple eszközök AI-fejlesztési lehetőségeit bővíti ki, hanem közelebb hozza egymáshoz a különböző gépi tanulási platformokat – és ez hosszú távon minden fejlesztőnek csak jó hír lehet.


