📘 Titolo pagina: Mac Mini AI – Ollama Qwen2.5
Premessa
In questo progetto stiamo trasformando il Mac Mini in un server AI locale, utilizzando Ollama con il modello Qwen2.5 7B Instruct.
L’obiettivo è creare una piattaforma di intelligenza artificiale personale, accessibile in locale e potenzialmente da remoto tramite sicurezza adeguata.
Cosa faremo nel breve periodo
-
Collegare il Mac Mini al server Node.js per monitoraggio risorse (CPU, RAM, GPU, Storage).
-
Testare le chiamate API all’AI dal terminale, da Node.js e da eventuale app frontend.
-
Costruire una piccola dashboard per interagire con Ollama in locale.
Mini come e mini perché
-
Come: Ollama serve il modello Qwen2.5 in locale, usando GPU Metal del Mac Mini.
-
Perché: avere un AI locale permette maggiore controllo, privacy e rapidità nelle risposte senza dipendere da cloud esterni.
Cosa nel futuro
-
Espansione delle funzionalità AI (es. automazioni, alert, analisi dati, script Node.js).
-
Accesso sicuro remoto tramite VPN o DDNS con crittografia.
-
Possibile interazione multiutente con permessi diversi.
-
Eventuale integrazione con smart home o altre piattaforme.
No Comments