Skip to main content

📘 Titolo pagina: Mac Mini AI – Ollama Qwen2.5

Premessa

In questo progetto stiamo trasformando il Mac Mini in un server AI locale, utilizzando Ollama con il modello Qwen2.5 7B Instruct.
L’obiettivo è creare una piattaforma di intelligenza artificiale personale, accessibile in locale e potenzialmente da remoto tramite sicurezza adeguata.


Cosa faremo nel breve periodo

  • Collegare il Mac Mini al server Node.js per monitoraggio risorse (CPU, RAM, GPU, Storage).

  • Testare le chiamate API all’AI dal terminale, da Node.js e da eventuale app frontend.

  • Costruire una piccola dashboard per interagire con Ollama in locale.


Mini come e mini perché

  • Come: Ollama serve il modello Qwen2.5 in locale, usando GPU Metal del Mac Mini.

  • Perché: avere un AI locale permette maggiore controllo, privacy e rapidità nelle risposte senza dipendere da cloud esterni.


Cosa nel futuro

  • Espansione delle funzionalità AI (es. automazioni, alert, analisi dati, script Node.js).

  • Accesso sicuro remoto tramite VPN o DDNS con crittografia.

  • Possibile interazione multiutente con permessi diversi.

  • Eventuale integrazione con smart home o altre piattaforme.