Skip to main content

0.1

πŸ“˜ BookStack – appunto tecnico

Capitolo: Setup ambiente Mac mini

  • Installato Homebrew

  • Installato Node.js

  • Installato Ollama

  • Test esecuzione modello locale

Motivazione:
Base per Lyren Core.


πŸ”₯ Strategia

Se brew ora funziona:

Nel tuo ultimo messaggio di oggi mi scrivi:

  • output brew --version

  • se vuoi, RAM del Mac (ο£Ώ β†’ Informazioni su questo Mac)

E io ti preparo:

  • scelta definitiva modello

  • struttura progetto Lyren Fase 1

  • schema minimal Node server

Così domani partiamo già con il codice.

Jarvis/Visione sta prendendo forma.

E no, Alexa ancora non è stata informata 😌

Β 

🧠 Stato attuale del tuo Mac Mini

Hai:

  • βœ… Homebrew installato

  • βœ… Node.js funzionante (v25.6.1)

  • βœ… Ollama installato

  • βœ… Ollama server attivo su 127.0.0.1:11434

  • βœ… Modello Qwen2.5 7B Instruct caricato

  • βœ… GPU Metal (Apple M2) in uso

  • βœ… 4.6 GB allocati su GPU per il modello

In pratica:

Il tuo Mac Mini Γ¨ ora un server AI locale funzionante.

Non teoria.
Funzionante.


πŸ“Š Cosa sta succedendo dietro le quinte

Dal log:


GPU name: Apple M2 total memory = 4.6 GiB model params = 7.62B file size = 4.36 GiB

Traduzione:

  • Il modello Γ¨ ~7 miliardi di parametri

  • È quantizzato (Q4_K) β†’ ridotto a ~4.3GB

  • Sta girando in GPU Metal

  • Hai ~5.3GB VRAM disponibile

  • Il modello usa ~4.6GB

πŸ‘‰ Sei praticamente al limite sano.
Ma Γ¨ perfettamente stabile.


πŸ— Architettura attuale (reale)

Dato che mi hai detto:

Node.js Γ¨ sul server, non sul Mac Mini
Lo usiamo per monitorare RAM, GPU, CPU, storage del server

Allora l’architettura Γ¨ questa:


β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β” β”‚ SERVER β”‚ β”‚------------------------β”‚ β”‚ Node.js Monitoring β”‚ β”‚ CPU / RAM / Storage β”‚ β”‚ GPU Stats β”‚ β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”¬β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜ β”‚ API / JSON β”‚ β”Œβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β–Όβ”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β” β”‚ Mac Mini M2 β”‚ β”‚------------------------β”‚ β”‚ Ollama (LLM runtime) β”‚ β”‚ Qwen2.5 7B β”‚ β”‚ Local AI brain β”‚ β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”¬β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜ β”‚ β”‚ β”Œβ”€β”€β”€β”€β”€β”€β”€β–Όβ”€β”€β”€β”€β”€β”€β”€β” β”‚ Dashboard β”‚ β”‚ (frontend?) β”‚ β””β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”€β”˜

Il Mac Mini non monitora.
Il Mac Mini pensa.

Il server monitora.
Il server manda dati.


πŸ”₯ Ora il punto importante

Ollama Γ¨ in modalitΓ  serve.

Questo significa che:

  • Risponde via HTTP su http://127.0.0.1:11434

  • Puoi interrogarlo da Node

  • Puoi creare un tuo orchestratore

  • Puoi costruire il tuo Jarvis

Esempio chiamata da Node:


fetch("http://127.0.0.1:11434/api/generate", { method: "POST", headers: { "Content-Type": "application/json" }, body: JSON.stringify({ model: "qwen2.5:7b", prompt: "Analizza questi dati di sistema: ..." }) })

1️⃣ Come contattare Ollama

Al momento Ollama Γ¨ in modalitΓ  server sul tuo Mac Mini, quindi lo β€œcontatti” via HTTP API.

  • URL: http://127.0.0.1:11434

  • Porta: 11434

  • Endpoint principale per generare testo: /api/generate

Esempio semplice da terminale/mac:


curl -X POST http://127.0.0.1:11434/api/generate \ -H "Content-Type: application/json" \ -d '{ "model": "qwen2.5:7b", "prompt": "Ciao Ollama, presentati!" }'

Risposta: JSON con il testo generato dal modello.


2️⃣ Contattarlo dal tuo smartphone

  • Da casa, se il Mac Mini resta nella rete locale, serve port forwarding sul router oppure collegarti tramite VPN alla rete domestica.

  • Con IP statico Iliad, puoi aprire la porta 11434 sul router e collegarti con: http://[IP_pubblico]:11434.

  • Con DDNS, diventa piΓΉ semplice perchΓ© puoi usare un nome tipo macmini.servezzio.ddns.net:11434.

⚠️ Attenzione: aprire la porta direttamente su Internet senza sicurezza non è consigliato. Meglio VPN o SSH tunnel.


3️⃣ Posizionamento e demo a Orion

  • Puoi lasciarlo al lavoro per ora.

  • Quando vuoi farlo vedere a Orion, basta collegarsi via VPN o temporaneamente portare il Mac Mini a casa.

  • FunzionerΓ  sempre come server AI locale: Orion puΓ² fare chiamate all’API da qualsiasi client (Node.js, Python, browser).