Animali tracciati, umani osservati

Foto-trappole, accelerometri e interazioni fisiche per raccontare la ricerca scientifica, dal lato di chi costruisce gli strumenti.

Gennaio 19, 2026

Ho pubblicato sui social alcune foto dell’ultimo progetto a cui ho lavorato e, come spesso succede, sono arrivate domande vaghe: “ma cosa fa esattamente?”, “è una mostra interattiva?”, “che tecnologie ci sono dietro?”.
Questo post nasce per rispondere con calma, senza semplificare troppo.

Sintesi Labs é stata incaricata di progettare una mostra per il Max Planck Institute. La mostra, inaugurata a Monaco di Baviera e poi trasferita a Berlino, riguarda la divulgazione degli studi e delle ricerche sugli animali negli ambienti naturali: gli animali sono seguiti e studiato con tag GPS, accelerometri, foto trappole, droni… I dati raccolti, quando sono video, sono analizzati con motion detection per estrarre anche dati statistici e comportamentali che servono poi per le ricerche.

Con tutti i dati che hanno si può tranquillamente parlare di Internet of Animals.

Sintesi Labs si é occupata di tutto, dalla progettazione dello spazio della nostra al design e alla produzione di tutto, fino alla cura dell’installazione fisica con cose come pannelli, stampe varie, totem, costruzioni di lightbox, luci e striscioni.

La mia parte é stata creare delle postazioni tecnologiche interattive per i visitatori della mostra, ho fatto diverse proposte e queste sono quelle che sono state approvate e quindi costruite:

  • Control room + photo trap
  • Acceloremeter lab
  • Altre postazioni (schermi con pulsanti e leve per cambiare video e immagini)

Control room con foto trappola

Per raccontare come gli scienziati seguono gli animali ho costruito una finta control room, il sistema si presenta come un monitor che mostra diversi video provenienti dalle foto trappole e dai droni utilizzati realmente dai ricercatori. I video sono curiosi e mostrano animali che fanno cose senza sapere di essere osservati. Il visitatore premendo dei pulsanti può selezionare i vari schermi come se fosse in una vera control room. Inoltre nel luogo della mostra é stata installata una foto trappola vera e modificata per trasmettere alla control room le immagini degli umani alla mostra, catturati anche loro nel loro ambiente naturale, in una specie di giocoso ribaltamento di ruoli.

Il sistema si basa su un paio di Raspberry opportunamente programmati, uno gestisce la control room e l’altro la foto trappola. Un terzo dispositivo coinvolto é un Arduino micro per gestire i pulsanti, come se fossero una tastiera attaccata al Raspberry.

La foto trappola è stata smontata e il case originale è stato utilizzato per alloggiare una camera USB con visione infrarossi, riposizionandone il sensore di luminosità che attiva l’infrarosso se c’è poca luce. Ho stampato alcuni pezzi con la stampante 3D per sostenere le parti nel case. Sul raspberry ho programmato un software per riconoscere il movimenti e fare foto ai visitatori dell’evento e inviarle alla control room.

La fotocamera e la control room sono connesse tra loro tramite un router wifi, in rete locale.

Accelerometer lab

Dato che gli accelerometri sono utilizzati nei collari degli animali, insieme al GPS, ho pensato che potesse essere utile mostrare alla gente come funzionano questi dispositivi.

Questo laboratorio è costituito da un monitor e una scimmia giocattolo. La scimmia, che è un babbuino (é importante specificare per gli scienziati) può essere presa in mano e mossa in diversi modi, un po’ come fanno i bambini quando giocano con un pupazzo.

Se premi il bottone di “avvio” sul video vengono decodificati i movimenti che fai: corre, cammina, dorme, sta ferma… il riconoscimento delle andature o della sosta avviene tramite l’analisi dei dati provenienti dall’accelerometro nascosto all’interno della scimmia.
La tecnologia è la stessa per esempio del contapassi o del monitoraggio della propria giornata tramite uno smart watch.

A video é possibile vedere i dati in diretta dal giroscopio dell’accelerometro, sotto forma di grafici temporali, la classificazione del movimento e una rappresentazione grafica dell’attività svolta dall’animale.

Per realizzare questo laboratorio interattivo ho utilizzato un Raspberry per gestire video e interfaccia grafica, oltre che per la classificazione dei movimenti in tempo reale con un modello di machine learning; il pulsante di attivazione passa per un Arduino micro, mentre l’accelerometro é quello di un micro:bit.

Sul micro:bit ho dovuto caricare un firmware per inviare via seriale i dati dell’accelerometro.

Prima dell’uso é stato necessario scegliere i parametri per alimentare la rete neurale e allenare il modello scelto per il riconoscimento dei movimenti, con TensorFlow.js.

Altri monitor con bottoni

Abbiamo poi realizzato altre tre postazioni, fruibili tramite dei monitor orizzontali, posti su un piano, per raccontare alcune delle ricerche del Max Planck: uno mostra le rotte di migrazione delle cicogne, sapevate che esistono due gruppi distinti di cicogne che migrano dal nord Europa all’Africa attraverso due rotte precise? A seconda della famiglia o vai di qua o vai di là. Questa postazione, premendo un pulsante mostra la rotta occidentale sulla Spagna e premendo l’altro quella mediorientale che passa in Palestina.

Un’altra postazione presenta un monitor con tre immagini, un uomo, un cane e un gatto. Con una leva, tipo quelle di un mixer audio, si può simulare l’arrivo di un terremoto che cresce di grado con lo spostamento della leva. Le immagini sullo schermo iniziano a tremare, gli animali sono i primi ad avvertire il sisma e scappano prima. L’uomo é l’ultimo e si accorge del terremoto solo quando è forte… E non gli resta che mettersi le mani nei capelli!

L’ultimo monitor mostra alcuni video di un incredibile esperimento di ricerca per comprendere il comportamento delle locuste. Si vuole capire come si sciamano per predire e proteggere le coltivazioni, specie in Asia. Qui i bottoni fungono da pulsanti per andare al video precedente o al successivo.

Tutte queste postazioni sono fatte con Raspberry e Arduino.

Se volete andare a vedere i miei giocattoli, col resto della mostra ovviamente, potete andare alla sede del Max Planck Institute a Berlino, siamo lì fino al 17 aprile 2026.


Io sono Giulio Pons, sviluppatore web e creative technologist con una predilezione per progetti che intrecciano hardware e software reale: da installazioni interattive con microcontroller e Raspberry Pi a sistemi che trasformano dati complessi in esperienze tangibili. Nel tempo ho costruito soluzioni che integrano sensori, intelligenza artificiale e interfacce fisiche per raccontare storie attorno alla tecnologia e alla ricerca scientifica.


Sintesi Labs è uno studio di design e sviluppo con sede a Milano e Monaco di Baviera, nato per supportare clienti dalla visione iniziale fino al prodotto finito. La loro esperienza spazia dal design industriale a progetti di spatial e interaction design, con un approccio che unisce competenze multidisciplinari per concepire, prototipare e realizzare installazioni e prodotti innovativi su misura per eventi, mostre e contesti espositivi.


Author

PHP expert. Wordpress plugin and theme developer. Father, Maker, Arduino and ESP8266 enthusiast, middle-school teacher.

Comments on “Animali tracciati, umani osservati”

Lascia un commento

Your email address will not be published. Required fields are marked with an *