Sistema di visione artificiale per drone autonomo in ambito ferroviario

Sviluppo di una pipeline software per il rilevamento dei binari e la gestione dell’elaborazione video in tempo reale

Sistema di visione artificiale per drone autonomo in ambito ferroviario

Cliente

Azienda specializzata in soluzioni avanzate e innovative per il segnalamento ferroviario.

Richiesta

Far volare un drone in autonomia lungo una linea ferroviaria può sembrare, a prima vista, un problema di navigazione. In realtà, il nodo centrale del progetto era un altro: permettere al sistema di “vedere” i binari in modo affidabile e utilizzare questa informazione per correggere la traiettoria in tempo reale.

È da questa esigenza che nasce il lavoro svolto con il cliente, che aveva l’obiettivo di sviluppare un drone capace di mantenere l’allineamento ai binari grazie a un sistema di visione artificiale.

La sfida presentava diverse complessità tecniche. Il riconoscimento dei binari doveva risultare robusto anche in condizioni reali di utilizzo, con variabilità legata all’illuminazione, alle vibrazioni e alla conformazione del percorso. A questo si aggiungeva un vincolo decisivo: la latenza. Per essere utile alla navigazione, il sistema doveva elaborare il flusso video abbastanza rapidamente da consentire correzioni di rotta immediate. Inoltre, la soluzione andava progettata fin dall’inizio in un’ottica evolutiva, compatibile con una futura integrazione su hardware embedded a bordo del drone.

A valle di uno studio preliminare di fattibilità, era già stata ipotizzata un’API dedicata alla rilevazione dei binari. Quello che mancava era però un passaggio fondamentale: verificare in modo concreto le sue performance e costruire un’infrastruttura software in grado di gestire l’elaborazione video real-time in maniera robusta, misurabile e pronta per le successive evoluzioni del progetto.

Soluzione

Metodologia

  • Studio di fattibilità iniziale

Tecnologia

  • Hardware: Nvidia Jetson Orin Nano
  • Software: Python

Vuoi integrare un sistema di visione artificiale nei tuoi prodotti?

Progettiamo e integriamo algoritmi di visione artificiale su misura per ogni esigenza industriale.

Contattaci

L’approccio

Per affrontare il progetto, Develer ha strutturato l’intervento in due fasi principali, con un approccio progressivo pensato per ridurre il rischio tecnico e trasformare un’ipotesi di fattibilità in una base concreta per lo sviluppo.

Validazione dell’API in ambiente controllato

È stata sviluppata un’applicazione in Python per testare l’algoritmo su video preregistrati forniti dal cliente, così da osservare il comportamento del sistema in scenari realistici ma ripetibili. Questo ambiente di validazione ha permesso di estrarre i frame, invocare l’API di rilevamento, visualizzare overlay grafici sui binari identificati e misurare in modo oggettivo metriche come latenza, accuratezza e stabilità. 

La disponibilità di un contesto controllato ha reso possibile anche simulare condizioni critiche, come variazioni luminose, vibrazioni e tratti curvi, ottenendo indicazioni utili sia per individuare i margini di miglioramento dell’algoritmo sia per definire i requisiti hardware minimi necessari all’esecuzione a bordo.

Progettazione della Pipeline Real-Time

Una volta validate le basi del rilevamento, il progetto è entrato in una seconda fase, focalizzata sulla realizzazione di un’architettura software modulare per l’elaborazione video in tempo reale. La pipeline è stata suddivisa in componenti indipendenti dedicati a:

  • acquisizione del flusso video
  • decodifica e ricostruzione dei frame
  • invocazione asincrona dell’API
  • post-processing con smoothing temporale
  • produzione di un output strutturato per il sistema di controllo

Particolare attenzione è stata riservata alla riduzione della latenza end-to-end, alla gestione dei frame drop, alla stabilizzazione del rilevamento nel tempo e alla preparazione dei dati per la futura integrazione con il sistema di navigazione del drone.

Architettura

La soluzione sviluppata è risultata composta da un’applicazione Python per le attività di validazione e testing, da una pipeline modulare per l’elaborazione real-time, da un sistema di logging e raccolta delle metriche e da un’interfaccia strutturata verso il modulo di controllo del drone.
L’output generato dall’API non veniva semplicemente restituito come rilevamento visivo, ma trasformato in informazioni utili alla navigazione, tra cui l’offset laterale rispetto al centro dei binari, la stima della curvatura, la correzione suggerita dell’heading e un confidence score associato al rilevamento. In questo modo, il sistema di visione diventava un componente realmente integrabile nella logica di guida autonoma, e non solo un modulo sperimentale isolato.

Risultati

L’attività ha permesso al cliente di validare in modo oggettivo le performance dell’algoritmo, identificare i requisiti hardware minimi e ridurre il rischio tecnico prima della fase di test sul campo. Allo stesso tempo, il progetto ha reso disponibile una pipeline già pronta per l’integrazione a bordo e ha posto le basi per un’architettura software scalabile, pensata per accompagnare l’evoluzione della soluzione nel tempo.
L’approccio modulare adottato ha infatti semplificato anche la prospettiva di sviluppi futuri, come l’integrazione con sistemi di autopilota, la sensor fusion tra visione, IMU e GPS, l’ottimizzazione su GPU embedded e l’addestramento iterativo del modello.
Il progetto rappresenta un esempio concreto di applicazione della computer vision in ambito industriale, di progettazione di pipeline real-time a bassa latenza e di validazione incrementale come strumento per ridurre il rischio progettuale e trasformare uno studio di fattibilità in un’architettura concreta, testabile e pronta a evolvere.

Vantaggi

  • Affidabilità

La validazione oggettiva dell’algoritmo ha consentito di verificare stabilità, latenza e accuratezza in scenari realistici, riducendo il rischio tecnico prima della messa in campo.

  • Integrazione

La pipeline software è stata progettata per trasformare l’output della computer vision in dati utili alla navigazione, facilitando il dialogo con il sistema di controllo del drone.

  • Scalabilità

L’approccio modulare ha posto le basi per future evoluzioni tecnologiche, dall’edge computing alla sensor fusion, senza dover ripensare l’architettura da zero.

Conclusioni

Questo progetto ha permesso di trasformare uno studio di fattibilità in una base tecnologica concreta, validata e pronta per evoluzioni future. 

Per il cliente significa poter contare su un’architettura solida su cui sviluppare un sistema di navigazione autonoma sempre più affidabile, integrando computer vision e logiche real-time in una soluzione pensata per il contesto operativo reale.