
Nel corso del China International Welfare & Rehabilitation Expo (CR EXPO) tenutosi al National Convention Center di Pechino, China Mobile — tramite il proprio Centro di Innovazione per l’Intelligenza Incarnata — ha presentato “Lingxi”, un cane guida elettronico progettato per l’assistenza alla mobilità delle persone con disabilità visiva. Secondo il centro, in Cina il bacino d’utenza potenziale ha raggiunto i 17,31 milioni di persone entro il 2025, mentre soluzioni tradizionali come i bastoni tattili e i cani guida biologici restano rispettivamente limitate nelle capacità di evitamento ostacoli e nella scalabilità dei costi.
Architettura tecnica e sensori
Il progetto punta sul connubio tra percezione avanzata e navigazione autonoma. Il sistema integra LiDAR con ricostruzione 3D monoculare per creare una percezione dell’ambiente più robusta rispetto a sensori singoli. In pratica, l’unità:
– combina point cloud LiDAR e visione per rilevare la profondità, riconoscere la scena e gestire ambienti indoor/outdoor;
– geolocalizza in tempo reale il dispositivo e costruisce mappe ad accuratezza centimetrica;
– supporta la mappatura di spazi complessi e di grandi dimensioni, con funzioni di stitching per unire mappe parziali.
Questa base sensoriale è cruciale per offrire indicazioni affidabili in presenza di arredi, corridoi stretti, scale, rampe o attraversamenti pedonali.
Navigazione attiva e sicurezza
Su tali mappe il sistema abilita una navigazione attiva con pianificazione del percorso ottimizzata, evitando ostacoli in modo adattivo:
– fusione multi-sensore per l’evitamento dinamico di pedoni, carrelli o biciclette;
– adattamento a terreni complessi, con regolazione di velocità e traiettoria;
– logiche di arresto e ripartenza per gestire situazioni improvvise.
L’obiettivo dichiarato è ridurre la necessità di intervento manuale, mantenendo però un canale di controllo percepibile e immediato da parte dell’utente.
Interazione e feedback per l’utente
Sul dorso dell’unità è presente un sistema di guida fisica che emula la “presa” di un cane guida: una barra dedicata trasferisce feedback di forza senza latenza per comunicare sterzata, accelerazione, decelerazione e stop. In parallelo, l’utente riceve istruzioni sintetiche tramite cuffie Bluetooth a conduzione ossea, che lasciano liberi i canali uditivi per i suoni ambientali. Il dispositivo modula la velocità di parlato e riassume le informazioni, con l’obiettivo di non sovraccaricare cognitivamente chi lo utilizza.
Visione, riconoscimento e IA conversazionale
Oltre alla percezione geometrica, il sistema promette riconoscimento di oggetti e testi, utile per orientarsi in contesti come supermercati o stazioni. A bordo è integrato il modello linguistico “JiuTian” di China Mobile, che abilita la conversazione in linguaggio naturale per richieste contestuali (ad esempio, chiedere la strada o chiarimenti su un segnale). L’elemento distintivo, rispetto a semplici comandi vocali, è la capacità di gestire dialoghi più fluidi e contestualizzati, potenzialmente adattando guida e istruzioni alle preferenze dell’utente.
Scenari d’uso
Il produttore indica un ventaglio di scenari di vita quotidiana:
– Indoor: centri commerciali, uffici, stazioni, aeroporti, ospedali;
– Outdoor: marciapiedi, attraversamenti, aree pedonali con traffico variabile.
La combinazione di mappe ad alta precisione, evitamento ostacoli e IA conversazionale mira a ridurre frizioni operative sia in percorsi abituali sia in ambienti nuovi o complessi.
Il progetto si colloca nel nascente segmento delle soluzioni di guida elettronica basate su Intelligenza Artificiale incarnata, cercando di colmare i limiti di bastoni e cani guida tradizionali con navigazione proattiva e percezione multi-sensore. Il potenziale è significativo, ma la maturità reale dipenderà da:
– robustezza in condizioni reali (pioggia, superfici riflettenti, folle);
– gestione della privacy in scenari di riconoscimento di testi/oggetti;
– curva di apprendimento e supporto post-vendita per utenti e caregiver;
– costo totale di proprietà e disponibilità di programmi pubblici di adozione.
Senza dati su prezzo e lancio, è prematuro valutarne la convenienza, ma l’integrazione di LiDAR, mappe a precisione centimetrica e IA conversazionale indica un’evoluzione concreta delle tecnologie assistive per l’orientamento.









