Nel panorama dell’AI generativa e del computer vision, pochi problemi sono tanto importanti quanto il video tracking: riuscire a seguire un oggetto in movimento, in tempo reale, scena dopo scena.
E Facebook Research, ora sotto Meta AI, ha appena presentato una svolta epocale in questo campo: si chiama EdgeTAM, ed è il primo modello Track-Anything pensato specificamente per l’utilizzo on-device.In parole semplici? Con EdgeTAM puoi selezionare e tracciare qualsiasi oggetto o persona in un video direttamente da smartphone, tablet o edge device, senza bisogno di GPU cloud o server esterni.
Il segreto di EdgeTAM è la sua architettura leggera ma estremamente efficiente, che riesce a mantenere alte prestazioni anche su dispositivi mobili. Secondo i benchmark rilasciati, EdgeTAM:
È una vera rivoluzione per app mobili, droni, robotica di consumo, e anche per il montaggio video AI sul campo.
🎯 Scopri EdgeTAM e prova il primo sistema open-source capace di tracciare qualsiasi cosa in tempo reale su qualsiasi device, anche senza connessione.
Il cuore di EdgeTAM è una pipeline divisa in 3 fasi:
Il modello si comporta come una versione compatta dei grandi tracker AI (come SAM), ma ottimizzata per girare in locale.
L’obiettivo di EdgeTAM non è solo la ricerca, ma l’adozione pratica in prodotti consumer e industriali. Le sue applicazioni includono:
La parte più interessante? Tutto il codice, modelli preaddestrati e test demo sono disponibili pubblicamente su GitHub, sotto licenza MIT.
✨ Vuoi altri tutorial e aggiornamenti su strumenti AI per immagini, video, musica e chatbot?
Visita il nostro canale YouTube AI Universo per guide pratiche ogni settimana!