20 Apr
20Apr

Capire cosa si dicono i delfini: un sogno che affascina biologi, linguisti e appassionati di natura da decenni. Ora, grazie a un progetto ambizioso di Google AI, questo sogno potrebbe diventare realtà. Si chiama DolphinGemma ed è il primo modello linguistico sviluppato per analizzare e generare suoni di delfini — aprendo la strada a un potenziale dialogo tra specie.Annunciato in occasione del National Dolphin Day, DolphinGemma nasce dalla collaborazione tra Google DeepMind, il Georgia Institute of Technology e il Wild Dolphin Project (WDP). È molto più di un esercizio di stile: rappresenta un approccio concreto alla comunicazione interspecie, con risvolti profondi per la scienza, l’etica e il futuro dell’intelligenza artificiale.


Decenni di osservazione, decodificati dall’AI

Per oltre 40 anni, il Wild Dolphin Project ha studiato una comunità di delfini Stenella frontalis nelle Bahamas, documentando migliaia di ore di interazioni con audio e video subacquei. Ogni click, fischio e “burst pulse” è stato associato a comportamenti precisi: giochi, richiami madre-figlio, corteggiamento, persino interazioni con squali.Ma raccogliere i dati non basta. La vera sfida è capire il significato di quei suoni. Qui entra in gioco DolphinGemma: un modello AI che sfrutta le stesse tecnologie alla base della famiglia Gemma di Google (i modelli “lightweight” derivati da Gemini), ma applicate all’ambiente sonoro dei delfini.Il cuore del sistema è un modello audio-in/audio-out, alimentato da una sofisticata codifica sonora (SoundStream tokenizer), capace di analizzare sequenze acustiche e prevedere il suono successivo, esattamente come un LLM linguistico prevede la parola successiva in una frase.


CHAT e Pixel: AI portatile per comunicare con i delfini

Il progetto DolphinGemma non si ferma all’analisi passiva. Un altro tassello fondamentale è CHAT (Cetacean Hearing Augmentation Telemetry), un sistema progettato per testare una comunicazione attiva con i delfini.Il principio è semplice e geniale: creare fischi artificiali associati a oggetti familiari (alghe, sciarpe, giocattoli acquatici) e addestrare i delfini a usare questi suoni per richiedere specifici oggetti. Come? Con l’aiuto dei Google Pixel!Infatti, un Google Pixel 6 (e in futuro il Pixel 9) è stato adattato per riconoscere e rispondere ai suoni dei delfini in tempo reale, con un’interfaccia acustica ad alta fedeltà. Il ricercatore, dotato di cuffie a conduzione ossea, riceve notifiche audio sul tipo di richiesta fatta dal delfino e può reagire rapidamente per rinforzare l’associazione. È un primo, timido passo verso un vocabolario condiviso.E con DolphinGemma a bordo, queste interazioni diventano sempre più raffinate: il modello è in grado di identificare pattern ricorrenti, cluster sonori e potenziali strutture grammaticali tra i suoni naturali, aprendo la strada a una lingua comune artificiale.


Dalla ricerca alla condivisione: un modello open per tutti

Uno degli aspetti più interessanti di DolphinGemma è la sua vocazione open-source. Google ha annunciato che il modello sarà rilasciato pubblicamente nell’estate 2025, offrendo una risorsa preziosa a chi studia cetacei in tutto il mondo.Sebbene sia addestrato sui suoni degli Stenella frontalis, potrà essere adattato con fine-tuning anche per delfini tursiopi o stenelle striate, favorendo una collaborazione scientifica globale.DolphinGemma segna una tappa storica: per la prima volta, l’intelligenza artificiale non solo osserva il mondo naturale, ma cerca di dialogare con esso. È un nuovo linguaggio tra uomo e natura, costruito una sequenza sonora alla volta.


🌊 Affascinato da come l’AI sta rivoluzionando la scienza e la comunicazione animale? Visita il canale YouTube ComeFareAI per scoprire numerosi tutorial e approfondimenti dedicati ai progetti più innovativi!

Commenti
* L'indirizzo e-mail non verrà pubblicato sul sito Web.