Capire cosa si dicono i delfini: un sogno che affascina biologi, linguisti e appassionati di natura da decenni. Ora, grazie a un progetto ambizioso di Google AI, questo sogno potrebbe diventare realtà. Si chiama DolphinGemma ed è il primo modello linguistico sviluppato per analizzare e generare suoni di delfini — aprendo la strada a un potenziale dialogo tra specie.Annunciato in occasione del National Dolphin Day, DolphinGemma nasce dalla collaborazione tra Google DeepMind, il Georgia Institute of Technology e il Wild Dolphin Project (WDP). È molto più di un esercizio di stile: rappresenta un approccio concreto alla comunicazione interspecie, con risvolti profondi per la scienza, l’etica e il futuro dell’intelligenza artificiale.
Per oltre 40 anni, il Wild Dolphin Project ha studiato una comunità di delfini Stenella frontalis nelle Bahamas, documentando migliaia di ore di interazioni con audio e video subacquei. Ogni click, fischio e “burst pulse” è stato associato a comportamenti precisi: giochi, richiami madre-figlio, corteggiamento, persino interazioni con squali.Ma raccogliere i dati non basta. La vera sfida è capire il significato di quei suoni. Qui entra in gioco DolphinGemma: un modello AI che sfrutta le stesse tecnologie alla base della famiglia Gemma di Google (i modelli “lightweight” derivati da Gemini), ma applicate all’ambiente sonoro dei delfini.Il cuore del sistema è un modello audio-in/audio-out, alimentato da una sofisticata codifica sonora (SoundStream tokenizer), capace di analizzare sequenze acustiche e prevedere il suono successivo, esattamente come un LLM linguistico prevede la parola successiva in una frase.
Il progetto DolphinGemma non si ferma all’analisi passiva. Un altro tassello fondamentale è CHAT (Cetacean Hearing Augmentation Telemetry), un sistema progettato per testare una comunicazione attiva con i delfini.Il principio è semplice e geniale: creare fischi artificiali associati a oggetti familiari (alghe, sciarpe, giocattoli acquatici) e addestrare i delfini a usare questi suoni per richiedere specifici oggetti. Come? Con l’aiuto dei Google Pixel!Infatti, un Google Pixel 6 (e in futuro il Pixel 9) è stato adattato per riconoscere e rispondere ai suoni dei delfini in tempo reale, con un’interfaccia acustica ad alta fedeltà. Il ricercatore, dotato di cuffie a conduzione ossea, riceve notifiche audio sul tipo di richiesta fatta dal delfino e può reagire rapidamente per rinforzare l’associazione. È un primo, timido passo verso un vocabolario condiviso.E con DolphinGemma a bordo, queste interazioni diventano sempre più raffinate: il modello è in grado di identificare pattern ricorrenti, cluster sonori e potenziali strutture grammaticali tra i suoni naturali, aprendo la strada a una lingua comune artificiale.
Uno degli aspetti più interessanti di DolphinGemma è la sua vocazione open-source. Google ha annunciato che il modello sarà rilasciato pubblicamente nell’estate 2025, offrendo una risorsa preziosa a chi studia cetacei in tutto il mondo.Sebbene sia addestrato sui suoni degli Stenella frontalis, potrà essere adattato con fine-tuning anche per delfini tursiopi o stenelle striate, favorendo una collaborazione scientifica globale.DolphinGemma segna una tappa storica: per la prima volta, l’intelligenza artificiale non solo osserva il mondo naturale, ma cerca di dialogare con esso. È un nuovo linguaggio tra uomo e natura, costruito una sequenza sonora alla volta.
🌊 Affascinato da come l’AI sta rivoluzionando la scienza e la comunicazione animale? Visita il canale YouTube ComeFareAI per scoprire numerosi tutorial e approfondimenti dedicati ai progetti più innovativi!