Non siamo in un casale di fantasia, ma all'Università di Tokyo: in giro non c'è Antonio Banderas, ma un gruppo di ricercatori giapponesi. La scena inusuale, però riecheggia: qualcuno cerca di comprendere il linguaggio delle galline.
Il chiocciare apparentemente casuale delle nostre preziose amiche è stato sottoposto all'intelligenza artificiale: lo scopo? Decifrare quello che hanno da "dire". E se pensate che questo sia solo un esercizio accademico, siete fuori strada.
La ricerca, condotta presso l'Università di Tokyo sotto la guida del professor Adrian David Cheok, ha portato alla luce un sistema piuttosto bizzarro, ma dal grande potenziale. Di cosa si tratta?
La scienza dietro il chiocciare delle galline
Il team di ricerca ha sviluppato un "sistema in grado di interpretare vari stati emotivi nelle galline, tra cui fame, paura, rabbia, soddisfazione, eccitazione e angoscia". Questo grazie a una tecnica all'avanguardia denominata "Deep Emotional Analysis Learning".
La tecnica, spiegano i ricercatori, è "radicata in complessi algoritmi matematici" e ha la capacità di adattarsi ai mutevoli schemi vocali delle galline. Questo significa che, con il tempo, diventa sempre più abile nel decifrare le loro "vocalizzazioni".


Ennesima prova per l'AI
Per testare il loro nuovo sistema, il team ha registrato e analizzato campioni sonori provenienti da 80 galline. Questi campioni sono stati poi utilizzati per correlare questi schemi vocali ai vari "stati emotivi" delle galline.
Con la collaborazione di un altro team composto da otto tra psicologi animali e chirurghi veterinari, i ricercatori sono stati in grado di identificare lo stato mentale di una determinata gallina con una precisione sorprendentemente alta. "I risultati dei nostri esperimenti dimostrano il potenziale dell'utilizzo di AI e tecniche di apprendimento automatico per riconoscere gli stati emotivi nelle galline basandosi sui loro segnali sonori", si legge nel paper.
Osservazioni a margine
Prima di mandare in soffitta Banderas, manteniamo un approccio critico: nel loro paper, che vi linko qui, i ricercatori hanno riconosciuto che l'accuratezza del loro modello potrebbe variare con diverse razze e condizioni ambientali. Hanno anche sottolineato che "il dataset utilizzato per la formazione e la valutazione potrebbe non catturare l'intera gamma di stati emotivi delle galline e le loro variazioni".
E poi ci sono le molte altre modalità con cui le galline comunicano, dai "segnali non acustici, come il linguaggio del corpo e le interazioni sociali". In altri termini, c'è ancora strada da fare, ma ci sono le basi per un futuro in cui comprendiamo meglio gli animali che ci circondano.
E, come ha sottolineato Cheok, "se sappiamo cosa provano gli animali, possiamo progettare un mondo molto migliore per loro". Galline incluse.