
Investigadores daneses desarrollaron un modelo de aprendizaje automático capaz de analizar sonidos de animales y clasificar emociones con un alto grado de precisión, lo cual podría transformar los cuidados veterinarios, la gestión del ganado y los esfuerzos de conservación.
WIRED.- Si las emociones existen o no en animales distintos del ser humano es todavía un tema de debate. Varios estudios basados en el comportamiento, la neurociencia y la fisiología sugieren que los animales también pueden sentir miedo para evitar el peligro y placer al profundizar los vínculos sociales.
En este contexto, investigadores daneses han logrado construir un modelo de aprendizaje automático capaz de distinguir entre emociones positivas y negativas en siete especies de herbívoros, entre ellos bovinos, cerdos y jabalíes. El modelo es capaz de clasificar las emociones, con una elevada precisión del 89.49%, analizando los patrones acústicos de sus gritos.
Las emociones positivas aquí se refieren a un estado en el que el animal se siente satisfecho después de comer o se siente relajado en un entorno seguro. Las emociones negativas, en cambio, se refieren a que el animal se siente aislado de sus compañeros, ansioso o en situación de peligro.
Esta investigación demuestra que la inteligencia artificial puede utilizarse para descifrar las emociones de varias especies de animales a partir de sus patrones de vocalización. “Ser capaz de monitorear las emociones de los animales en tiempo real podría revolucionar el bienestar animal, la gestión del ganado y los esfuerzos de conservación”, explica Elodie F. Briefer, profesora asociada de la Universidad de Copenhague y especialista en biología.
Patrones de voz comunes a todas las especies
Las emociones de los animales se clasifican en dos ejes: la excitación, que indica el grado de activación física, y la valencia emocional, que indica si la emoción es positiva o negativa. La excitación puede evaluarse fácilmente a partir de la frecuencia cardiaca y el movimiento, pero medir la valencia emocional no es tan sencillo. Los sonidos de los animales se han considerado un indicador útil de la emoción, aunque hasta ahora no se habían comprendido del todo.
Briefer y su equipo grabaron un total de 3,181 llamadas de siete animales herbívoros (vacas, ovejas, caballos, caballos de Przewalski, cerdos, jabalíes y cabras) y las utilizaron para determinar diecisiete características acústicas, entre ellas la duración, la frecuencia fundamental (el componente de frecuencia más bajo de la señal, que determina el tono del sonido), la modulación de la amplitud (el grado en que el volumen del sonido cambia con el tiempo).
En el estudio, dichas características se estandarizaron (alineando datos de diferentes escalas y unidades a la misma escala para su comparación) y luego se convirtieron a dos dimensiones utilizando UMAP, un método analítico que comprime datos de alta dimensión en dimensiones más bajas para su visualización, lo que hace posible la clasificación visual de los datos de sondeo.
A continuación, los investigadores utilizaron el método ‘k-means’ (un algoritmo que divide los datos en k grupos y encuentra el punto central dentro de cada grupo en el que los datos están más próximos) y un clasificador bayesiano simple (un método para clasificar datos basado en la teoría de la probabilidad, suponiendo que las características son independientes entre sí) para clasificar los datos de los cantos en emociones positivas y negativas.
Por último, se construyó un modelo de clasificación de emociones a partir de estos conjuntos de datos utilizando XGBoost, una biblioteca de aprendizaje automático de código abierto. XGBoost utiliza un algoritmo llamado “gradient boosting”, que combina múltiples árboles de decisión (modelos estructurados en forma de árbol utilizados para la toma de decisiones, la clasificación, la predicción y la discriminación) para construir modelos predictivos. Este algoritmo tiene la particularidad de mejorar la precisión del modelo predictivo generando repetidamente nuevos árboles de decisión para compensar partes de los datos que han sido clasificados incorrectamente por el árbol de decisión anterior.
Las emociones de los cerdos se clasificaron con una precisión del 99.91 %
Según el equipo de investigación, el modelo de clasificación de emociones fue capaz de clasificar los sonidos animales con una precisión del 89.49% en las siete especies. Los cerdos se clasificaron con una precisión del 99.91%, los caballos de Przewalski con un 97.78%, el ganado vacuno con un 92.93%, las cabras con un 90.74%, las ovejas con un 88.55%, los caballos con un 81.38% y los jabalíes con un 82.71%. Estos resultados indican que es especialmente fácil comprender las emociones de los cerdos y de los caballos de Przewalski a partir de sus vocalizaciones.
Además, se descubrió que la duración de la llamada, el cambio de frecuencia fundamental, la magnitud de la modulación de amplitud y los patrones de distribución de energía eran consistentes en todas las especies. Esto sugiere que las características vocales básicas que expresan emociones pueden haberse conservado durante la evolución del organismo. Según los investigadores, esto podría dar lugar a nuevos conocimientos sobre los orígenes del lenguaje humano.
Los resultados de esta investigación pueden servir para desarrollar herramientas automatizadas que permitan monitorear las emociones de los animales en tiempo real. Si esta tecnología se aplica en la práctica, podría mejorar radicalmente la gestión del ganado, los cuidados veterinarios y la conservación. Briefer espera que las técnicas de inteligencia artificial se puedan utilizar para acelerar la investigación sobre el bienestar animal mediante una mejor comprensión de los animales.