Resumen:
En los últimos años, la visión por ordenador ha tomado un papel muy importante en la vida cotidiana. Dentro de este campo, encontramos técnicas como el análisis de flujo óptico o las redes neuronales de tipo CNN, siendo YOLO una arquitectura muy popular.
Con estas nuevas técnicas, se busca automatizar procesos en la industria de la acuicultura, tanto de producción como experimentales. En el estado del arte, se presentan usos actuales recientes en piscifactorías para controlar bancos de peces, detectar especímenes y contabilizarlos. Algunas de las ventajas del uso de estas líneas de investigación son la mejora de las condiciones de los peces en la acuicultura.
En este trabajo, se aborda la automatización del experimento NetTest, que se utiliza para analizar la cantidad de estrés que genera en los animales el cambio de condiciones en los entornos en los que viven. Este experimento se basa en contar el número de movimientos realizados por un pez en una red fuera del agua, y actualmente se realiza de forma manual.
Para lograrlo, se ha desarrollado una aplicación de detección automática y contabilización del número de movimientos realizados por truchas en vídeos del experimento NetTest. Con este objetivo, se ha creado un conjunto de datos y se ha entrenado un modelo YOLOv8, que procesa el vídeo y devuelve los resultados de las bounding boxes asociadas a cada trucha.
Una vez localizada la trucha, se ha diseñado un algoritmo que utiliza el área de la bounding box y elementos como el desplazamiento del centroide para marcar en qué fotograma del vídeo se ha producido un movimiento de escape. Finalmente, para facilitar el uso de esta herramienta, se ha desarrollado una interfaz gráfica para el análisis de los resultados en los experimentos NetTest.
Para implementar todas las funcionalidades, se han utilizado herramientas como la ejecución paralela y la inferencia de forma transparente al hardware mediante el uso de múltiples formatos de modelos de red neuronal.
Como resultados, el modelo YOLOv8n se ha entrenado hasta reducir el error asociado a la bounding box y maximizar la puntuación F1. La comparación de resultados con una serie de datos etiquetados en 64 vídeos ha demostrado una tasa de error de ±20%. Estos mismos resultados, que antes requerían semanas de trabajo manual, ahora se obtienen en menos de una hora con esta herramienta.
Abstract:
In recent years, the development of computer vision tools has become very important in our lives. In this field there are techniques such as optical flow analysis or convolutional neural networks, being YOLO one of the most popular architectures.
The use of these new technologies aims to automate different processes in the aquaculture industry, both in the production and in the experimental phases. The research in the state of the art in this field presents recent case use scenarios like fish schools monitoring, detect different specimens and count the number of fishes in an image.
This document deals with the automation of the NetTest experiment, which is being used to analize the amount of stress that changes in the environment can generate in a fish. In this experiment, the number of movements made by a trout in a net are counted, while being out of the water. Currently, this experiment is performed manually.
To achieve this, an application for automate detection and counting of the number of movements made by a trout in the NetTest experiment is presented. To accomplish this, a data set was made and a YOLOv8 model was trained. The model task is to process the video and return data related to the Bounding Boxes detected for each trout.
When the trout is located, an algorithm has been designed that takes elements such as the area of the bounding box and it’s centre to indicate the frames of the video in which a movement has occurred. Finally, to facilitate the use of this tool, a graphical user interface has been developed that helps to analize the results obtained in the videos processed.
To implement all these functionalities, different tools were used such as multiprocessing and HardWare independent inference with different formats of the same model.
In the validation of the results, the YOLOv8n model was trained till the Box Loss error was minimized and the F1 metric maximized. Finally, the movement results were compared to labels obtain from scientist of the NetTest. The labels and the results were compared in 64 videos, obtaining an error of ±20 %. These results, which previously took weeks to obtain, can now be obtained in less than an hour with this tool.
Resumen:
En los últimos años, la visión por ordenador ha tomado un papel muy importante en la vida cotidiana. Dentro de este campo, encontramos técnicas como el análisis de flujo óptico o las redes neuronales de tipo CNN, siendo YOLO una arquitectura muy popular.
Con estas nuevas técnicas, se busca automatizar procesos en la industria de la acuicultura, tanto de producción como experimentales. En el estado del arte, se presentan usos actuales recientes en piscifactorías para controlar bancos de peces, detectar especímenes y contabilizarlos. Algunas de las ventajas del uso de estas líneas de investigación son la mejora de las condiciones de los peces en la acuicultura.
En este trabajo, se aborda la automatización del experimento NetTest, que se utiliza para analizar la cantidad de estrés que genera en los animales el cambio de condiciones en los entornos en los que viven. Este experimento se basa en contar el número de movimientos realizados por un pez en una red fuera del agua, y actualmente se realiza de forma manual.
Para lograrlo, se ha desarrollado una aplicación de detección automática y contabilización del número de movimientos realizados por truchas en vídeos del experimento NetTest. Con este objetivo, se ha creado un conjunto de datos y se ha entrenado un modelo YOLOv8, que procesa el vídeo y devuelve los resultados de las bounding boxes asociadas a cada trucha.
Una vez localizada la trucha, se ha diseñado un algoritmo que utiliza el área de la bounding box y elementos como el desplazamiento del centroide para marcar en qué fotograma del vídeo se ha producido un movimiento de escape. Finalmente, para facilitar el uso de esta herramienta, se ha desarrollado una interfaz gráfica para el análisis de los resultados en los experimentos NetTest.
Para implementar todas las funcionalidades, se han utilizado herramientas como la ejecución paralela y la inferencia de forma transparente al hardware mediante el uso de múltiples formatos de modelos de red neuronal.
Como resultados, el modelo YOLOv8n se ha entrenado hasta reducir el error asociado a la bounding box y maximizar la puntuación F1. La comparación de resultados con una serie de datos etiquetados en 64 vídeos ha demostrado una tasa de error de ±20%. Estos mismos resultados, que antes requerían semanas de trabajo manual, ahora se obtienen en menos de una hora con esta herramienta.
Abstract:
In recent years, the development of computer vision tools has become very important in our lives. In this field there are techniques such as optical flow analysis or convolutional neural networks, being YOLO one of the most popular architectures.
The use of these new technologies aims to automate different processes in the aquaculture industry, both in the production and in the experimental phases. The research in the state of the art in this field presents recent case use scenarios like fish schools monitoring, detect different specimens and count the number of fishes in an image.
This document deals with the automation of the NetTest experiment, which is being used to analize the amount of stress that changes in the environment can generate in a fish. In this experiment, the number of movements made by a trout in a net are counted, while being out of the water. Currently, this experiment is performed manually.
To achieve this, an application for automate detection and counting of the number of movements made by a trout in the NetTest experiment is presented. To accomplish this, a data set was made and a YOLOv8 model was trained. The model task is to process the video and return data related to the Bounding Boxes detected for each trout.
When the trout is located, an algorithm has been designed that takes elements such as the area of the bounding box and it’s centre to indicate the frames of the video in which a movement has occurred. Finally, to facilitate the use of this tool, a graphical user interface has been developed that helps to analize the results obtained in the videos processed.
To implement all these functionalities, different tools were used such as multiprocessing and HardWare independent inference with different formats of the same model.
In the validation of the results, the YOLOv8n model was trained till the Box Loss error was minimized and the F1 metric maximized. Finally, the movement results were compared to labels obtain from scientist of the NetTest. The labels and the results were compared in 64 videos, obtaining an error of ±20 %. These results, which previously took weeks to obtain, can now be obtained in less than an hour with this tool. Read More


