Metodología
Área y temporada de estudio
La investigación se desarrollará en la región noroeste de la
Península Antártica, un área que, durante el verano austral, se convierte en
uno de los principales puntos de alimentación para diversas especies de
ballenas. Entre diciembre y marzo, cuando el hielo se retira y el océano se
llena de vida, es posible observar a cetáceos como la ballena jorobada y la sei
alimentándose en aguas ricas en krill. Este período ofrece condiciones ideales
tanto para el trabajo logístico como para registrar la intensa actividad
acústica de estos gigantes marinos.
Los puntos específicos de observación serán seleccionados en
función de datos históricos de presencia de ballenas y accesibilidad logística,
considerando también las rutas de navegación más frecuentadas, para poder
evaluar los efectos del ruido submarino generado por embarcaciones.
Toma de datos (diseño de muestreo y recolección de datos)
El diseño de muestreo es pasivo no invasivo, mediante la
instalación de hidrófonos autónomos de largo plazo (por ejemplo, SoundTrap
ST500 o SM4M), anclados a estructuras sumergidas a profundidades entre 10 y 50
metros, dependiendo de las condiciones del lugar.
Los hidrófonos estarán programados para registrar
continuamente en frecuencias entre 10 Hz y 50 kHz, permitiendo capturar tanto
vocalizaciones de misticetos como eventos de ruido antropogénico. Se
implementará una frecuencia de muestreo mínima de 96 kHz para asegurar la
resolución de señales relevantes. Las unidades serán recuperadas al final de la
temporada para descarga y procesamiento de datos.
El objetivo es obtener un retrato sonoro lo más fiel posible
del entorno marino antártico. Esta recolección se complementará con datos
oceanográficos —como temperatura, salinidad y presencia de krill—, usando
sensores remotos y colaboraciones con otras expediciones científicas en la
región.
Además, se incorporarán
grabaciones propias de cantos de ballenas jorobadas, obtenidas previamente y
procesadas con herramientas como Audacity,
analizadas computacionalmente en
Python. Estas grabaciones
servirán como base para el desarrollo de los algoritmos de análisis acústico.
Descripción y análisis de datos
El procesamiento de los datos acústicos incluirá tres etapas
principales:
Preprocesamiento acústico:
- Filtrado de ruido de fondo
(band-pass filter).
- Normalización de la señal.
- Segmentación automática de
vocalizaciones mediante detección de energía o aprendizaje automático (e.g.,
clustering con scikit-learn).
- Generación de espectrogramas (FFT) y
extracción de características acústicas (frecuencia dominante, duración,
entropía).
Análisis espectro-temporal:
·
Clasificación de tipos de cantos por
especie, utilizando técnicas de aprendizaje supervisado y redes neuronales
ligeras (CNN).
·
Identificación de patrones rítmicos
y secuenciales en vocalizaciones.
·
Estimación de tasas de emisión vocal
y variabilidad horaria/diaria.
Modelado matemático y simulación:
·
Aplicación de cadenas de Markov para
modelar la transición entre unidades acústicas, interpretadas como estados
probabilísticos del canto.
·
Simulación de secuencias de vocalizaciones
sintéticas basadas en distribuciones de transición observadas.
·
Implementación de modelos de
trayectoria 3D donde el estado acústico del animal (tranquilo, incómodo,
perturbado) determina su patrón de movimiento, simulado mediante procesos
estocásticos.
Se utilizará Python como entorno principal de análisis,
integrando bibliotecas como librosa, matplotlib, numpy, scikit-learn y networkx
para visualización, clasificación y modelado.
Comentarios
Publicar un comentario