Distinción entre Sub-estados de Sedación usando EEG y Deep Learning

PDF | DOI: 10.25237/congreso-2024-037
Esta obra está bajo licencia CC BY 4.0


  • Autores

Loreta Bernucci Pérez

Magíster en Informática Médica, Facultad de Medicina,
Universidad de Chile.

Edgardo Ramírez Fuentes

Doctorado en Ingeniería Eléctrica, Facultad de Ciencias Físicas
y Matemáticas, Universidad de Chile.

Juan Sebastián Aguirre Bernucci

Facultad de Medicina, Universidad de Chile.

Víctor Castañeda Zeman

Departamento de Tecnología Médica, Facultad de Medicina,
Universidad de Chile.

  • Introducción

La automatización de la administración de anestésicos y sedantes
es una realidad próxima que requiere de la monitorización de los objetivos
anestésicos, entre ellos la sedación. Los monitores de anestesia disponibles
comercialmente no logran discernir los sub-estados del periodo de sedación que
precede a la anestesia quirúrgica. Un puñado de publicaciones recientes
[1][2][3] muestran buenos resultados en diferenciar vigilia y sedación profunda
usando técnicas supervisadas tradicionales de Aprendizaje Automático o Machine
Learning (ML) y de Aprendizaje Profundo o Deep Learning (DL).


  • Objetivo(s)

– Diferenciar 3 sub-estados de sedación: vigilia (AWAKE),
sedación superficial (DROWSY) y sedación profunda (DEEP) utilizando técnicas de
ML y DL.- Comparar el desempeño de técnicas de DL con aquel de técnicas
tradicionales de ML, y con los desempeños reportado en la literatura para ambas
técnicas.


  • Material y Métodos

Se trabajó con 3 bases de datos (BD) pre-existentes de registros
de electroencefalografía (EEG) obtenidos bajo sedación:

BD1: obtenida durante sedación de voluntarios usando escalones
de concentración de propofolBD2: obtenida durante inducción anestésica de
pacientes usando concentraciones crecientes de propofol con y sin
remifentanilBD3: obtenida durante inducción anestésica de pacientes usando
concentraciones crecientes de sevofluorano

Se utilizó como entrada (input) a cada algoritmo la densidad
espectral de potencia (PSD, Power Spectral Density) de segmentos EEG de 1
segundo (128 puntos) de 3 electrodos frontales diferentes (AF7 – F7 – Fp2). Se
entrenó y probó 2 algoritmos de ML tradicional (RL, regresión logística; RF,
random forest) y 2 algoritmos de DL tipo CNN (Convolutional Neural Network)
usando bases de datos individuales y también pares de bases de datos. Se obtuvo
métricas de desempeño clásicas para todos los algoritmos (ACCURACY – PRECISION –
RECALL – F1-SCORE – AUROC) y se determinó la existencia de diferencias
significativas usando estadística no paramétrica.


  • Resultados

Los 4 algoritmos mostraron buenos desempeños en la clasificación
de los sub-estados AWAKE y SEDATED, sin embargo, no se obtuvo métricas
compatibles con el uso clínico en la clasificación de los sub-estados DROWSY y
SEDATED.

Los mejores desempeños se lograron bajo condiciones que
denominamos “óptimas”:

(1) el uso de registros EEG del electrodo frontal AF7 (en lugar
de F7 y Fp2)

(2) el uso de segmentos de EEG obtenidos en condiciones de
estado estacionario de la concentración plasmática del fármaco sedante (base de
datos BD1).


  • Conclusiones

Los resultados de este trabajo demuestran que no es posible
obtener métricas compatibles con el uso clínico para algoritmos de ML y DL en la
diferenciación de los sub-estados de sedación DROWSY y SEDATED. Sin embargo,
usando el PSD de segmentos de EEG de 1 segundo (128 puntos) bajo condiciones
“óptimas”, se obtienen las mejores métricas posibles para esta clasificación. Lo
anterior permite establecer una “línea de base” de desempeño para avanzar en el
mejoramiento de las métricas para este problema de clasificación, por ejemplo,
modificando la arquitectura de los algoritmos CNN o agregando información de
entrada a los algoritmos (por ejemplo agregando el PSD del EEG de un segundo
electrodo).


  • Contacto

Nombre: Edgardo Ramírez

Correo electrónico: edgardo.ramirez@gmail.com /
lbernucci@gmail.com


Creative Commons License
Except where otherwise noted, the content on this site is licensed under a Creative Commons Attribution 4.0 International License.