Inteligencia artificial para anestesiólogos en el Siglo 21

Héctor J. Lacassie1,*

Información y Correspondencia
Filiaciones
1 Profesor Asociado División de Anestesiología. Facultad de Medicina Pontificia Universidad Católica de Chile. Santiago, Chile.

Recibido: —
Aceptado: —
©2022 El(los) Autor(es) – Esta publicación es Órgano oficial de la Sociedad de Anestesiología de Chile


Revista Chilena de Anestesia Vol. 51 Núm. 5 pp. 505-507|https://doi.org/10.25237/revchilanestv5111071034
PDF|ePub|RIS


Recientemente, fue suspendido de sus labores un informático de la empresa Google que trabajaba en un programa de reconocimiento de lenguaje que se basaba en inteligencia artificial, donde él aseguraba que el programa había adoptado una conciencia. El equipo de Google, formado por especialistas en ética y tecnología, revisaron las preocupaciones del informático y de acuerdo con sus principios de inteligencia artificial le informaron que las pruebas no respaldaban sus afirmaciones. Esto no fue del agrado del informático y decidió hacer pública la conversación con su creación[1]. No queda claro si los directivos detectaron un grado de riesgo en dicho desarrollo o sólo fue una vulneración de contrato que los obligó a tomar esa decisión.

La palabra robot fue primeramente descrita por el escritor checo Karel Capek en su obra teatral R.U.R.

El concepto de robótica a su vez, nació en la literatura de ciencia ficción, donde uno de sus mayores exponentes, Isaac Asimov (1902-1992) la describió por primera vez en 1942, seguida de sus famosas tres leyes, que son un conjunto de normas elaboradas que se aplican a la mayoría de los robots de sus obras y que están diseñados para cumplir órdenes:

• Primera Ley: un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

• Segunda Ley: un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

• Tercera Ley: un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

A ellas se les agregó posteriormente, la Ley 0: un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Para todos los efectos, los robots de Asimov se comportarán como seres pensantes y moralmente correctos al estar dotados de cerebros positrónicos, lo que implícitamente habla de inteligencia artificial.

El concepto de inteligencia artificial fue acuñado por primera vez en 1956 por John McCarthy (1927-2011), matemático

e informático estadounidense. Se define como el estudio de algoritmos que otorgan a las máquinas la capacidad de razonar y realizar funciones como la resolución de problemas, el reconocimiento de objetos y palabras, la inferencia de estados del mundo y la toma de decisiones[2].

Es difícil no recordar los aportes de Hollywood a este tema, donde el principal ejemplo es la película Terminator (Orion Pictures, 1984). En ella, el desarrollo de un programa con inteligencia artificial de la industria bélica se revela contra los humanos a los pocos segundos de hacerse consciente de su existencia, borrando de la faz de la tierra a los humanos.

Este es el principal miedo de la humanidad contra este tipo de tecnologías: desarrollar el síndrome de Frankenstein, donde la creación se revela y extermina a su creador. El solo hablar de inteligencia artificial nos hace levantar las cejas y ponernos a la defensiva.

Todo lo anterior funciona muy bien para la literatura de ficción y el cine y tiene mucho impacto en la opinión pública, especialmente en mentes receptivas de teorías conspirativas. Pero no todo puede ser tan oscuro y apocalíptico. Para llegar a esos extremos, se requiere del desarrollo de inteligencia artificial general, que se refiere a emprendimientos cuya ambición cubre la complejidad completa de la inteligencia humana, y no solo una propiedad específica, como por ejemplo, la capacidad de aprendizaje lingüístico o reconocimiento de imágenes, que es lo que existe actualmente. Aquella capacidad global que habla la inteligencia artificial general está muy lejos de ser una realidad.

La inteligencia artificial tiene muchas virtudes, sobre todo para aquellas labores donde una o varias mentes no son capaces de detectar efectos relevantes a partir de patrones imperceptibles para el humano, o bien, de señales que aún ni se nos ocurren que pueden guardar información relevante para su uso.

Antes de seguir y a modo de aclaración, la taxonomía actual de la inteligencia artificial es la siguiente: La inteligencia artificial tiene como subcampos el aprendizaje por máquinas (machine learning), el procesamiento de lenguaje natural y la visión artificial, mientras que los métodos que utilizan son aprendizaje

automático clásico, redes neuronales (neural networks) y lógica difusa (fuzzy logic). El aprendizaje profundo (deep learning) es un tipo de red neuronal de múltiples capas. Como subtipos más evolucionados de redes de aprendizaje profundo están las redes neuronales convolucionales que pueden procesar datos compuestos de múltiples matrices y las redes neuronales recurrentes, que están mejor diseñadas para analizar datos secuenciales[2].

El aprendizaje por máquinas es la operacionalización de la inteligencia artificial. Esta impregna muchos aspectos de nuestra vida profesional donde ofrece la esperanza de mejorar la salud a través de múltiples aplicaciones, incluido el reconocimiento de imágenes, la identificación del lenguaje natural o textual, el análisis de “big data” y otros[3]; donde varios de los modelos aplicados en medicina tienen rendimientos comparables a médicos especialistas. En la práctica, toda la inteligencia artificial útil se basa en el aprendizaje de máquinas y casi todo el aprendizaje de máquinas se basa en redes neuronales[4].

En este número de la Revista Chilena de Anestesia, el grupo de la Pontificia Universidad Católica presenta una revisión en dos partes sobre la Inteligencia Artificial en medicina, un tema que está muy en boga hoy en día. En la primera, Vargas y cols., describen los métodos de modelamiento de inteligencia artificial en medicina, mientras que en la segunda, Biggs y cols., se refieren a la selección de métodos, aplicaciones y consideraciones. Es muy interesante ver el desarrollo de esta tecnología donde cada vez estamos viendo más aplicaciones para el bien de la humanidad.

Sin embargo, la inteligencia artificial no es infalible y puede generar resultados completamente inesperados y contrarios a los que una sociedad estime conveniente. Un ejemplo fue un programa de reconocimiento de fotos online de Google (Goo- gle Photos service). Al poco andar, se percataron que el software clasificaba a hombres afroamericanos en un archivo denominado “gorilas”, lo que generó una gran controversia[5]. El problema principal es que los datos originales introducidos en el sistema deben estar libres de sesgos, de lo contrario, es muy difícil deshacer un resultado inesperado. Hay un clásico dicho en informática: “basura entra, basura sale”. Cuando alimentamos a las máquinas con datos que reflejan nuestros prejuicios, los imitan, desde chatbots antisemitas hasta software con prejuicios raciales[6]. En este caso, la solución fácil era modificar el 3er punto de la Estructura básica de un modelo de aprendizaje por máquinas descrito por Vargas y cols.: Resultado de salida de la ejecución de la máquina u “output”, es decir, eliminar la posibilidad de clasificar en un archivo llamado “gorila”. Obviamente es una solución parche subóptima que no se hace cargo del problema de base.

Otro inconveniente es que los métodos pueden dar resultados de “caja negra”, es decir, un algoritmo puede notificar a un médico o investigador de una predicción, pero no puede proporcionar más información sobre por qué se hizo tal predicción. Finalmente, La inteligencia artificial puede sobresalir en la demostración de correlaciones o en la identificación de patrones, pero aún no puede determinar las relaciones causales[2].

Afortunadamente, la comunidad científica se ha puesto a la altura de las circunstancias y se ha desarrollado un set de directrices multidisciplinarias para el desarrollo y reporte de modelos predictivos de aprendizaje por máquinas en la investigación biomédica[7]. Es posible que esta iniciativa ordene y aporte

para que los resultados de la investigación y desarrollo de la inteligencia artificial en medicina sean reales descubrimientos y no resultados espurios.

Ya existe una revista científica dedicada a la inteligencia artificial (Discover Artificial Intelligence, Springer Nature) que está en sus albores, pero eso algo dice de la importancia y de la seriedad de esta rama de la ciencia que llegó para quedarse. En anestesiología no nos hemos quedado atrás. Son múltiples los estudios que han demostrado beneficio en el uso de inteligencia artificial en alguna labor que realizamos los anestesió- logos, que han sido agrupados en los siguientes dimensiones: (1) monitorización de la profundidad de la anestesia; (2) control de la anestesia; (3) predicción de eventos y riesgos; (4) guía por ultrasonido; (5) manejo del dolor y (6) logística del quirófano. El enfoque predominante en la mayoría de estos estudios ha sido investigar formas potenciales en que la inteligencia artificial puede beneficiar la práctica clínica de la anestesiología, no mediante el reemplazo del médico, sino mediante el aumento del flujo de trabajo, la toma de decisiones y otros elementos de la atención clínica del anestesiólogo[2]. Los rápidos avances que han estado ocurriendo en el aprendizaje profundo y el aprendizaje por refuerzo durante este período de tiempo se han atribuido al desarrollo de tres factores: (1) la disponibilidad de grandes conjuntos de datos; (2) el avance del hardware para realizar grandes tareas de procesamiento en paralelo (por ejemplo, el uso de unidades de procesamiento gráfico para el aprendizaje automático) y (3) una nueva ola de desarrollo de arquitecturas y algoritmos de inteligencia artificial[2].

¿Qué usos de inteligencia artificial nos ha beneficiado en anestesiología hasta el momento? La mayoría están en fases experimentales, pero con un vertiginoso desarrollo que rápidamente llegarán a nuestros quirófanos. Tal es el caso de tres ejemplos que detallo a continuación de los cuales algunos han sido comentados en esta revista en la sección de Citas Cita- bles[8],[9].

Modelamiento con un enfoque de aprendizaje profundo del comportamiento del propofol y remifentanil para predecir nivel hipnótico, con mejor desempeño que los modelos farmacológicos mecánicos clásicos[10]. Este es un ejemplo paradigmático de resultado de “caja negra”, donde el modelo creado por la máquina funciona muy bien, pero es muy difícil reproducirlo si quisiéramos replicarlo, ya que no se basa en conocimientos farmacológicos, modelamientos previos ni patrones fácilmente discernibles.

El uso de un modelo de red neuronal profunda con datos reducidos intraoperatorios, más la inclusión de la clasificación ASA de los pacientes, permitió predecir de manera adecuada la mortalidad intraoperatoria, a un nivel comparable con scores clásicos de riesgo, en cuanto a sensibilidad y especificidad[11]. Es un estudio sobre la capacidad predictiva de la inteligencia artificial. Uno de los inconvenientes es que su capacidad se basa en los casos introducidos para que la máquina pueda “aprender”. Si en el siguiente paciente (n+1, como a los matemáticos les gusta describirlos), las condiciones habituales cambian, el resultado puede ser muy inesperado. La solución es cargar más casos, millones, lo más variopintos posible, de manera que el programa los incorpore a su modelo y mejore su desempeño. La red neuronal resultante, basada en millones de pacientes, tendría una comprensión más profunda de la relación entre propofol, remifentanil y BIS que cualquier ser humano[4].

Aprendizaje por máquinas predice complicaciones posoperatorias con datos preoperatorios (y mejor con datos mixtos preoperatorios e intraoperatorios)[12]. Este es uno más en la búsqueda de las elusivas predicciones a las cuales los humanos perseguimos con tanto interés e intensidad, desde la meteorología, pasando por la economía y por cierto, en la anestesiología.

¿Significa esto que nos quedaremos sin trabajo y debemos empezar a buscar trabajo en Uber?[4] Por ningún motivo. Por el contrario, debemos abrazar esta tecnología y aprovecharla al máximo. El enfoque actual de la inteligencia artificial dentro de la anestesiología no es reemplazar el juicio o las habilidades del médico, sino que aprovechar lo que se nos ofrece e investigar formas de aumentarlas[2]. Es de esperar que esta serie de trabajos sirva en parte para estimular el interés en el tema y de las infinitas oportunidades que abre.

Conflicto de intereses: El autor declara no tener conflicto de intereses. Financiamiento: fondos departamentales.

Referencias

1. Lemoine B. Is LaMDA Sentient? — an Interview. Medium. Fecha de publicación: 11-06-2022 Disponible en: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917 [fecha de acceso: 24-6-2022].

2. Hashimoto DA, Witkowski E, Gao L, Meireles O, Rosman G. Artificial Intelligence in Anesthesiology: Current Techniques, Clinical Applications, and Limitations. Anesthesiology. 2020 Feb;132(2):379–94. https://doi.org/10.1097/ALN.0000000000002960 PMID:31939856

3. Etemadi M, Hogue CW. Preventing Intraoperative Hypotension. Anesthesiology. 2020;133(6):1170–2. https://doi.org/10.1097/ALN.0000000000003561.

4. Gambus P, Shafer SL. Artificial Intelligence for Everyone. Anesthesiology. 2018 Mar;128(3):431–3. https://doi.org/10.1097/ALN.0000000000001984 PMID:29166324

5. Metz C. Who Is Making Sure the A.I. Machines Aren’t Racist? The New YorK Times. Fecha de publicación: 15-03-2021 Disponible en: https://www.nytimes.com/2021/03/15/technology/artificial-intelligence-google-bias.html [fecha de acceso: 24-06-2022].

6. Buranyi S. Rise of the racist robots – how AI is learning all our worst impulses. The Guardian. Fecha de publicación: 08-08-2017 Disponible en: https://www.theguardian.com/inequality/2017/aug/08/rise-of-the-racist-robots-how-ai-is-learning-all-our-worst-impulses [fecha de acceso: 24-06-2022].

7. Luo W, Phung D, Tran T, Gupta S, Rana S, Karmakar C, et al. Guidelines for Developing and Reporting Machine Learning Predictive Models in Biomedical Research: A Multidisciplinary View. J Med Internet Res. 2016 Dec;18(12):e323. https://doi.org/10.2196/jmir.5870 PMID:27986644

8. Rolle A. Desarrollo y validación de un modelo de red neuronal profunda para la predicción de mortalidad posoperatoria intrahospitalaria. (Lee CK, Hofer I, Gabel E, Baldi P, Cannesson M. Development and validation of a deep neural network model for prediction of postoperative in-hospital mortality. Anesthesiology. 2018 Oct;129(4): 649-62). Revista Chilena de Anestesia. 2018;48:178–81.

9.      Pedemonte, J. Uso del aprendizaje automático para el desarrollo y evaluación de modelos para identificar riesgos de complicaciones postoperatorias mediante datos preoperatorios e intraoperatorios. bing Xue y cols. JAMA Network Open. 2021;4(3):e212240. https://doi.org/10.1001/jamanetworkopen.2021.2240.. Revista Chilena de Anestesia 2021; 50: 740-41

10. Lee HC, Ryu HG, Chung EJ, Jung CW. Prediction of Bispectral Index during Target-controlled Infusion of Propofol and Remifentanil: A Deep Learning Approach. Anesthesiology. 2018 Mar;128(3):492–501. https://doi.org/10.1097/ALN.0000000000001892 PMID:28953500

11. Lee CK, Hofer I, Gabel E, Baldi P, Cannesson M. Development and Validation of a Deep Neural Network Model for Prediction of Postoperative In-hospital Mortality. Anesthesiology. 2018 Oct;129(4):649–62. https://doi.org/10.1097/ALN.0000000000002186 PMID:29664888

12. Xue B, Li D, Lu C, King CR, Wildes T, Avidan MS, et al. Use of Machine Learning to Develop and Evaluate Models Using Preoperative and Intraoperative Data to Identify Risks of Postoperative Complications. JAMA Netw Open. 2021 Mar;4(3):e212240. https://doi.org/10.1001/jamanetworkopen.2021.2240 PMID:33783520

Creative Commons License
Except where otherwise noted, the content on this site is licensed under a Creative Commons Attribution 4.0 International License.