MADRID, 7 (EUROPA PRESS)
Un equipo de científicos japoneses ha utilizado la tecnología de reconocimiento facial para desarrollar un sistema automatizado que puede predecir cuándo los pacientes en la unidad de cuidados intensivos (UCI) están en alto riesgo de comportamientos inseguros, como quitarse accidentalmente el tubo de respiración, con una precisión del 75 por ciento.
Esta nueva investigación, presentada en el Congreso de la Sociedad Europea de Anestesiología en Viena, sugiere que la herramienta automatizada de detección de riesgos tiene el potencial de ser un monitor continuo de la seguridad del paciente y podría eliminar algunas de las limitaciones asociadas con la capacidad del personal para estar pendiente continuamente de pacientes en estado crítico.
"Utilizando imágenes que habíamos tomado de la cara y los ojos de un paciente, pudimos entrenar sistemas informáticos para reconocer el movimiento de los brazos de alto riesgo. Nos sorprendió el alto grado de precisión que logramos, lo que demuestra que esta nueva tecnología tiene el potencial de ser una herramienta útil para mejorar la seguridad del paciente", explica el líder del trabajo, Akane Sato, del Hospital Universitario de la Ciudad de Yokohama (Japón).
Los pacientes gravemente enfermos son sedados rutinariamente en la UCI para prevenir el dolor y la ansiedad, permitir procedimientos invasivos y mejorar su seguridad. Sin embargo, proporcionar a los pacientes un nivel óptimo de sedación es un reto. Los pacientes que no están sedados adecuadamente tienen más probabilidades de mostrar un comportamiento de alto riesgo, como la extracción accidental de dispositivos invasivos.
En el estudio participaron 24 pacientes postoperatorios (edad promedio de 67 años) que fueron admitidos en la UCI del Hospital Universitario de la Ciudad de Yokohama entre junio y octubre de 2018. El modelo de prueba de concepto se creó utilizando imágenes tomadas por una cámara montada en el techo sobre las camas de los pacientes. Se analizaron alrededor de 300 horas de datos para encontrar imágenes diurnas de pacientes que se encontraban de frente a la cámara en una buena posición corporal que mostraba claramente su rostro y sus ojos.
En total, 99 imágenes fueron sometidas a aprendizaje automático, un algoritmo que puede analizar imágenes específicas basadas en datos de entrada, en un proceso que se asemeja a la forma en que el cerebro humano aprende nueva información. El modelo fue capaz de alertar contra el comportamiento de alto riesgo, especialmente alrededor de la cara del sujeto con gran precisión.
"Varias situaciones pueden poner en riesgo a los pacientes, por lo que nuestro siguiente paso es incluir situaciones adicionales de alto riesgo en nuestro análisis y desarrollar una función de alerta para advertir a los profesionales de la salud sobre conductas de riesgo. Nuestro objetivo final es combinar varios datos de detección, como los signos vitales, con nuestras imágenes para desarrollar un sistema de predicción de riesgos totalmente automatizado", concluye Sato.