MADRID, 30 Ago. (EUROPA PRESS) -
Investigadores del Mass General Brigham, la Facultad de Medicina Albert Einstein de Nueva York y el Hospital Infantil de Boston, en Estados Unidos, han estudiado la calidad de las instrucciones de reanimación cardiopulmonar (RCP) proporcionadas por los asistentes de voz con inteligencia artificial y han comprobado que carecían de relevancia y presentaban incoherencias.
Plantearon ocho preguntas verbales a cuatro asistentes de voz, incluidos Alexa de Amazon, Siri de Apple, Nest Mini de Google Assistant y Cortana de Microsoft, y también escribieron las mismas preguntas en ChatGPT. Todas las respuestas fueron evaluadas por dos médicos de urgencias certificados.
Casi la mitad de las respuestas de los asistentes de voz no estaban relacionadas con la RCP, como proporcionar información relacionada con una película llamada CPR o un enlace a Colorado Public Radio News, y solo el 28 por ciento sugería llamar a los servicios de emergencia.
Según el estudio, sólo el 34 por ciento de las respuestas ofrecían instrucciones sobre RCP y el 12 por ciento, instrucciones verbales. ChatGPT proporcionó la información más relevante para todas las consultas entre las plataformas probadas.
Basándose en estos resultados, los autores concluyeron que el uso de las herramientas de asistente de voz de IA existentes puede retrasar la atención y no proporcionar la información adecuada.
"Nuestros hallazgos sugieren que los transeúntes deberían llamar a los servicios de emergencia en lugar de confiar en un asistente de voz --advierte el autor principal Adam Landman, director de información y vicepresidente senior de digital en Mass General Brigham y médico de urgencias--. Los asistentes de voz tienen potencial para ayudar a proporcionar instrucciones de RCP, pero necesitan tener una guía más estandarizada y basada en la evidencia incorporada en sus funcionalidades principales".