Nuestros cerebros responden de manera diferente al habla humana y al habla generada por IA

Archivo - Imagen de un cerebro.
Archivo - Imagen de un cerebro. - UPM - Archivo
Publicado: martes, 25 junio 2024 7:35

MADRID, 25 Jun. (EUROPA PRESS) -

Las personas no somos muy buenas para distinguir entre voces humanas y voces generadas por inteligencia artificial (IA), pero nuestros cerebros responden de manera diferente a las voces humanas y a las de IA, según una investigación presentada en la Federación de Sociedades Europeas de Neurociencias.

El estudio fue presentado por la investigadora doctoral Christine Skjegstad y realizado por la señora Skjegstad y el profesor Sascha Frühholz, ambos del Departamento de Psicología de la Universidad de Oslo (UiO), Noruega. Skjegstad comenta: "Ya sabemos que las voces generadas por IA se han vuelto tan avanzadas que son casi indistinguibles de las voces humanas reales".

"Ahora es posible clonar la voz de una persona con solo unos segundos de grabación, y los estafadores han utilizado esta tecnología para imitar a un ser querido en apuros y engañar a las víctimas para que transfieran dinero. Si bien los expertos en aprendizaje automático han estado desarrollando soluciones tecnológicas para detectar voces de IA, se sabe mucho menos sobre la respuesta del cerebro humano a estas voces", afirma.

En la investigación participaron 43 personas a las que se les pidió que escucharan voces humanas y generadas por IA que expresaban cinco emociones diferentes: neutral, enojo, miedo, felicidad y placer. Se les pidió que identificaran las voces como sintéticas o naturales mientras se estudiaban sus cerebros mediante imágenes por resonancia magnética funcional (fMRI). La resonancia magnética funcional se utiliza para detectar cambios en el flujo sanguíneo dentro del cerebro, indicando qué partes del cerebro están activas. También se pidió a los participantes que calificaran las características de las voces que escuchaban en términos de naturalidad, confiabilidad y autenticidad.

Los participantes identificaron correctamente voces humanas solo el 56% de las veces y voces de IA el 50,5% de las veces, lo que significa que fueron igualmente malos identificando ambos tipos de voces. Las personas tenían más probabilidades de identificar correctamente una voz de IA "neutral" como IA (75% en comparación con el 23% que podía identificar correctamente una voz humana neutral como humana), lo que sugiere que las personas asumen que las voces neutrales se parecen más a la IA. Las voces neutrales femeninas de IA se identificaron correctamente con más frecuencia que las voces neutrales masculinas de IA. Para las voces humanas felices, la tasa de identificación correcta fue del 78%, en comparación con solo el 32% para las voces felices de IA, lo que sugiere que las personas asocian la felicidad con algo más parecido a lo humano.

Tanto la IA como las voces humanas neutrales se percibieron como menos naturales, confiables y auténticas, mientras que las voces humanas felices se percibieron como las más naturales, confiables y auténticas. Sin embargo, al observar las imágenes del cerebro, los investigadores descubrieron que las voces humanas provocaban respuestas más fuertes en áreas del cerebro asociadas con la memoria (hipocampo derecho) y la empatía (circunvolución frontal inferior derecha). Las voces de IA provocaron respuestas más fuertes en áreas relacionadas con la detección de errores (corteza cingulada media anterior derecha) y la regulación de la atención (corteza prefrontal dorsolateral derecha).

Skjegstad afirma: "Mi investigación indica que no somos muy precisos a la hora de identificar si una voz es humana o generada por IA. Los participantes también expresaron a menudo lo difícil que les resultaba distinguir entre las voces. Esto sugiere que la tecnología de voz actual de IA puede imitar las voces humanas hasta un punto en el que a las personas les resulta difícil diferenciarlas de forma fiable.

"Los resultados también indican un sesgo en la percepción donde las voces neutrales tenían más probabilidades de ser identificadas como generadas por IA y las voces felices tenían más probabilidades de ser identificadas como más humanas, independientemente de si realmente lo eran. Este fue especialmente el caso de las voces neutrales femeninas de IA, lo que puede deberse a que estamos familiarizados con asistentes de voz femeninas como Siri y Alexa. Aunque no somos muy buenos identificando voces humanas de las de IA, parece haber una diferencia en la respuesta del cerebro. Las voces de la IA pueden provocar un mayor estado de alerta, mientras que las voces humanas pueden provocar una sensación de relación".

Los investigadores ahora planean estudiar si los rasgos de personalidad, por ejemplo la extraversión o la empatía, hacen que las personas sean más o menos sensibles a notar las diferencias entre las voces humanas y las de la IA.

Contador