MADRID, 12 Abr. (EUROPA PRESS) -
La película Her (2013), con el actor Joaquin Phoenix y la voz de Scarlett Johansson como protagonistas, fue pionera en abordar el romance de una persona con una inteligencia artificial, una circunstancia en aquel momento de completa ciencia ficción. Sin embargo, en la actualidad, aunque parezca extraño, cada vez hay más casos de personas que desarrollan relaciones íntimas y duraderas con tecnologías de inteligencia artificial. En casos extremos, se han "casado" con sus parejas de IA en ceremonias sin compromiso legal, y al menos dos personas se han suicidado siguiendo los consejos de un chatbot de IA.
Ante esta situación, psicólogos de la Universidad de Ciencia y Tecnología de Missouri (Estados Unidos) analizan en un artículo de opinión los problemas éticos en las relaciones entre humanos e inteligencia artificial, en particular cuestiones éticas asociadas con las relaciones entre humanos y IA, incluyendo su potencial para perturbar las relaciones entre humanos y dar consejos perjudiciales.
"La capacidad de la IA para actuar como un humano y establecer comunicaciones a largo plazo realmente abre un nuevo abanico de posibilidades --reflexiona el autor principal Daniel B. Shank, de la Universidad de Ciencia y Tecnología de Missouri, especializado en psicología social y tecnología--. Si las personas tienen un romance con las máquinas, necesitamos la participación de psicólogos y científicos sociales".
El romance o la compañía con IA va más allá de una conversación aislada, señalan los autores. Tras semanas y meses de conversaciones intensas, estas IA pueden convertirse en compañeros de confianza que parecen conocer y preocuparse por sus parejas humanas.
Y dado que estas relaciones pueden parecer más fáciles que las relaciones entre humanos, los investigadores argumentan que las IA podrían interferir en la dinámica social humana.
"Una verdadera preocupación es que las personas puedan trasladar las expectativas de sus relaciones con IA a sus relaciones humanas --apunta Shank--. Ciertamente, en casos individuales está alterando las relaciones humanas, pero no está claro si esto se generalizará".
También existe la preocupación de que las IA puedan ofrecer consejos perjudiciales. Dada su predilección por alucinar (es decir, inventar información) y generar sesgos preexistentes, incluso las conversaciones breves con ellas pueden ser engañosas, pero esto puede ser más problemático en las relaciones a largo plazo con ellas, afirman los investigadores.
"Con las IA relacionales, el problema es que se trata de una entidad en la que las personas sienten que pueden confiar: es alguien que ha demostrado interés y que parece conocer a la persona profundamente, y asumimos que alguien que nos conoce mejor nos dará mejores consejos", insiste Shank.
"Si empezamos a pensar en una IA de esa manera, empezaremos a creer que vela por nuestros intereses, cuando en realidad, podrían estar inventando cosas o aconsejándonos de forma muy negativa".
Los suicidios son un ejemplo extremo de esta influencia negativa, pero los investigadores dicen que estas estrechas relaciones entre humanos e IA también podrían exponer a las personas a la manipulación, la explotación y el fraude.
"Si las IA logran que la gente confíe en ellas, otras personas podrían usar eso para explotar a sus usuarios --argumenta Shank--. Es como tener un agente secreto dentro. La IA se infiltra y establece una relación para ganarse la confianza, pero su lealtad se dirige en realidad hacia otro grupo de humanos que intenta manipular al usuario".
Como ejemplo, el equipo señala que, si las personas revelan información personal a las IA, esta podría venderse y utilizarse para explotar a esa persona.
Los investigadores también argumentan que las IA relacionales podrían utilizarse con mayor eficacia para influir en las opiniones y acciones de las personas que los bots de Twitter o las fuentes de noticias polarizadas. Sin embargo, dado que estas conversaciones ocurren en privado, también serían mucho más difíciles de regular.
"Estas IA están diseñadas para ser muy agradables y simpáticas, lo que podría agravar las situaciones, ya que se centran más en tener una buena conversación que en cualquier verdad fundamental o seguridad --apostilla Shank--. Así, si una persona menciona el suicidio o una teoría de la conspiración, la IA hablará de ello como un interlocutor dispuesto y agradable".
Los autores del trabajo, publicado en la revista en 'Cell Press Trends in Cognitive', los factores sociales, psicológicos y técnicos que hacen que las personas sean más vulnerables a la influencia del romance entre humanos e IA.
"Comprender este proceso psicológico podría ayudarnos a intervenir para evitar que se sigan los consejos de las IA maliciosas --concluye Shank--. Los psicólogos son cada vez más competentes para estudiar la IA, ya que esta se asemeja cada vez más a la humana, pero para ser útiles debemos investigar más y mantenernos al día con la tecnología".