A medida que la IA se vuelve cada vez más realista, nuestra confianza en aquellos con quienes nos comunicamos puede verse comprometida. Investigadores de la Universidad de Gotemburgo han examinado cómo los sistemas avanzados de IA afectan nuestra confianza en las personas con las que interactuamos.
En un escenario, un posible estafador, creyendo que está llamando a un anciano, está conectado a un sistema informático que se comunica a través de bucles pregrabados. El estafador dedica un tiempo considerable a intentar el fraude, escuchando pacientemente las historias un tanto confusas y repetitivas del « hombre ». Oskar Lindwall, profesor de comunicación en la Universidad de Gotemburgo, observa que, a menudo, las personas tardan mucho en darse cuenta de que están interactuando con un sistema técnico.
Ha escrito, en colaboración con el profesor de informática Jonas Ivarsson, un artículo titulado Suspicious Minds: The Problem of Trust and Conversational Agents, que explora cómo los individuos interpretan y se relacionan con situaciones en las que una de las partes podría ser un agente de IA. El artículo destaca las consecuencias negativas de albergar sospechas hacia los demás, como el daño que puede causar en las relaciones.
Ivarsson brinda un ejemplo de una relación romántica en la que surgen problemas de confianza, lo que genera celos y una mayor tendencia a buscar evidencia de engaño. Los autores argumentan que no poder confiar plenamente en las intenciones y la identidad de un compañero de conversación puede resultar en una sospecha excesiva incluso cuando no hay razón para ello.
Su estudio descubrió que durante las interacciones entre dos humanos, algunos comportamientos se interpretaban como señales de que uno de ellos era en realidad un robot.
Los investigadores sugieren que una perspectiva de diseño omnipresente está impulsando el desarrollo de la IA con características cada vez más parecidas a las humanas. Si bien esto puede ser atractivo en algunos contextos, también puede ser problemático, especialmente cuando no está claro con quién se está comunicando. Ivarsson cuestiona si la IA debería tener voces tan humanas, ya que crean una sensación de intimidad y llevan a las personas a formarse impresiones basadas solo en la voz.
En el caso del posible estafador que llama al « hombre mayor », la estafa solo se expone después de mucho tiempo, lo que Lindwall e Ivarsson atribuyen a la credibilidad de la voz humana y la suposición de que el comportamiento confuso se debe a la edad. Una vez que una IA tiene voz, inferimos atributos como género, edad y antecedentes socioeconómicos, lo que dificulta identificar que estamos interactuando con una computadora.
Los investigadores proponen crear IA con voces elocuentes y que funcionen bien, pero que sigan siendo claramente sintéticas, aumentando la transparencia.
La comunicación con los demás implica no solo el engaño, sino también la construcción de relaciones y la construcción conjunta de significados. La incertidumbre de si uno está hablando con un humano o una computadora afecta este aspecto de la comunicación. Si bien puede no importar en algunas situaciones, como la terapia cognitivo-conductual, otras formas de terapia que requieren más conexión humana pueden verse afectadas negativamente.
Jonas Ivarsson y Oskar Lindwall analizaron los datos disponibles en YouTube. Estudiaron tres tipos de conversaciones y reacciones y comentarios de la audiencia. En el primer tipo, un robot llama a una persona para programar una cita con el cabello, sin que la persona del otro lado lo sepa. En el segundo tipo, una persona llama a otra persona con el mismo fin. En el tercer tipo, los vendedores telefónicos son transferidos a un sistema informático con voz pregrabada.