Confianza en humanos y robots: económicamente similar pero emocionalmente diferente

 

Confianza en humanos y robots: económicamente similar pero emocionalmente diferente
En la condición humana, un participante humano (Persona 1) en el rol de inversionista se empareja con un participante humano (Persona 2) en el rol de fiduciario. En la condición Robot1, un humano (Persona 1) en el rol de inversionista está emparejado con un robot en el rol de fiduciario. En la condición Robot2, un participante humano (Persona 1) en el rol de inversionista se empareja con un robot en el rol de administrador que actúa en nombre de un participante pasivo (Persona 2). Crédito: Universidad Chapman

En una investigación publicada en el Revista de psicología económica, los científicos exploran si las personas confían en los robots como lo hacen con los demás humanos. Es importante comprender estas interacciones porque las interacciones basadas en la confianza con los robots son cada vez más comunes en el mercado, el lugar de trabajo, la carretera y el hogar. Los resultados muestran que las personas extienden la confianza de manera similar a los humanos y los robots, pero las reacciones emocionales de las personas en las interacciones basadas en la confianza varían según el tipo de pareja.

El estudio fue dirigido por Eric Schniter, Ph.D. de la Universidad de Chapman. y Timothy Shields, Ph.D. junto con Daniel Sznycer, Ph.D. de la Universidad de Montreal.

Lo investigadores utilizaron un experimento anónimo de juego de confianza durante el cual un fideicomitente humano decidió cuánto de una donación de $ 10 para darle a un administrador: un humano, un robot o un robot cuyos beneficios van a otro ser humano. El fideicomitente humano sabe que hubo ganancias potenciales de la transferencia y el fiduciario determinaría si correspondía mediante la transferencia de una cantidad. Los robots fueron programados para imitar la reciprocidad previamente observada por los administradores humanos.

Está bien establecido que en los juegos de confianza como este, la mayoría de las personas toman decisiones que conducen al beneficio del fideicomisario y del fideicomisario. Después de la interacción, los participantes calificaron varias emociones positivas y negativas.

El diseño experimental permitió a los investigadores explicar dos aspectos importantes de la confianza en los robots explicables: cuánto confían los humanos en los robots en comparación con otros humanos y patrones de cómo los humanos reaccionan emocionalmente después de las interacciones con los robots en comparación con otros humanos.

El experimento muestra que las personas extienden niveles similares de confianza a los humanos y los robots. Esto no es lo que encontraríamos si los humanos confiaran ciegamente o se negaran a confiar en los robots. Esto tampoco sería el resultado si creemos que las personas extienden la confianza con la única intención de mejorar el bienestar de otros humanos, ya que confiar en un robot no mejora el bienestar de otra persona.

El resultado es consistente con la opinión de que las personas extienden la confianza tanto para obtener ganancias monetarias como para descubrir información sobre las tendencias del comportamiento humano. A través de sus interacciones de confianza con los robots, los participantes aprendieron sobre la cooperación de otros seres humanos.

Las emociones sociales son más que sentimientos: regulan el comportamiento social. Más específicamente, las emociones sociales como la culpa, la gratitud, la ira y el orgullo afectan la forma en que tratamos a los demás e influyen en cómo nos tratan los demás en las interacciones basadas en la confianza.

Los participantes en este experimento experimentaron emociones sociales de manera diferente dependiendo de si su pareja era un robot o un humano. La falta de reciprocidad de la inversión del fideicomisario en el administrador desencadenó más enojo cuando el administrador era un humano que cuando el administrador era un robot. Del mismo modo, la reciprocidad provocó más gratitud cuando el administrador era un humano que cuando el administrador era un robot.

Además, las emociones de los participantes discriminaron finamente entre los tipos de robots. Informaron que sintieron un orgullo y una culpa más intensos cuando la recompensa del fideicomisario del robot fue para un humano que cuando el robot actuó solo.

Dado que la confianza inicial no difirió según el tipo de pareja, pero las emociones sociales sí lo hicieron, una posibilidad clara es que la nueva extensión de la confianza en las interacciones repetidas diferirá cuando la pareja sea un humano, un robot o un robot vinculado a un beneficiario humano.

En el futuro, la conducción presentará oportunidades de interacción donde será importante si las decisiones las toman humanos o robots y si sirven a los humanos o no. Algunos automóviles utilizados para la entrega o la recolección pueden conducir sin ocupantes humanos, otros automóviles conducirán con ocupantes humanos pasivos y, sin embargo, otros automóviles serán conducidos por conductores humanos. Se producen interacciones análogas con agentes de facturación automatizados o robóticos, cajeros bancarios, cirujanos, etc.

Las alianzas con reciprocadores consistentes pueden consolidarse en alianzas más fuertes y productivas cuando los reciprocadores son compañeros humanos, porque los humanos provocan más gratitud que los robots. Por el contrario, las asociaciones con reciprocadores inconsistentes pueden ser más estables cuando los reciprocadores son robots, porque los robots provocan menos ira que los humanos. Además, los humanos experimentaron orgullo y culpa más intensamente en las interacciones donde los robots sirvieron a un beneficiario, lo que sugiere que las personas tendrán más probabilidades de volver a extender la confianza a socios similares.

La arquitectura cognitiva humana evolucionó para tener suficiente estructura y contenido para promover la supervivencia y reproducción de nuestros antepasados ​​y al mismo tiempo tener la flexibilidad para navegar por nuevos desafíos y oportunidades. Estas características permiten a los humanos diseñar e interactuar racionalmente con inteligencia artificial y robots. Aún así, las interacciones con los autómatas y la capacidad de la ciencia para explicar estas interacciones son imperfectas porque los autómatas carecen de las señales psicofísicas que esperamos en una interacción y a menudo se guían por lógicas de decisión inexplicables o poco intuitivas.

 


Más información:
E. Schniter et al, Confianza en humanos y robots: económicamente similar pero emocionalmente diferente, Revista de psicología económica (2020).

Proporcionado por
Universidad Chapman

Leave a Comment!