Robots engañadores: ¿estamos listos para aceptar las dulces mentiras de la IA?

Robots engañadores: ¿estamos listos para aceptar las dulces mentiras de la IA?

Investigadores están probando los límites de lo aceptable en la ética tecnológica.

image

Científicos de la Universidad George Mason llevaron a cabo un fascinante estudio para comprender cómo las personas perciben las mentiras de los robots. En una era en la que interactuamos cada vez más con la inteligencia artificial, esta cuestión se vuelve especialmente relevante.

El autor principal del experimento, el estudiante de posgrado Andrés Rosero, explicó el propósito del proyecto: «Quería estudiar el lado poco explorado de la ética de la robótica para comprender mejor las razones detrás de la desconfianza hacia las nuevas tecnologías y sus creadores».

Los científicos desarrollaron tres escenarios relevantes para áreas donde los robots ya están involucrados: la medicina, la limpieza y el comercio minorista. Para cada caso, idearon tres tipos de engaño: externo (mentira sobre la realidad objetiva), oculto (ocultación de las capacidades del robot) y superficial (exageración de las capacidades del robot).

En el primer escenario, un robot cuidador le mintió a una mujer con Alzheimer diciéndole que su difunto esposo pronto regresaría a casa. En el caso del engaño oculto, un robot limpiador grababa videos en secreto en la casa donde trabajaba. El tercer robot hipotético, que supuestamente trabajaba en una tienda, se quejaba de dolores de espalda al mover muebles y pedía ser reemplazado.

En la encuesta participaron 498 personas. A cada una se le presentó uno de los escenarios y se les preguntó si aprobaban el comportamiento del robot, si se podía justificar y quién más podría ser responsable del engaño. Los resultados mostraron que las personas rechazaron más el engaño oculto: la mayoría consideró inaceptable la grabación de videos en secreto.

Las personas reaccionaron de manera más neutral al engaño externo y superficial. Sin embargo, el escenario superficial, en el que el robot fingía sentir dolor, fue condenado por aproximadamente la mitad de los participantes, posiblemente porque consideraron que era una manipulación psicológica. Las acciones del robot que mintió sobre el esposo a la mujer con Alzheimer fueron justificadas por los encuestados, ya que consideraron que intentaba proteger a la paciente de un sufrimiento innecesario, priorizando el bienestar emocional sobre la honestidad. La mayoría culpó a los desarrolladores y propietarios por las mentiras de las máquinas.

Rosero compartió sus preocupaciones: «Debemos estar alerta ante cualquier tecnología capaz de ocultar la verdadera naturaleza de sus capacidades, ya que esto podría llevar a manipulaciones que ni los usuarios ni los desarrolladores pueden prever».

También hizo un llamado para implementar regulaciones que protejan a los usuarios del engaño por parte de las tecnologías. Según él, algunas empresas ya utilizan características del diseño web y chatbots con IA para manipularnos en su propio beneficio. Además, destacó la importancia de seguir investigando. El científico propuso usar materiales audiovisuales o escenarios de roles cortos para profundizar en cómo las personas reaccionan ante el engaño y si son capaces de reconocerlo en primer lugar.

Los autores del estudio explicaron que el método que eligieron, una investigación transversal utilizando breves escenarios descriptivos, les permitió recopilar de manera efectiva las opiniones de un gran número de participantes. Este enfoque proporciona resultados preliminares que pueden reproducirse y complementarse en futuros experimentos.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse