Para evitar que los algoritmos recorten salarios, Google y Mastercard introducen un "control parental" para bots

Para evitar que los algoritmos recorten salarios, Google y Mastercard introducen un "control parental" para bots

Grandes empresas se unen para combatir los fallos de las redes neuronales.

image

Parece que muy pronto no será una persona quien haga compras en Internet, sino un programa en su nombre. Pero junto con la comodidad surge un problema nuevo: cómo impedir que esos asistentes gasten el dinero en lugares equivocados o de forma indebida.

Ya hay suficientes amenazas digitales: programas maliciosos, suplantación de identidad, cuentas hackeadas. Ahora se añade un riesgo nuevo: las acciones en nombre del usuario comienzan a ser realizadas por los llamados sistemas de agentes basados en inteligencia artificial. Un error o un acceso no autorizado en ese escenario puede salir más caro que lo habitual.

Para evitar el caos, la organización del sector FIDO Alliance junto con Google y Mastercard lanzan grupos de trabajo que se ocuparán del desarrollo de reglas comunes para verificar y proteger las operaciones realizadas por esos sistemas. Se trata de pagos y otras acciones que el programa realiza en lugar de una persona.

La idea es sencilla: crear un conjunto básico de mecanismos de protección que puedan usar distintas empresas. El usuario debe confirmar las acciones del programa con métodos difíciles de interceptar o falsificar. Al mismo tiempo, los servicios podrán verificar mediante criptografía que el programa realmente ejecuta la instrucción del titular de la cuenta y no actúa por orden de un tercero. La confidencialidad desempeña un papel importante: los participantes en la transacción verán solo la parte de los datos que les corresponde.

El director de FIDO Alliance, Andrew Shikiar, dice que los enfoques anteriores de seguridad no contemplaban escenarios en los que las acciones no las realiza directamente una persona. Según él, la situación recuerda la historia de las contraseñas: en su día también se implantaron sin prever la escala de la economía digital moderna, y las consecuencias se fueron resolviendo durante años.

Las empresas ya han propuesto sus desarrollos. Google tiene el protocolo Agent Payments Protocol, que permite confirmar criptográficamente que el usuario realmente autorizó la operación. Mastercard, junto con Google, desarrolla el mecanismo Verifiable Intent —un sistema que otorga a la persona control sobre las acciones del programa y registra su intención.

Google explica la tarea con un ejemplo sencillo. Un usuario quiere comprar zapatillas, pero el modelo deseado no está disponible. Entonces encarga al programa que compre un par automáticamente tan pronto como aparezca y cueste como mucho 100 dólares. En ese escenario es importante garantizar que la compra se realice estrictamente según las condiciones establecidas, sin sorpresas.

Desarrollar estándares comunes suele llevar años, pero ahora hay menos tiempo. Las tecnologías basadas en inteligencia artificial evolucionan con demasiada rapidez, y los participantes del proyecto quieren acelerar el proceso. Además de describir las reglas, habrá que probarlas en la práctica y después convencer a las empresas de que implementen las soluciones en servicios reales.

En Mastercard reconocen que el coste de un error puede ser elevado. Cuanto antes estos mecanismos aparezcan y empiecen a funcionar, más fácil será proteger a usuarios y vendedores frente a abusos.