Ahora la empresa está dispuesta a desarrollar tecnologías capaces de matar personas.
Google ha cambiado los principios de uso de la inteligencia artificial, eliminando el punto en el que prometía evitar tecnologías que pudieran causar daño, incluyendo armas. Según capturas de pantalla, antes en la página existía una sección llamada «Aplicaciones de IA que no perseguiremos», pero ahora ha desaparecido.
En respuesta a una solicitud de comentarios, Google hizo referencia a un blog publicado el martes. En él, el vicepresidente senior de Google, James Manyika, y el jefe de Google DeepMind, Demis Hassabis, declararon: «Creemos que las democracias deben liderar el desarrollo de la IA, basándose en valores como la libertad, la igualdad y el respeto por los derechos humanos».
Google también comentó los cambios para TechCrunch , señalando que la empresa trabajará en «mitigar las consecuencias no intencionadas o maliciosas y evitar sesgos injustos», así como en alinear sus tecnologías con los «principios del derecho internacional y los derechos humanos ampliamente reconocidos».
Margaret Mitchell, ex copresidenta del equipo de ética en IA de Google y actual jefa de ética en la startup Hugging Face, considera que este cambio podría afectar el trabajo de la empresa. «Eliminar este punto borra los logros de muchos especialistas y activistas en el ámbito de la ética en IA. También puede significar que Google ahora está dispuesta a desarrollar tecnologías capaces de matar personas», afirmó.
La exdirectora de "IA Responsable" en Google Cloud, Tracy Pizzo Frey, señaló que los principios de IA ayudaban a su equipo a analizar su trabajo y mejorar la calidad de los productos. «La IA responsable genera confianza, y sin confianza es imposible tener éxito», dijo.
En los últimos años, Google ha sido criticada por colaborar con los ejércitos de EE.UU. e Israel, proporcionando capacidades de computación en la nube. Aunque la empresa afirma que sus tecnologías no se utilizan para causar daño, el jefe del Pentágono en IA declaró recientemente a TechCrunch que los modelos de algunas compañías ya están acelerando el proceso de toma de decisiones en la «cadena de eliminación» del ejército estadounidense.
El cambio en la política de Google coincide con una tendencia general entre las grandes empresas tecnológicas. En enero, Meta redujo parte de sus iniciativas de diversidad en el personal, eliminando entrevistas obligatorias para candidatos de grupos subrepresentados. En el mismo período, Amazon canceló varios programas de inclusión, calificándolos de obsoletos.
Dentro de Google, los debates sobre el equilibrio entre principios éticos y la competencia llevan tiempo. Desde la aparición de ChatGPT en 2022, la empresa ha estado bajo presión y busca mantener su liderazgo en IA. En 2023, algunos empleados expresaron su preocupación de que, en nombre de la competencia, Google estuviera comprometiendo cuestiones éticas.