Desatar las manos de los desarrolladores: Google le propuso a Trump su plan de desarrollo de la IA

Desatar las manos de los desarrolladores: Google le propuso a Trump su plan de desarrollo de la IA

¿Qué camino ha elegido la compañía y qué espera del gobierno?

image

En Estados Unidos se inicia una nueva etapa de discusiones sobre la regulación de la inteligencia artificial. Uno de los primeros decretos firmados por Donald Trump tras su regreso a la Casa Blanca fue la orden de elaborar un “AI Action Plan” —un plan de acción nacional para el desarrollo de la IA—, exhortando a todas las partes interesadas a presentar su visión del futuro de esta tecnología. Recientemente, siguiendo el ejemplo de OpenAI, la compañía Google respondió a esta convocatoria.

Según sus representantes, el gobierno de Estados Unidos debe defender con más fuerza los valores estadounidenses en la escena mundial y promover la innovación. En el documento de respuesta se destaca que los reguladores se han centrado demasiado en la búsqueda de riesgos y han pasado por alto cómo las restricciones excesivas socavan el desarrollo tecnológico y el liderazgo científico del país.

En primer lugar, el gigante tecnológico hace hincapié en que el gobierno debería suavizar las restricciones relacionadas con los derechos de autor en el entrenamiento de modelos de IA. Para el desarrollo de la tecnología y la ciencia, los desarrolladores supuestamente necesitan acceso libre a datos de dominio público, incluso si están protegidos por copyright. Esta posición también es compartida por OpenAI: ambas compañías buscan consagrar ese derecho a nivel legislativo.

En Google afirman que este enfoque no causará un perjuicio sustancial a los titulares de los derechos. Al mismo tiempo, las corporaciones podrán evitar negociaciones prolongadas con los propietarios del contenido a la hora de crear modelos y llevar a cabo investigaciones.

Y no se trata de una idea nueva: la compañía sigue manteniendo esta postura incluso después de una serie de litigios. Google, que supuestamente utilizó materiales protegidos por derechos de autor para entrenar varios de sus modelos, se enfrenta hoy a demandas de propietarios de contenido. Estos afirman que la compañía no obtuvo permiso ni pagó por el uso de los datos. Los tribunales estadounidenses aún deben determinar si el principio de uso justo (fair use) ampara a los desarrolladores de IA frente a este tipo de reclamaciones.

El documento también contiene críticas a las restricciones de exportación impuestas por la administración de Biden. Desde la perspectiva de Google, estas medidas generan una carga excesiva para los proveedores estadounidenses de servicios en la nube y pueden debilitar la posición económica del país. Es interesante que sus competidores sostienen una posición diferente: por ejemplo, Microsoft declaró estar completamente dispuesta a cumplir con los nuevos requisitos.

Al mismo tiempo, las reglas de exportación vigentes, diseñadas para limitar el acceso de ciertos países a chips de IA de vanguardia, contemplan excepciones para compañías verificadas que adquieren procesadores en grandes lotes.

Google tiene además su opinión sobre otros temas. La compañía insiste en la necesidad de una financiación estable de la investigación fundamental en Estados Unidos y se opone a los recientes intentos de recortar las subvenciones científicas. Como medidas concretas, propone otorgar a los desarrolladores acceso a bases de datos estatales para el entrenamiento de redes neuronales comerciales. Asimismo, el equipo subraya la importancia de respaldar proyectos relevantes en sus etapas iniciales y de asegurar el libre acceso a recursos informáticos para los centros de investigación.

Una inquietud particular para el gigante tecnológico es la estructura regulatoria en Estados Unidos, donde cada estado adopta sus propias leyes sobre inteligencia artificial. Los especialistas instan a crear una legislación federal única para abordar de manera integral las cuestiones de seguridad y protección de datos personales. Y, en efecto, la magnitud del problema queda ilustrada en las cifras: solo en los dos primeros meses de 2025, los legisladores presentaron 781 proyectos de ley relacionados con la IA.

También advierten sobre la regulación excesiva de la inteligencia artificial, especialmente en temas de responsabilidad por su uso. Supuestamente, a menudo los desarrolladores no pueden rastrear ni influir en cómo se emplean sus modelos, por lo que castigarlos por ciertas cosas resulta bastante injusto.

Google defiende esta postura de manera constante. La compañía se opuso activamente a la aprobación de la ley SB 1047 en California, que detallaba las medidas de precaución al lanzar modelos de IA y los casos en los que los desarrolladores son responsables del daño que estos pudieran causar. Para satisfacción de sus representantes, la ley finalmente no prosperó.

Además, se ha criticado duramente en la empresa los requisitos discutidos en la Unión Europea sobre la transparencia de los sistemas de IA. La compañía considera que estas medidas son excesivas y exhorta a las autoridades estadounidenses a oponerse a normativas que obligan a revelar secretos tecnológicos, facilitan la copia de productos por parte de competidores o ayudan a los ciberdelincuentes a identificar vulnerabilidades en la protección de los algoritmos.

Sin embargo, la tendencia global avanza en sentido contrario. Cada vez más países y regiones exigen una mayor apertura a los desarrolladores de IA. Así, en California, la ley AB 2013 obliga a las compañías a informar públicamente qué datos han utilizado para entrenar sus sistemas. Y la inminente entrada en vigor de la Ley de IA europea irá aún más lejos: los desarrolladores deberán explicar detalladamente a los usuarios los principios de funcionamiento de los modelos, sus limitaciones actuales y los posibles riesgos.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!