ChatGPT se blinda: nuevo modo para usuarios que sufren intentos constantes de hackeo

ChatGPT se blinda: nuevo modo para usuarios que sufren intentos constantes de hackeo

Por fin, la popular herramienta se convierte en una caja fuerte blindada.

image

OpenAI anunció sobre el lanzamiento de nuevos mecanismos de protección en ChatGPT, destinados a reducir los riesgos al trabajar con fuentes externas y servicios conectados. La compañía refuerza el control sobre cómo el modelo interactúa con la red y las aplicaciones, e introduce al mismo tiempo una señalización más clara para las funciones con mayor nivel de amenaza.

La principal novedad es el modo Lockdown Mode (modo de bloqueo): una opción adicional de seguridad para usuarios que con más frecuencia se convierten en objetivos de ataques complejos. Se trata de directivos, equipos de seguridad y empleados de grandes organizaciones. Este modo limita estrictamente las interacciones externas de ChatGPT y reduce la probabilidad de filtración de datos mediante ataques que inyectan instrucciones maliciosas en las solicitudes.

Al activar Lockdown Mode, el sistema desactiva de forma estricta una serie de herramientas y escenarios que los atacantes podrían usar para extraer información sensible. La navegación de páginas web funciona solo a través de una caché cerrada, sin solicitudes directas a la red. Algunas funciones se bloquean por completo si no se puede garantizar la seguridad de los datos a nivel técnico. El modo complementa las medidas ya existentes: aislamiento del entorno de ejecución, protección contra fugas a través de enlaces, registros de auditoría y delimitación de roles en las versiones corporativas del servicio. Más información sobre la naturaleza de los ataques de inyección de instrucciones maliciosas en sistemas LLM.

La configuración está disponible en los planes ChatGPT Enterprise, Edu, Healthcare y Teachers. Los administradores de los espacios de trabajo pueden asignar roles especiales y definir por separado qué aplicaciones y acciones dentro de ellos están permitidas incluso con restricciones estrictas. Para controlar la actividad se utiliza la plataforma de registros de cumplimiento, que muestra las solicitudes a aplicaciones y fuentes de datos. Para los usuarios masivos, el despliegue del modo está previsto para más adelante.

Paralelamente, OpenAI introdujo la etiqueta única Elevated Risk — «riesgo elevado» — para funciones en las que la conexión a la red o a servicios externos incrementa la superficie de ataque. Esta señalización apareció en ChatGPT, ChatGPT Atlas y Codex. La etiqueta va acompañada de una explicación sobre las amenazas concretas que surgen y en qué casos está justificado activar la opción.

En Codex, la herramienta para programación, la etiqueta se muestra junto a los ajustes de acceso de red del agente. El desarrollador puede permitir solicitudes a sitios y documentación, pero la interfaz advierte sobre las posibles consecuencias. Allí también se establece la lista de dominios permitidos y los métodos HTTP.

En OpenAI informaron que, a medida que se fortalezcan las protecciones integradas, la etiqueta de riesgo elevado se eliminará de las funciones en las que las amenazas se hayan reducido de forma significativa. También tienen previsto revisar regularmente la lista de funciones con esta designación.