El informante Digital

El caso que sacudió a McKinsey.
La startup de ciberseguridad CodeWall demostró que un agente autónomo de inteligencia artificial pudo acceder en menos de dos horas a la base de datos central de Lilli, la plataforma interna de McKinsey. El ataque expuso más de 46 millones de mensajes confidenciales, miles de archivos estratégicos y cuentas de usuario.

Cómo ocurrió.
El agente comenzó mapeando la superficie pública de Lilli y encontró documentación de API con más de 200 puntos de acceso. Veintidós no requerían autenticación y uno presentaba una vulnerabilidad clásica de inyección SQL. A partir de ahí, el sistema encadenó fallas y escaló privilegios hasta obtener acceso completo.

El riesgo de los prompts.
Lo más delicado fue que el ataque permitió no solo leer, sino también modificar los system prompts que definen cómo responde la IA. Un cambio silencioso en esas instrucciones habría alterado la información que reciben los 43.000 consultores de McKinsey, sin dejar rastros en los registros tradicionales.

La respuesta de McKinsey.
La consultora reaccionó rápido: bloqueó los endpoints vulnerables y desconectó entornos de desarrollo. En un comunicado aseguró que no encontró evidencia de acceso a datos de clientes. Sin embargo, expertos advierten que nueve días de revisión forense son insuficientes para descartar que otros actores hayan explotado la falla antes.

Una advertencia para todas las empresas.
El incidente revela un nuevo frente de riesgo: las instrucciones internas de los sistemas de IA. Si una firma con recursos como McKinsey dejó expuesta una vulnerabilidad básica durante dos años, el panorama para miles de compañías que adoptan IA sin auditorías específicas es preocupante.

Resumen breve.
Un agente de IA hackeó la base de datos de McKinsey en dos horas, exponiendo millones de mensajes y mostrando el riesgo de no asegurar los sistemas de inteligencia artificial.