La IA está en todas partes y no muestra señales de desaparecer. Para 2025, la adopción global de IA alcanzará los 378 millones de usuarios, con un mercado valorado en 244 mil millones de dólares. Más del 61% de los adultos estadounidenses utilizaron IA en los primeros seis meses de 2025, y casi uno de cada cinco depende de ella a diario. 

Sin embargo, se sabe que la IA generativa comete errores, lo que ha impedido su adopción total en sectores que requieren precisión extrema o en sectores regulados como la salud y las finanzas. Por razones similares, las soluciones de IA en ciberseguridad deben abordarse con un alto nivel de cautela. Una mala implementación de IA puede provocar un exceso de falsos positivos y un debilitamiento de la privacidad del usuario, en lugar de mejorar la seguridad de los datos.

Lamentablemente, estas consideraciones no han frenado a los proveedores ansiosos por subirse al tren de la IA. Han llenado sus discursos de marketing con soluciones etiquetadas como IA: desde detección de amenazas y automatización hasta servicios en la nube “impulsados por IA”. Desde la perspectiva de un líder de ciberseguridad, la pregunta es si estas soluciones son simplemente más ruido o si realmente mejorarán la postura de seguridad de la organización. Incluso han reempaquetado funciones antiguas como si fueran IA. Por ejemplo, el sector de ciberseguridad ha utilizado el aprendizaje automático durante años, y ahora esta herramienta antigua se rebrandea prominentemente como IA. 

En este artículo vamos a cortar a través del ruido y desglosar qué debes buscar, como líder de seguridad, en las funciones de IA que ofrecen los proveedores. 

Cuando la IA es solo marketing

Los proveedores de ciberseguridad han reetiquetado funciones ya existentes como IA para aprovechar la moda actual, a menudo sin añadir capacidades nuevas. Muchas funciones adaptativas, como el análisis del comportamiento, se originaron a partir de técnicas de aprendizaje automático como árboles de decisión o clustering, desarrolladas mucho antes del auge de la IA entre 2023 y 2025. Ahora los proveedores las presentan como IA avanzada para alinearse con las tendencias del mercado. 

Los proveedores también están realizando activamente “agent washing”, es decir, rebrandear productos existentes como agentes inteligentes cuando realmente carecen de capacidades agenticas sustanciales, según informa Gartner. El 76% de los profesionales de seguridad coinciden en que el mercado de IA está saturado de exageración. 

Este reempaquetado permite a los proveedores aumentar precios o atraer compradores que esperan seguridad superior, pero las funciones a menudo no hacen más que igualar la eficacia de versiones anteriores. En el peor de los casos, un proveedor está vendiendo un producto antiguo y promocionándolo como la última y mejor solución.

Si bien algunos proveedores integran innovaciones genuinas como el deep learning, la falta de transparencia en detalles —como información del modelo o datos de entrenamiento— difumina las líneas. Los compradores deben exigir evidencia de mejoras, como la reducción de falsos positivos, para evitar invertir en tecnología heredada disfrazada de innovación. 

“Vemos la promesa de la detección de amenazas impulsada por IA, pero en su mayoría es solo coincidencia de firmas con una etiqueta de marketing nuevo,” dice Zbyněk Sopuch, CTO de Safetica. “Otra táctica popular es ofrecer chatbots o ‘asistentes impulsados por IA’ que simplemente reempaquetan bases de conocimiento estáticas pero no reducen realmente la carga de trabajo de los analistas. La clave es replantear el proceso por completo y centrarse en el valor añadido, pero esa no es la situación actual del mercado.”

Zbyněk Sopuch, CTO en Safetica

Cuando la IA solo empeora el problema

Algunos proveedores de ciberseguridad integran funciones de IA que solo amplifican el ruido y las señales, abrumando a los equipos en lugar de abordar los problemas centrales. Estas nuevas herramientas terminan provocando fatiga por alertas y aumentando la complejidad del ecosistema de proveedores. 

También existe una brecha de percepción: el 71% de los ejecutivos afirman que la IA aumenta la productividad, pero solo el 22% de los analistas de SOC están de acuerdo. Como dijo un analista: “No es que no queramos usar IA, es que no confiamos en que funcione de forma fiable sin que la estemos supervisando.

“Una IA mal calibrada puede inundar a los equipos con falsos positivos, creando fatiga en lugar de reducirla,” dice Sopuch. “Muchas empresas simplemente ‘implementan IA’ y consideran que el trabajo está hecho, pero no piensan en ello como el punto de partida.”

Zbyněk Sopuch, CTO en Safetica

La propia naturaleza de la IA puede causar problemas, como cuando los empleados introducen datos en LLMs cuya falta de protecciones de privacidad puede conducir inadvertidamente a fugas de datos. En el caso de ChatGPT, el asunto es particularmente grave, dado que OpenAI está actualmente bajo una orden judicial que le obliga a conservar copias de todas las conversaciones incluso después de que los usuarios las eliminen. 

Las herramientas de usuario final con IA han sido la causa de muchas noches sin dormir para los profesionales de ciberseguridad. Ya sea Windows Recall capturando capturas de pantalla de cada acción del usuario, agentes de código descontrolados, asistentes de IA grabando y transcribiendo cada reunión confidencial, o código asistido por IA publicado con errores, las empresas han sido imprudentes al lanzar herramientas sin suficiente prueba en su afán por seguir la tendencia. 

Los proveedores de ciberseguridad no son diferentes. El FOMO por poner una etiqueta de IA en cada servicio es palpable. Las soluciones de IA apresuradas han llevado repetidamente a vulnerabilidades, y la seguridad y el riesgo asociados con funciones impulsadas por IA suelen ser un pensamiento tardío, si es que se consideran. En estos casos, la IA puede estar ampliando la superficie de ataque de la organización en lugar de ayudar a reducirla.

Dónde la IA es realmente útil

Al evaluar a los proveedores que promocionan y demuestran funciones impulsadas por IA, es importante tener en cuenta los fundamentos en cualquier decisión de compra. 

“Al evaluar la IA en un producto, los líderes de seguridad deben centrarse en la practicidad,” dice Libor Pazdera, Senior Technical Consultant en Safetica. “La IA suena emocionante, pero ¿ayuda realmente a tu equipo o añade más tareas? Algunos proveedores usan ‘impulsado por IA’ para parecer modernos, pero a menudo es simple automatización básica. Pregunta: ¿Qué hace la IA? ¿Puede explicar sus decisiones? ¿Ahorra tiempo o solo aumenta las alertas? La IA debe ayudar, no reemplazar ni confundir. Si facilita el trabajo de tu equipo, es buena señal. Si se siente como una caja negra, probablemente no está lista.”

Libor Pazdera, Senior Technical Consultant en Safetica

Considera funciones que proporcionen automatización y pregúntate si dicha automatización mejorará o perjudicará la productividad. Por ejemplo, las acciones automatizadas basadas en actividad pueden bloquear automáticamente a un usuario por un único evento anómalo. Sin intervención humana para evaluar el nivel de riesgo, esto podría causar interrupciones excesivas. Sin embargo, bloquear automáticamente anomalías de alto umbral puede marcar la diferencia entre contener una brecha o no. Conocer los matices es esencial al considerar una solución adecuada para tu organización.

Las funciones “inteligentes” diseñadas para reducir el “ruido” a veces pueden generarlo. Usar LLMs como filtro es un caso posible. Según los datos de entrenamiento y lo adaptable que sea el modelo, podría identificar amenazas reales y despriorizar alertas menos relevantes, lo que en realidad puede ahorrar tiempo al equipo.

La pregunta más importante es si la adopción de IA mejora al equipo. Pide a los proveedores que te muestren cómo su herramienta acelera los tiempos de respuesta.

“Al evaluar funciones de IA en una solución, los líderes de seguridad deben adoptar una perspectiva equilibrada,” señala Radim Travnicek, CISO de Safetica. “Por un lado, la IA aporta beneficios significativos: acelera la detección, automatiza tareas repetitivas y descubre información que de otro modo pasaría desapercibida.

Radim Travnicek, CISO en Safetica

No compres el hype, compra el resultado

Es fácil dejarse llevar por el hype de la IA y sentir FOMO con los proveedores, especialmente cuando muestran demos llamativas. 

Independientemente del pitch, pide a los proveedores que te muestren resultados. Pregunta cuántas amenazas detuvo la herramienta con IA y cuántas sin ella. Los casos de estudio son extremadamente útiles, y si una empresa no tiene ninguno, eso significa que sus funciones no han sido suficientemente probadas en entornos reales.  

Al centrarte menos en las funciones en sí y más en los resultados, puedes asegurarte de no dejarte arrastrar por el marketing y pensar más holísticamente en cómo estas funciones impulsadas por IA encajan en tu departamento.

El objetivo es una organización segura, no una organización estilo 007 con dispositivos llamativos que aún dejan pasar a los atacantes. 

Próximos artículos

Protección y seguridad de la información una perspectiva de usuario

Es necesario utilizar diferentes herramientas que permitan generar ambientes donde se cumplan todas las políticas de seguridad y los parámetros ya establecidos con el cliente, es aquí donde surge el popular y a veces mal interpretado concepto que el usuario es el eslabón más débil.