Saltar al contenido

1 de febrero de 2026 • Coyprot • 1 min de lectura

La IA en la seguridad: oportunidades y riesgos (2026)

La IA en la seguridad: oportunidades y riesgos (2026)

La IA en la seguridad: oportunidades y riesgos

La adopción de modelos de Machine Learning (ML) y Large Language Models (LLMs) en seguridad se ha acelerado en 2025–2026. Estos modelos permiten desde clasificación de eventos hasta generación de playbooks y automatización de respuesta.

Casos de uso relevantes

  • Detección de anomalías en tráfico de red mediante modelos no supervisados.
  • Clasificación automática de alertas para reducir ruido (alert triage).
  • Enriquecimiento de inteligencia de amenazas (IOC extraction).
  • Generación de informes y resúmenes ejecutivos mediante LLMs.

Riesgos y consideraciones

  • Datos sesgados: modelos entrenados con telemetría incompleta producen falsos positivos/negativos.
  • Adversarial ML: ataques que manipulan entradas para evadir detección.
  • Observabilidad y explicabilidad: es crítico mantener trazabilidad de decisiones.

Ejemplo práctico: detección simple con scikit-learn

# Clasificador básico de anomalías (ejemplo didáctico)
from sklearn.ensemble import IsolationForest
import numpy as np

# features: [bytes_sent, bytes_recv, unique_ports]
X = np.array([
  [1024, 2048, 2],
  [100000, 10, 20],
  [500, 1200, 1],
])
clf = IsolationForest(random_state=42).fit(X)
print(clf.predict(X))

Recomendaciones

  1. Implementar ML en un ciclo seguro: entrenamiento -> validación -> despliegue -> monitorización.
  2. Usar explainability (SHAP/LIME) para justificar detecciones críticas.
  3. Mantener humanos en el loop para decisiones sensibles (remediación automática con aprobación humana).

Nota: este artículo resume tendencias recientes. Para una implantación segura podemos diseñar un POC adaptado a su telemetría.