Los rastreadores de IA en Internet ponen en riesgo las infraestructuras
- Actualidad

Los bots de inteligencia artificial que rastrean las páginas web para Meta o Google ya suponen el 80% de todo el tráfico de bots de IA, con posibilidad de sobrecargar las infraestructuras, incluyendo servidores y ancho de banda, con efectos similares a los de ataques de denegación de servicios.
Fastly ha publicado su segundo estudio de amenazas del año, el “Q2 2025 Threat Insights Report”, que arroja luz sobre el modo en que está cambiando el tráfico web automatizado con la extensión de la inteligencia artificial generativa. El informe se basa en el análisis de los 6,5 billones de solicitudes mensuales que reciben servicios de la compañía como Next-Gen WAF y Bot Management.
Cerca del 80% del tráfico de bots de IA se corresponde con los rastreadores; de ellos, los de Meta fueron los más relevantes, con el 52% de todo ese tráfico, seguida por Google (23%) y OpenAI (20%). Esta última, sin embargo, con ChetGPT copó los fetcher bots (98%), que acceden a contenidos web en respuesta a acciones de los usuarios. Todo ello con falta de verificación de bots, “lo que dificulta a los equipos de seguridad diferenciar entre automatización legítima y suplantación maliciosa”.
Incluso los usos legítimos presentan sus riesgos. Fastly ha documentado actividad que ha llegado a superar las 39.000 solicitudes por minuto. Así, la compañía explica que “esta dinámica ejerce presión sobre infraestructuras de origen no protegidas, consume ancho de banda, sobrecarga servidores y replica efectos similares a los de un ataque DDoS, incluso sin intención maliciosa”.
El informe revela además un dato relevante para la evolución posterior de los grandes modelos de inteligencia artificial: la concentración geográfica del tráfico de rastreadores de IA. Cerca del 90% de la actividad observada por Fastly se da en Norteamérica, por lo que la empresa avisa del riesgo de sesgo geográfico en los datos entrenados para entrenar los modelos, con “dudas sobre la neutralidad” que tendrán los resultados que ofrexcan a largo plazo.
Para Arun Kumar, Senior Security Researcher en Fastly, “ya sea recopilando datos para el entrenamiento o proporcionando respuestas en tiempo real, estos bots plantean nuevos retos en cuanto a visibilidad, control y costes. No se puede proteger lo que no se ve, y sin unos estándares de verificación claros, los riesgos de la automatización impulsada por la IA se están convirtiendo en un punto ciego para los equipos digitales”.