En los últimos meses, desarrolladores y proyectos de código abierto han enfrentado un problema creciente: los crawlers (bots) de inteligencia artificial están sobrecargando sus infraestructuras, causando inestabilidad y aumentando costos.
Brasil se ha convertido en uno de los focos de este problema, con muchos sitios y repositorios siendo atacados por crawlers que consumen datos sin medida, afectando el funcionamiento de sistemas esenciales en internet.
Bots de IA, como los usados por grandes empresas de tecnología como Amazon y Alibaba, han estado escaneando sitios de código abierto en busca de datos para alimentar sus sistemas de aprendizaje automático.
Estos escaneos, a menudo agresivos, pueden consumir una enorme cantidad de ancho de banda y causar caídas en los sitios, afectando directamente la experiencia de quienes necesitan acceder a estos recursos.
Un ejemplo de esto es el proyecto Fedora Pagure, que se vio obligado a bloquear todo el tráfico de Brasil debido a la cantidad de bots. GNOME GitLab también tuvo que adoptar un sistema de seguridad para limitar el impacto, aunque con resultados mixtos.
Para enfrentar esta ola de bots, los desarrolladores están creando soluciones como el sistema «Anubis», que obliga a los navegadores a resolver enigmas matemáticos antes de acceder a un sitio.
Aunque eficaz, esta solución puede causar retrasos para los usuarios legítimos, especialmente en momentos de picos de acceso.
La situación es tan grave que, en el caso de algunos proyectos, hasta el 97% del tráfico de sus sitios está siendo generado por crawlers, lo que aumenta los costos de internet y dificulta el mantenimiento de estos servicios. En Brasil, la situación se está volviendo cada vez más crítica.
Dado que muchos proyectos de código abierto dependen de la colaboración pública y tienen recursos limitados, el impacto de tales ataques ha sido aún más devastador.
La presión sobre estos sistemas está llevando a los desarrolladores a tomar medidas drásticas, como bloquear completamente los accesos de algunos países.
En el caso de Brasil, la creciente presencia de crawlers de IA está poniendo en riesgo el funcionamiento de varios proyectos que son esenciales para la comunidad tecnológica global.
Este escenario plantea preguntas sobre el comportamiento de las grandes empresas de IA, que a menudo recolectan datos de manera indiscriminada, sin considerar el impacto que sus acciones causan en pequeñas comunidades de código abierto.
Sin un enfoque más ético y colaborativo, el futuro de la infraestructura digital de internet corre el riesgo de verse comprometido.
La gran pregunta ahora es: ¿Hasta dónde continuarán las empresas de IA explotando los datos sin una regulación clara, y cómo puede protegerse la comunidad contra estas prácticas?