Google-Safety: El Crawler Especial que protege contra malware ignorando las reglas de Robots.txt

Rene Fraga
1 minutos de lectura

Google sorprendió al divulgar información sobre Google-Safety, un crawler especial diseñado para detectar y proteger contra malware.

Diseñado para casos especiales, tiene la capacidad de realizar comprobaciones de calidad en páginas de anuncios móviles o mensajes de notificación push a través de las API de Google.

Estos crawlers especiales no obedecen las directivas globales del usuario en archivos robots.txt que están marcadas con un asterisco (*).

Sí, ignora por completo las pautas establecidas en el archivo robots.txt, que normalmente controla el acceso de los bots a las páginas.

El agente de usuario de Google-Safety, identificado como «Google-Safety», se encarga de buscar malware en enlaces disponibles públicamente en las propiedades de Google.

Esta aproximación no convencional de ignorar las reglas de robots.txt permite que el crawler acceda y analice páginas que podrían ser potencialmente perjudiciales para los usuarios.

La documentación completa de Google-Safety se puede encontrar en la página de Google Search Central dedicada a crawlers especiales.

Seguir:
Renê Fraga es fundador de Google Discovery y editor en jefe de Eurisko, un ecosistema editorial independiente dedicado a la tecnología, la ciencia y la innovación. Profesional del marketing digital, con posgrado por la ESPM, sigue de cerca a Google desde la década de 2000 y escribe desde hace más de 20 años sobre tecnología, productos digitales e inteligencia artificial. Fundó Google Discovery en 2006, convirtiéndolo en uno de los principales sitios especializados en Google en Brasil, y fue columnista de TechTudo (Globo.com).
No hay comentarios