1. Configura
Define qué robots permitir y qué directorios ocultar de los resultados de búsqueda.
Crea instrucciones personalizadas para controlar cómo los buscadores indexan tu sitio web.
User-agent: * Disallow: /admin Sitemap: https://ejemplo.com/sitemap.xml
Define qué robots permitir y qué directorios ocultar de los resultados de búsqueda.
Mira el código robots.txt generarse al momento mientras ajustas los parámetros.
Descarga el archivo y súbelo al directorio raíz de tu servidor web.
Un archivo robots.txt es uno de los elementos fundamentales del SEO técnico. Actúa como un conjunto de instrucciones para los rastreadores (como Googlebot), indicándoles qué partes de tu sitio deben visitar y cuáles no. Es vital para proteger zonas sensibles como /admin o paneles de usuario.
El rastreo eficiente es clave para sitios grandes. Al usar un robots.txt para guiar a los bots, preservas tu **crawl budget** (presupuesto de rastreo), permitiendo que los buscadores se enfoquen en tu contenido más valioso. Nuestro generador facilita la creación de estas reglas sin errores sintácticos.
Debe ir en la raíz de tu dominio. Por ejemplo: https://tudominio.com/robots.txt. Los buscadores lo buscarán ahí automáticamente.
No. Sólo da instrucciones a robots automáticos. No sirve como medida de seguridad para usuarios humanos.
Si no existe, los buscadores asumirán que tienen permiso para rastrear todo tu sitio web sin restricciones.