1. Elige un preset
Comienza con un preset de un clic para sitios estándar, WordPress o para bloquear crawlers de IA.
Crea, personaliza y descarga un archivo robots.txt para tu web — con presets para crawlers de IA, WordPress y más.
Añade reglas separadas para crawlers individuales (Googlebot, bots de IA, etc.)
Comienza con un preset de un clic para sitios estándar, WordPress o para bloquear crawlers de IA.
Añade rutas bloqueadas, rutas permitidas, sitemaps y reglas por bot para un control detallado.
Copia la salida al portapapeles o descárgala como archivo .txt listo para subir.
Un archivo robots.txt es un documento de texto simple que se coloca en la raíz de tu sitio web (ej. https://ejemplo.com/robots.txt) e indica a los rastreadores de buscadores qué páginas o directorios pueden o no acceder. Sigue el Protocolo de Exclusión de Robots, un estándar soportado por todos los buscadores principales como Google, Bing y DuckDuckGo.
Aunque los sitios pequeños pueden funcionar sin él, tener un robots.txt bien configurado te ayuda a controlar el presupuesto de rastreo, evitar la indexación de paneles de administración o áreas de staging, y — cada vez más importante — bloquear los crawlers de IA como GPTBot, CCBot y Google-Extended para que no rastreen tu contenido.
Usa nuestro generador para construir el archivo visualmente, luego descárgalo o cópialo. Súbelo al directorio raíz de tu dominio para que sea accesible en tudominio.com/robots.txt. Después de subirlo, puedes verificar que funciona correctamente usando el Probador de robots.txt de Google Search Console.
Recuerda que robots.txt solo aconseja a los rastreadores — no impone control de acceso. Si necesitas evitar que una página aparezca en los resultados de búsqueda, combina robots.txt con una etiqueta noindex de meta robots en la propia página.
Bloquear archivos CSS y JS: Google necesita acceso a tus hojas de estilo y scripts para renderizar las páginas correctamente. Bloquearlos puede perjudicar tu posicionamiento. Olvidar la barra final: Disallow: /admin bloquea tanto /admin como /admin-page, mientras que Disallow: /admin/ solo bloquea rutas dentro de ese directorio. Usar robots.txt como seguridad: Las URLs bloqueadas pueden aparecer igualmente en los resultados si otras páginas enlazan a ellas.
Es un archivo de texto plano ubicado en la raíz de tu dominio que indica a los crawlers de buscadores y robots web qué páginas o directorios pueden o no pueden rastrear. Sigue el Protocolo de Exclusión de Robots.
Debe estar en la raíz de tu dominio, accesible en https://tudominio.com/robots.txt. No funcionará si se coloca en un subdirectorio.
Añade bloques User-agent separados para bots de IA como GPTBot, ChatGPT-User, Google-Extended, CCBot y ClaudeBot, cada uno seguido de Disallow: /. Nuestro generador incluye un preset de un clic "Bloquear crawlers IA" para esto.
robots.txt impide que los crawlers accedan a las páginas, mientras que las etiquetas <meta name="robots"> controlan si aparecen en los resultados de búsqueda. Usa ambos juntos para un control completo.
Los buscadores rastrearán e intentarán indexar todas las páginas accesibles de tu sitio. Esto suele funcionar para sitios pequeños, pero los sitios grandes se benefician de controlar su presupuesto de rastreo.
No. Solo da instrucciones a los bots. Si necesitas impedir el acceso humano, usa protección por contraseña o autenticación del servidor.