Drupal utiliza un método de bloqueo motor de búsqueda común a todos los servidores web para evitar que los motores de búsqueda a partir de la incorporación de las páginas Web a las que sirve a una base de datos de búsqueda. Esto es comúnmente utilizado para los sitios web que no tienen datos de acceso público , o para evitar que los motores de búsqueda de solicitar exceso de tráfico de un sitio web . Instrucciones
1
Busque el archivo " robots.txt " en la carpeta raíz de su sitio web con Drupal . La carpeta raíz es también la ubicación de la página principal , pero su ubicación en el servidor web puede variar dependiendo del sistema operativo que se utiliza para ejecutar Drupal.
2
Crear un archivo vacío llamado "robots . txt " en la carpeta raiz, si no existe ninguna. Drupal versión 5 y más tarde va a crear un archivo robots.txt de forma predeterminada, pero también se puede añadir este archivo si no está ya allí .
3
Abra el archivo robots.txt en un . editor de texto
4
Reemplace el contenido del archivo robots.txt con lo siguiente:
User-agent : * por
Disallow: /foto < p> Esto le dice a los motores de búsqueda Web para pasar todo el contenido. Agente de usuario significa que el motor de búsqueda, el "*" es un comodín , es decir, todo el mundo . El "/" significa la raíz , o " cima" de su sitio web . Por lo tanto , al no permitir la raíz , todos los contenidos de todas las páginas en el sitio - que son jerárquicamente " menor" que la raíz - se omite
5
Guarde el archivo robots.txt . . Si el servidor Web utiliza un caché de páginas Web , reiniciarla para que la nueva página se envía a los motores de búsqueda cuando solicitan la página robots.txt .