hola, solo una cosilla.
he leido que puedo elimnar urls de google webmaster usando robots.txt pero tengo una duda:
por ejemplo para eliminar carpetas he visto que usan disallow: /ejemplo/
yo quiero muchas urls sueltas como por ejemplo:
disallow: http://www.dominio.com/nombre.html
esta bien puesto asi?, quiero eliminar bastantes y a ver si asi vale.
saludos y gracias
URL del sitio: Contenido solo visible a usuarios registrados
HOla
Podrías probar usando patrones (patterns), revisa :
http://searchengineland.com/a-deeper-look-at-robotstxt-17573
Saludos.
Hola.
No me aclaro mucho ya que trata demasiados parametros. Tampoco se a que te refieres con los patrones.
Podrias indicar entonces para eliminar del indice como debo ponder una url para una pagina?
Saludos y gracias
Hola Enrique.
Robots.txt usa solamente dos reglas sencillas:
.-User-Agent: el robot al que se aplica la siguiente regla
.-Disallow: la URL que quieres bloquear
Unos Ejemplos serian:
User-Agent: Googlebot ( este bloquearía solo el robot de google )
Disallow: /carpeta/
User-Agent: *
Disallow: /carpeta/
En el primer caso, solamente los bots de Google no pueden indexar el contenido de “carpeta”, mientras que en el segundo ningún bot puede hacerlo.
En tu caso puedes utilizar:
User-Agent: Googlebot
Disallow: Contenido solo visible a usuarios registrados
Un saludo
Muchas gracias, voy a probarlo.
saludos.
Hola enrique.
ok, dejamos el hilo en espera de tus comentarios.
Un saludo