Hola,
tengo un archivo robots.txt en un dominio .top de un hosting de webempresa que no consigo ver ni borrar y me está bloqueando la pagina web no dejándome indexar nada.
Tras abrir un ticket en soporte, me han contestado esto, y me han derivado a abrir un ticket por aquí para intentar solucionarlo:
"Revisando el robots.txt de tu web, vemos que tienes creado uno estático en:
/public_html/robots.txt
En él estás permitiendo el acceso a todo
Sin embargo, el robots.txt que se está publicando es muy distinto:
Contenido solo visible a usuarios registrados
Hola
El archivo robots.txt que tienes es correcto, sólo te bloquea la administraicón del sitio, es un archivo creado posiblemente con el plugin de SEO Yoast.
Envíanos una captura de pantalla para ver exactamente qué urls o que mensaje exacto te reporta Google Search Console.
Saludos.
Hola.
Seria interesante saber qu eURL es al que te indica que esta bloqueada ya que lo que te indica no es un error es una advertencia y parece ser que si que se indexan.
Lo que no veo es un archivo robot.txt en la raíz de ese dominio.
.- Accede a WordPress -> Seo _< Herramientas
.- Pulsa en " Editor de archivos "
.- Pulsa en el botón " Crear archivo robot.txt "
la pagina web no dejándome indexar nada.
Lo que veo es que indica que no tienes Sitemap creado.
Crea de nuevo el robot.txt y el sitemap desde el plugin de yoast seo.
¿ Las URL en la consola de Googles están bien ?
¿ Tienes validado el dominio en search console ? ¿ Añadiste las claves de google search en la instalación ?
Un saludo
Hola,
lo primero dejar claro que tengo varias webs, manejo varios hosting y conozco de sobra Search console y Yoast. El dominio está dado de alta en Search console (las 4 versiones), Yoast bien configurado, el wordrpess abierto pasa indexar (sin disuadir), etc...
En el pantallazo que adjunte se la url de la web, es una captura de search console con fecha de cuando abrí el ticket.
No había robots.txt por la pruebas que he ido haciendo, la ultima prueba de muchas fue dejarlo vacío para demostrar que aunque en teoría no había ningún robots.txt google detecta uno.
Lo acabo de volver a crear y para mi sorpresa ahora la url no está bloqueada, y sin yo haber hecho yo nada desde el 14 salvo volver a crear de nuevo el robots.txt (fecha del pantallazo). Entiendo que alguien ha hecho algo desde soporte de tickets.
Volveré a editar el robots, para tener el inicial que quería con los disables de seguridad típicos, y si tengo algún problema os comento.
Un saludo y gracias.