Buenas tardes amigos/as,
Quería hacerles una consulta con la finalidad de tener seguridad en lo que pienso hacer.
En los reportes del Google Search Engine (GSE), aparecen una cantidad de páginas como no indexadas que finalizan en: "page/65/?et_blog" (anexo imagen). En total son muchas URLs. Por lo que estuve investigando, esas son páginas agregadas por DIVI para la paginación de artículos en el Blog, y deshabilitar el Ajax pudiera ser una solución pero el resultado en la paginación no es muy agradable para los usuarios, por lo que esta opción me parece contraproducente.
Me pregunto si escribiendo una regla en el archivo robots.txt de la forma que escribí más abajo me pudiera ayudar a evitar la carga de estas URL por google para evitar tantas URL que no tiene sentido sean rastreadas.
Disallow: *?/*?/?et_blog
Pueden darme su opinión, o alguna sugerencia.
Muchas Gracias y Feliz Tarde
Luis
Contenido solo visible a usuarios registrados
Hola Luis,
El disallow por lo que veo debería ser así:
Disallow: /page/*?/?et_blog
La interrogación es para páginas generales y por lo que veo en la captura que nos envías, todas son de page/... puedes ver más sobre esto en nuestra guía de blog:
https://www.webempresa.com/blog/robots-txt-en-wordpress-que-problema-tienes-googlebot.html
Verifica y nos comentas.
Un saludo 🖐️
Hola Luis,
Encantados, quedamos atentos.
Un saludo 🖐️