Buenos días amigos de Webempresa,
Hace poco realicé una modificación del diseño de mi web, eliminé etiquetas e internamente cambié la configuración para que Google no me indexe la taxonomía de "etiquetas". Meses antes instalé el plugin AMP y terminé por desinstalarlo y dar una instrucción 301 para que las páginas indexadas se redirigieran. Sin embargo revisando en Google Search console, me aparecen 308 páginas que no se encuentran (error 404), relacionadas en su mayoría con esos "tag" que eliminé y otras con terminaciones /AMP/ y /FEED/. Cómo puedo corregir esos errores sin afectar el SEO?. Alguien me recomendó realizar una directiva x-robots-tag desde el htaccess. Sería una buena solución?. De hecho en Ahrefs se me marcan muchos problemas 5xx, supongo que todo va relacionado.
Desde ya gracias por la orientación que me puedan brindar.
Contenido solo visible a usuarios registrados
Hola Edith,
En este caso una solución es redireccionar estos errores 404 a tu pagina de inicio, una vez tu sitio web se indexe nuevamente estos errores deben desaparecer.
Una opción para redireccionarlos es añadir la siguiente directiva dentro de tu archivo .htaccess
DirectoryIndex index.html
ErrorDocument 404 http://dominio.com/
También existe un complemento como → https://es.wordpress.org/plugins/404-to-301/
De igual forma, puedes probar crear un nuevo sitemap de tu web y mándalo de nuevo a Google.
Después de esto comprueba si te vuelve a marcar las páginas que comentas o se soluciona.
Verifica esto y nos comentas como va todo
Un Saludo
Hola Karen,
Gracias por tus sugerencias, voy a probarlas. Hay problema si agrego la directiva que me indicas y además creo un nuevo sitemap?. Tienes algún link que me sirva de guía para la creación de este sitemap de manera adecuada?
Hola Edith,
El sitemap usualmente se genera de forma automática con algunos plugins como Yoast SEO, puedes ver información sobre esta configuración y otras en el siguiente articulo que tenemos disponible → https://www.webempresa.com/blog/sitemap-en-wordpress.html
Un Saludo
Te cuento que apliqué el código que me indicas en el htaccess y el error 404 persiste. En lugar de http://dominio.com/ indiqué https://dominio.com/
Hola Edith,
En este caso donde se está mostrando el error, envíanos alguna URL que esté generando el erro 404, ten en cuenta que los errores en search console no desaparecen enseguida, ya que debes esperar que Google rastree nuevamente tu sitio web y actualice los resultados.
Un Saludo
Gracias, si lo del tiempo para corregir los errores 404 en Search console lo tengo claro. Te envío un par de links que dan el error, los que están con TAG me dan el 404, con feed aunque se cuentan como 404 en Search Console, me arrojan un resultado diferente
Hola Edith,
Prueba instalar y activar el siguiente plugin → https://wordpress.org/plugins/all-404-redirect-to-homepage/ y luego comprueba si estos errores 404 no se muestran.
Sobre las URL de los feed no veo ningún problema, pero puedes seleccionar no indexar estas URL en tu search console, para ello puedes probar optimizar el archivo robots.txt como lo indican en el siguiente artículo → https://www.webempresa.com/blog/robots-txt-en-wordpress-que-problema-tienes-googlebot.html
Puedes revisar un ejemplo final en el punto que indican Cómo optimizar el Robots.txt para WordPress al máximo
Verifícalo y nos comentas como ha ido todo
Un Saludo
Hola Karen,
He revisado tus sugerencias para seguirlas. Por el momento encontré otra opción para desindexar mis tags, agregué el siguiente código al header.php de mi tema:
<?php if (is_tag()) : ?>
<meta name="robots" content="noindex, nofollow" />
<?php endif; ?>
Crees que con eso es suficiente? o es mejor indicar un "Disallow" en Robots.txt, indicando: Disallow: / tag / *
para posteriormente solicitar a Google que tenga en cuenta la actualización de ese archivo, tal y como se sugiere en el enlace que me enviaste?
Gracias por tu ayuda
Hola Edith.
Si quieres bloquear los robots para las etiquetas lo mejor es que lo añadas en el archivo robots.txt
El Robots que te indico mi compañera está optimizado para bloquear los tag, feed.... y los boots como MSIECrawler, que no interesa que rastreen, ya que no aportan nada y tiene un consumo elevado de recursos.
Un Saludo