Avisos
Vaciar todo

robots.txt  

Página 2 / 2
 
EDUARD
 EDUARD
Estimable Member

Hola de nuevo!
Ya he encontrado que era lo que me tenía bloqueada la edición del archivo robots.txt, era el codigo define( 'DISALLOW_FILE_EDIT', true ); que tenía puesto en code snippets...
puede ser que este codigo haya tambien estado bloqueando la configuración que necesita el plugin webp express para poder hacer conversion bulk? pq a mi se me quedaba paralizada la conversion...

Ahora voy a aplicar toda la optimizacion que pepe me ha comentado del archivo robots.txt y entonces me dedicaré a ver que plugins eliminar, porque puede que tenga varios que hagan lo mismo o similar, algunos nada aconsejados seguramente y otros necesarios, supongo que es la duda que tiene todo el mundo a la, hora de deshacerse de plugins

Contenido solo visible a usuarios registrados

Citar
Respondido : 30/01/2025 5:02 pm
EDUARD
 EDUARD
Estimable Member

no me parece que esté ese documento creado en la ruta public_html/aurocha no me parece verlo, lo que si veo y no entiendo, es que hay varios archivos .htaccess...

Captura de pantalla 2025 02 02 a las 11.34.46

entonces, si no está creado, tengo que crearlo como la guía que me has enviado y eliminar todo lo que puse en rank math?
como es que entonces en google search console robots.txt si que aparece el contenido?

Captura de pantalla 2025 02 02 a las 11.38.04

Poco a poco conseguiré ir menjorando la web y no os tendré que preguntar tantas cosas... 🙏🏻😅
Gracias!!

ResponderCitar
Respondido : 02/02/2025 10:39 am

wpdoctor-revisa-la-salud-de-tu-wordpress

Página 2 / 2