R
ramonjosegn
Hace unas semanas reinstalé Wordpress en mi sitio web pero de pronto he visto que cada día se volvía más lento
Después de probar varios plugins de caché veía que no había mejoras
SOLUCIÓN 1 EN ROBOTS.TXT
Finalmente recordé que en una ocasión me habían comentado que el problema en ese momento era por los robots de búsqueda, entran al sitio web varios y comienzan a revisar el sitio, lo cual hace que el rendimiento decaiga
Para evitarlo es necesario incluir un robots.txt que incluya un aviso de que "vayan más lentos" a la hora de explorar nuestro sitio web (al ser robots es evidente que van a leer el sitio web mucho más rápido que los visitantes humanos)
Se usa el comando Crawl-delay: X (donde X son los segundos que el bot debe esperar) - en mi caso estoy usando 20 (segundos)
En este artículo lo explican muy bien e incluso muestran ejemplos para Wordpress, Joomla y Drupal de robots.txt y sus crawl-delay
http://info.cdmon.com/index.php?page=como-crear-el-archivo-robots-txt&hl=esp
SOLUCIÓN 1 (AMPLIADA, USANDO CACHÉ)
Igualmente he instalado los siguientes plugins de caché, para mejorar la experiencia del usuario
(el primero cachea páginas y el segundo cachea peticiones a la base de datos)
Si tenéis un problema de lentitud tratar con robots.txt y crawl delay, si queréis ver cuántos bots están visitando vuestro sitio web podéis usar algún plugin como StatPress que muestra los visitantes en tiempo real y el tipo de visitantes
Espero que esto solucione los posibles problemas de lentitud que tengáis en vuestros sitios, me contáis cómo os va si lo probáis
Nota - también estoy probando MO caché, que cachea los archivos MO
Después de probar varios plugins de caché veía que no había mejoras
SOLUCIÓN 1 EN ROBOTS.TXT
Finalmente recordé que en una ocasión me habían comentado que el problema en ese momento era por los robots de búsqueda, entran al sitio web varios y comienzan a revisar el sitio, lo cual hace que el rendimiento decaiga
Para evitarlo es necesario incluir un robots.txt que incluya un aviso de que "vayan más lentos" a la hora de explorar nuestro sitio web (al ser robots es evidente que van a leer el sitio web mucho más rápido que los visitantes humanos)
Se usa el comando Crawl-delay: X (donde X son los segundos que el bot debe esperar) - en mi caso estoy usando 20 (segundos)
En este artículo lo explican muy bien e incluso muestran ejemplos para Wordpress, Joomla y Drupal de robots.txt y sus crawl-delay
http://info.cdmon.com/index.php?page=como-crear-el-archivo-robots-txt&hl=esp
SOLUCIÓN 1 (AMPLIADA, USANDO CACHÉ)
Igualmente he instalado los siguientes plugins de caché, para mejorar la experiencia del usuario
- Hyper Cache Extended
- DB Cache Reloaded Fix
(el primero cachea páginas y el segundo cachea peticiones a la base de datos)
Si tenéis un problema de lentitud tratar con robots.txt y crawl delay, si queréis ver cuántos bots están visitando vuestro sitio web podéis usar algún plugin como StatPress que muestra los visitantes en tiempo real y el tipo de visitantes
Espero que esto solucione los posibles problemas de lentitud que tengáis en vuestros sitios, me contáis cómo os va si lo probáis
Nota - también estoy probando MO caché, que cachea los archivos MO
Última edición: