B
blogers
Pi
SEO
Hola bueno vego a pedir sus consejos, el chiste es que tengo un proyecto script el cual trabaja 3 procesos a la vez
El primero proceso el comun de toda las webs mostrar resultados del buscador de clasificados que almacena en la bd como una web normal que muestras sus posts almacenados en la bd
El segundo proceso es con cron obtiene da la orden con un comando y archivo para obtener una lista de feeds automaticos de los clasificados como un buscador a los que quiero obtener sus feeds cada 30 minutos
El tercer proceso es similar al segundo la unica diferencia es que obtiene feed individual completos para una pagina individual obtiene 100 feeds cada 2 minuto
E segundo y el tercer proceso hacen que trabaje demasiado el script, por que estan estrayendo datos e insertando datos en la base de datos y a la ves el script esta mostrando datos de la base de datos de los clasificados que se buscan en el sitio.
Mi pregunta como webmaster es que es mas conveniente para dividir el script para que no trabaje todo a la vez y no se quede colgado por errores 500 tengo 2 formas planteadas pero necesito sus opiniones les dejo mis formas como lo pueda trabajar
1. poner el 2 y 3 proceso del script en un vps independiente el cual su trabajo es insertar datos automaticos con la orden de cron y un archivo a la base de datos remota (El buscador de clasificados estara libre de el 2 y3 proceso pero estara con labase de datos estaran en el mismo vps )
2. poner el 2 y 3 proceso del script en un vps independiente el cual su trabajo es insertar datos automaticos con la orden de cron y un archivo a la base de datos local (El buscador de clasificados estara libre de el 2 y3 proceso pero la la base de datos estaran en el mismo vps con 2 y 3 proceso )
El primero proceso el comun de toda las webs mostrar resultados del buscador de clasificados que almacena en la bd como una web normal que muestras sus posts almacenados en la bd
El segundo proceso es con cron obtiene da la orden con un comando y archivo para obtener una lista de feeds automaticos de los clasificados como un buscador a los que quiero obtener sus feeds cada 30 minutos
El tercer proceso es similar al segundo la unica diferencia es que obtiene feed individual completos para una pagina individual obtiene 100 feeds cada 2 minuto
E segundo y el tercer proceso hacen que trabaje demasiado el script, por que estan estrayendo datos e insertando datos en la base de datos y a la ves el script esta mostrando datos de la base de datos de los clasificados que se buscan en el sitio.
Mi pregunta como webmaster es que es mas conveniente para dividir el script para que no trabaje todo a la vez y no se quede colgado por errores 500 tengo 2 formas planteadas pero necesito sus opiniones les dejo mis formas como lo pueda trabajar
1. poner el 2 y 3 proceso del script en un vps independiente el cual su trabajo es insertar datos automaticos con la orden de cron y un archivo a la base de datos remota (El buscador de clasificados estara libre de el 2 y3 proceso pero estara con labase de datos estaran en el mismo vps )
2. poner el 2 y 3 proceso del script en un vps independiente el cual su trabajo es insertar datos automaticos con la orden de cron y un archivo a la base de datos local (El buscador de clasificados estara libre de el 2 y3 proceso pero la la base de datos estaran en el mismo vps con 2 y 3 proceso )