[Indexer BETA] Crea tu indexador y ahorra cientos de {dólares|euros}

  • Autor Autor OsKaR
  • Fecha de inicio Fecha de inicio
OsKaR

OsKaR

Zeta
Verificación en dos pasos activada
Hola betas, como ahora tengo tiempo libre me he puesto manos a la obra... durante estos meses hemos tenido graves problemas de indexación con la respectiva tardanza a la hora de rankear, bien, como todo problema tiene una solución, en este hilo vamos a ver cómo podemos forzar esa indexación, sobre todo en lo referente a los backlinks creados de baja/media calidad.

Indexer BETA: Teoria.
La mayoría de los indexadores se centran en crear cientos de enlaces hacia las urls que pretendemos indexar, básicamente, se intenta forzar a que el robot capture/pase por la url destino consiguiendo esa indexación, PERO, como muchos ya sabeis, estos servicios ya no tienen las mismas tasas de éxito como meses anteriores y la pregunta es, ¿por qué?

Bueno, para dar esa respuesta debemos estudiar y analizar cómo funcionan estos indexadores, para ello basta con preparar el siguiente escenario:

[1] Se registra un dominio.
[2] Se da de alta en search console.
[3] Se crean distintas urls.
[4] Se envía a un indexador.

Los resultados arrojados nos muestran como estos servicios de indexación crean cientos de subdominios automatizados que enlazan a las urls enviadas como ya he comentado anteriormente, el problema viene ahora, los enlaces creados tienen una vida corta, si sumamos a que el bot de Google ha bajado el pistón y tarda más en visitar las webs, saltan todas las alarmas y entendemos a priori, el motivo por el cual la mayoría de indexadores ya no consiguen tasas altas.

Pues muy bien, dado los resultados obtenidos, podemos preparar un experimento el cual creemos un escenario similar a los indexadores del mercado, pero solucionando el problema de la vida de los enlaces, lo cual no será otra cosa que NO eliminar los subdominios creados, crear textos contextualizados y bloquear nuestro rastro a chismosos.

Instalación Indexer BETA
Al final de este post tenéis un "index.php", una programación a una página inspirada en PHPSEO del compañero @meaburro (un crack) ya que me ha ahorrado quebraderos de cabeza, una vez la tengáis basta con seguir los siguientes pasos:

[1] Compra un dominio barato y dalo de alta en tu hosting cPanel.
[2] Crear un subdominio "wildcard" del dominio contratado.
[3] Instala los certificados SSL tanto en root como en wildcard.
[4] Abrir el archivo "index.php" y edita lo siguiente:
- DB_HOST: localhost o host de tu hosting.
- DB_NAME: Nombre de la base de datos.
- DB_USER: Usuario de la base de datos.
- DB_PASS: La contraseña de la base de datos.
- https://%%SUBDOMAIN%%.domain.com: Cambia domain.com por tu dominio sin barra / al final.
(Opcional) Puedes elegir el idioma desde $config['lang'], ES => España, EN => Ingles.
- ADMIN_PASSWORD: Introduce la contraseña para acceder al panel.
(Opcional) Puedes añadir el bloqueo de más robots añadiendolo en $config['block']['robots'];
[5] Guarda los cambios.
[6] Sube el archivo "index.php" al subdominio wildcard.
[7] Ejecuta la instalación desde la url: https://www2.tudominio.com/index.php?router=install. (tendrás que loguearte)

Listo, si has seguido todos los pasos automáticamente serás redirigido al dashboard, sino, algo has hecho mal.

Ahora toca alimentar a la bestia, para ello he reutilizado mi generador de contenido para campañas automatizadas, sobre todo en blogs donde necesitamos muchos artículos. Continuamos:

[1] Dirígete a la sección "Diccionario".
[2] Aquí debes copiar un artículo de temática relacionada a tu nicho.
[3] Dale a guardar.
[4] Repite los pasos del 1 al 3 hasta llegar a un mínimo de 15 mil palabras en diccionario, cuantas más, mejor.

Ahora toca turno de configurar la creación automatizada de subdominios/enlaces a nuestras urls a indexar, para ello utilizaremos cronjob, así que haz lo siguiente:

[1] Vete a cPanel y añade una nueva tarea cronjob.
- Tiempo: Cada minuto.
- Comando: curl -s https://www2.yoursite.com/index.php?router=cronjob
[2] Guardar cambios.

Terminado este paso, ya puedes empezar a indexar tus enlaces:

[1] Entra en el dashboard de Indexer BETA.
- URLS: Tus urls a indexar.
- Días: Los días en los que quieres repartir dicha indexación.
[2] Guardar.

Y listo, ya tienes corriendo tu propio indexador como si fuera uno de pago, ahora, para obtener unos mejores resultados os recomiendo que como mínimo utiliceis 5/10 dominios con IPs distintas y recordar, si van a ser muchos enlaces, deberéis ampliar el número de palabras del diccionario.

Es muy importante no borrar nada, tardará un día, una semana o un mes en rastrear vuestras urls, que se indexen o no, será cuestión de la calidad de la web/sitio/artículo y no del propio indexador.

Control de rastreo:
Para tener controlado en todo momento al bot de Google, dentro de la carpeta "log" encontrareis todos los movimientos que realiza el bot y qué páginas visita.

Como siempre, si tenéis dudas o preguntas, podéis hacerlo en este hilo.

AVISO: No me hago responsable del uso/abuso que se haga de esta herramienta.
 

Adjuntos

Última edición:
Me lanzo a probarlo, muy interesante y de ser cierto un gran aporte que merece premio!
 
Me lanzo a probarlo, muy interesante y de ser cierto un gran aporte que merece premio!
Como te va?
Hola betas, como ahora tengo tiempo libre me he puesto manos a la obra... durante estos meses hemos tenido graves problemas de indexación con la respectiva tardanza a la hora de rankear, bien, como todo problema tiene una solución, en este hilo vamos a ver cómo podemos forzar esa indexación, sobre todo en lo referente a los backlinks creados de baja/media calidad.

Indexer BETA: Teoria.
La mayoría de los indexadores se centran en crear cientos de enlaces hacia las urls que pretendemos indexar, básicamente, se intenta forzar a que el robot capture/pase por la url destino consiguiendo esa indexación, PERO, como muchos ya sabeis, estos servicios ya no tienen las mismas tasas de éxito como meses anteriores y la pregunta es, ¿por qué?

Bueno, para dar esa respuesta debemos estudiar y analizar cómo funcionan estos indexadores, para ello basta con preparar el siguiente escenario:

[1] Se registra un dominio.
[2] Se da de alta en search console.
[3] Se crean distintas urls.
[4] Se envía a un indexador.

Los resultados arrojados nos muestran como estos servicios de indexación crean cientos de subdominios automatizados que enlazan a las urls enviadas como ya he comentado anteriormente, el problema viene ahora, los enlaces creados tienen una vida corta, si sumamos a que el bot de Google ha bajado el pistón y tarda más en visitar las webs, saltan todas las alarmas y entendemos a priori, el motivo por el cual la mayoría de indexadores ya no consiguen tasas altas.

Pues muy bien, dado los resultados obtenidos, podemos preparar un experimento el cual creemos un escenario similar a los indexadores del mercado, pero solucionando el problema de la vida de los enlaces, lo cual no será otra cosa que NO eliminar los subdominios creados, crear textos contextualizados y bloquear nuestro rastro a chismosos.

Instalación Indexer BETA
Al final de este post tenéis un "index.php", una programación a una página inspirada en PHPSEO del compañero @meaburro (un crack) ya que me ha ahorrado quebraderos de cabeza, una vez la tengáis basta con seguir los siguientes pasos:

[1] Compra un dominio barato y dalo de alta en tu hosting cPanel.
[2] Crear un subdominio "wildcard" del dominio contratado.
[3] Instala los certificados SSL tanto en root como en wildcard.
[4] Abrir el archivo "index.php" y edita lo siguiente:
- DB_HOST: localhost o host de tu hosting.
- DB_NAME: Nombre de la base de datos.
- DB_USER: Usuario de la base de datos.
- DB_PASS: La contraseña de la base de datos.
- https://%%SUBDOMAIN%%.domain.com: Cambia domain.com por tu dominio sin barra / al final.
(Opcional) Puedes elegir el idioma desde $config['lang'], ES => España, EN => Ingles.
- ADMIN_PASSWORD: Introduce la contraseña para acceder al panel.
(Opcional) Puedes añadir el bloqueo de más robots añadiendolo en $config['block']['robots'];
[5] Guarda los cambios.
[6] Sube el archivo "index.php" al subdominio wildcard.
[7] Ejecuta la instalación desde la url: https://www2.tudominio.com/index.php?router=install. (tendrás que loguearte)

Listo, si has seguido todos los pasos automáticamente serás redirigido al dashboard, sino, algo has hecho mal.

Ahora toca alimentar a la bestia, para ello he reutilizado mi generador de contenido para campañas automatizadas, sobre todo en blogs donde necesitamos muchos artículos. Continuamos:

[1] Dirígete a la sección "Diccionario".
[2] Aquí debes copiar un artículo de temática relacionada a tu nicho.
[3] Dale a guardar.
[4] Repite los pasos del 1 al 3 hasta llegar a un mínimo de 15 mil palabras en diccionario, cuantas más, mejor.

Ahora toca turno de configurar la creación automatizada de subdominios/enlaces a nuestras urls a indexar, para ello utilizaremos cronjob, así que haz lo siguiente:

[1] Vete a cPanel y añade una nueva tarea cronjob.
- Tiempo: Cada minuto.
- Comando: curl -s https://www2.yoursite.com/index.php?router=cronjob
[2] Guardar cambios.

Terminado este paso, ya puedes empezar a indexar tus enlaces:

[1] Entra en el dashboard de Indexer BETA.
- URLS: Tus urls a indexar.
- Días: Los días en los que quieres repartir dicha indexación.
[2] Guardar.

Y listo, ya tienes corriendo tu propio indexador como si fuera uno de pago, ahora, para obtener unos mejores resultados os recomiendo que como mínimo utiliceis 5/10 dominios con IPs distintas y recordar, si van a ser muchos enlaces, deberéis ampliar el número de palabras del diccionario.

Es muy importante no borrar nada, tardará un día, una semana o un mes en rastrear vuestras urls, que se indexen o no, será cuestión de la calidad de la web/sitio/artículo y no del propio indexador.

Control de rastreo:
Para tener controlado en todo momento al bot de Google, dentro de la carpeta "log" encontrareis todos los movimientos que realiza el bot y qué páginas visita.

Como siempre, si tenéis dudas o preguntas, podéis hacerlo en este hilo, si tenéis mucha prisa, darme un toke por twitter: @OsKaRCM82

AVISO: No me hago responsable del uso/abuso que se haga de esta herramienta.
Excelente aporte, voy a probar.
 
Voy a probar aver gracias
 
Esto se ve con el paso de los días. Tranquilos 🙂🙂🙂🙂
me refería si todo salio bien en la instalación :v a mi me marco 1 rojo xd en 1 linea, aun no lo instalo estoy viendo la programación me encanta analizarlo xD
 
me refería si todo salio bien en la instalación :v a mi me marco 1 rojo xd en 1 linea, aun no lo instalo estoy viendo la programación me encanta analizarlo xD

¿Qué problema te ha dado a la hora de instalar?, pásame log si puedes y le echo un ojo. 😉
 
Alguien ya lo probo, hace lo prometido?
 
Mañana lo pruebo y dejo mi comentario
 
1650485359616.webp


lo acabo de instalar, haber como va
una duda , lo de diccionario , como funciona , debemos colocar obligatoriamente la temática? , se puede poner temáticas en general ?
 
Lo tendré que probar, se agrade el aporte.
 
Muy buena idea y tiene muy buena pinta el script compa. Te agradezco mucho la mención.
En cuanto tenga un hueco le doy una probada.
Un abrazo!
 
Excelente aporte voy a probarlo un dia de estos cuando tengo un rato libre, alguien de aqui lo ha probado ? si es asi que nos diga como le ha ido y si le ha funcionado bien!
 
buenas que tal fue en este tema? si les valió y no tuvieron problemas? (para los que probaron claro está)
por cierto cual seria la diferencia con search console? indexa más rapido o algo por el estilo?
 
Atrás
Arriba