
wizardpro
Eta
Verificación en dos pasos activada
Verificado por Whatsapp
En este tutorial quiero hablar sobre un tema que hay muchos usuarios que les gusta mucho y se busca mucha información cada día en Google sobre el scrapeo, los footprints y los proxys, estas tres palabras unidas forman una potente herramienta que utilizan muchos Seos. Voy a enseñaros, todo esto con uno de los programas que están muy de moda actualmente como es GScraper.
Antes de meternos en materia, deberemos entender que es scrapear. Simplemente es conseguir una lista de información de una gran cantidad de páginas web. Como por ejemplo buscar webs que solo aparezca la palabra clave “perder peso” y por medio de ciertos programas se pueden conseguir una lista inmensa de páginas web con esta keyword, y con cierta información de cada uno de los sitios, como su PA, DA, PR, sus enlaces (backlinks), etc.
Con GScrapper que os he comentado al inicio se podría conseguir esta lista como la de la imagen:

Ahora toca hablar de los Proxys
Los proxys son los encargados de hacer de intermediarios entre un servidor y un cliente, básicamente nos interesa utilizar los Proxys para que cuando estemos utilizando programas de Scrapeos podamos engallar a Google para que no nos penalice. Que quiere decir esto, pues si Google ve que siempre estamos utilizando una misma IP con este tipo de programas, sabe que estamos haciendo algo ilegal entre comillas, y empezara a enviarnos el famoso captcha cada vez que queremos realizar una búsqueda, cosa muy incómoda, lo digo por experiencia.
Por obligación tendremos que utilizar los proxys con este tipo de programas. Tendremos dos tipos diferentes, los privados y los públicos.
Los proxys privados, que se pueden comprar en Fiverr o en foros, como te puedes imaginar serán más rápidos y funcionan mejor, porque solo los estas utilizando tu.
Los proxys públicos, se encuentran fácilmente en cualquier foro o web, solo tenéis que daros una vuelta, buscando en google “proxys actualizados” y os empezara a dar varias páginas. Hay unas páginas web que actualizan muy a menudo como son, “proxys.com.ar” y “gatherproxy.com”. En los programas de scrapeo podrás utilizar los que quieras, así que cuantos más mucho mejor. Los proxys públicos no suelen funcionar bien del todo ya que los están utilizando mucha gente, por eso siempre tendremos que ir rastreando la web para encontrar los más recientes.
Llegados a este punto nos queda hablar de los Footprints
Los footprints son simplemente unos comandos que utilizaremos para realizar las búsquedas en Google, como en este ejemplo:
inurl:blogger.com “perder peso”
Con esto le estamos diciendo a Google que busque todos los blogs de blogger que tengan la palabra “perder peso”. Si por ejemplo ponemos “ganar dinero”, buscara todos los blogs de blogger que contengan esa palabra.
En los programas de scrapeo se utilizan los footprints para indicarle que palabra es la que queremos buscar, en el caso del scrapeo lo que queremos es poner comentarios, pues buscaríamos los footprints “dejar comentario”, “deja un comentario”, “leave a comment” “comment”.
Si buscas en Google por footprints encontraras una lista muy extensa sobre todos los que existen, es interesante aprender unos cuantos, os lo ha consejo.
Llegados a este punto, vamos a aprender a utilizar GScraper para realizar un scrapeo.
¿Y para que vamos a utilizar el scrapeo? Pues simplemente, para realizar una estrategia de envió de backlinks masivos a la lista de webs que hemos obtenido, para poner en ellas nuestro enlace de forma automática. También lo podríamos hacer de forma manual, que sería contactar con el webmaster de dicha web y solicitarle un intercambio, una compra de reseña, pero por supuesto más lento, pero más seguro.
Vamos a empezar a ver cómo utilizar GScraper:
Lo primero de todo va a ser conseguir una lista de proxys, ya sean privados o públicos. Iremos a la pestaña Proxys y marcaremos la opción Use proxy (Searching and checking). Previamente habrás obtenido unos proxys y guardado en un fichero txt, el cual importaras en el cuadro, como puedes ver en la siguiente imagen:

Lo segundo que debemos hacer, es ir a la pestaña Options, donde le vamos a indicar como vamos a realizar el scrapeo. En One Keyword’s max results, indica cuantos resultados queremos máximo, por defecto viene quinientos, lo aconsejable son doscientos para evitar bloqueos del programa.
En result type, puedes indicarle si quieres buscar blogs, imágenes, videos, etc y su antigüedad que veras en Result time, por defecto viene Any time, que quiere decir en cualquier momento, el resto de opciones las dejaremos igual. Déjalo todo como en la imagen:

El tercer paso va a ser en la pestaña Scrape, aquí es donde vamos a indicarle los datos del scrapeo, lo primero de todo serán los footprints, debes conseguir una buena lista, cuantos más mejor, para conseguir un gran número de sitos. Puedes combinarlos en Ingles y en español, así tendrás webs de los dos idiomas.
Luego en el cuadro Keywords, pondremos todas las palabras claves que queremos que aparezcan en los diferentes blogs o webs. Por ejemplo si tengo una web de perder peso, pondré Keywords, tipo adelgazar, perder peso, como perder barriga, perder peso rápido, dietas, etc. Cuantas más palabras mejores resultados obtendremos, hay seos que ponen más de quinientas palabras clave. Fijaos en la imagen, tendrías que crear algo así, según vuestra temática:

Una vez puestos los footprints y las Keywords, pulsa el botón Strart Scrape, prepárate un café y a esperar tranquilamente.
Cuando haya finalizado nos dará una lista, ¿Qué hacer con ella?
Nos dará una lista, pero con poca información, nos interesa saber el Page Rank de las diferentes urls que nos muestra, así que deberemos ir a la pestaña Cherck Google Page Rank y luego pulsar Do, como muestro en la siguiente imagen:

Una vez nos ha mostrado el Page Rank de cada una de las Urls, iremos a la pestaña Filter, donde podremos realizar un filtro de los resultados, como por ejemplo eliminar todos los sitios con Page Rank menor a tres, para así quedarnos con los que tienen mejor autoridad. Como en la imagen:

Con esto nos quedaremos con sitios que su Page Rank es igual o superior a tres. Puedes afinar un poco mas y ver webs que mejor posicionadas están en Alexa, las que mas backlinks tienen, etc. También tenemos la opción de eliminar los enlaces que este duplicados con Remove duplícate domain o ulrs duplicadas con Remove duplícate URL.

Con esta lista lo que podremos hacer son miles de enlaces automáticos, muy buenos para los Tiers. Nunca realices esta técnica a tu Página principal si no quieres ser penalizado por Google.
Vamos a crear esos backlinks masivos
Por fin, la parte más esperada, la técnica que es Black Hat del envió de miles de backlins a la lista que hemos obtenido de webs. Lo que haremos será incluir un enlace hacia nuestra página web, que nunca va a ser nuestro Money Site, esto solo lo vamos a utilizar para los Tiers. Con que vamos a enviar muchos backlinks masivos, Google penalizara esas webs en poco tiempo.
Lo primero de todo iremos a la pestaña Post

En el apartado Email, pondremos un correo electrónico, que será el que utilizaremos en los comentarios de nuestra lista web. Hay que poner varios que alternativamente se irán cambiando. Ponlos así: {primercorreo|segundocorreo|tercercorreo}@gmail.com, con lo cual se irán cambiando aleatoriamente como primercorreo@gmail.com, segundocorreo@gmail.com, tercercorreo@gmail.com. Todo lo que pongas entre los corches se irá cambiando.
En la casilla Site and keywords hay que pulsar la “I” donde vamos a añadir un .txt echo con el bloc de notas, en ese bloc de notas habremos puesto en enlace de la web a la que enviaremos los backlinks y entre corchetes un nombre de usuario, que puede ser inventado por supuesto. Tendrias que ponerlo como en el siguiente ejemplo:
http://comoperderpeso.com{Antonio}
Luego seguiremos con la casilla Contents donde tendremos que pulsar también a la “I” y realizaremos una importación del comentario que previamente hemos creado en un .txt con el bloc de notas.
El comentario con que se va a publicar en cualquier web de la lista, deberemos crear un comentario que sea natural y con sentido, pero lo más genérico que te sea posible. Ejemplo, si el articulo habla sobre “la dieta del tomate para poder perder peso” y tu pones el comentario, me ha encantado esta dieta del tomate voy a probarla, cuando este comentario se inserte en una web donde hablan de adelgazar con pilates, el administrador no va a aceptar el comentario, pero si lo pones de forma genérica como por ejemplo: “Me parece muy interesante lo que están comentando en este post, ha sido un acierto descubrir este blog, estoy descubriendo una gran cantidad de información de mucha calidad .” Existirán mayores posibilidades que publiquen dicho comentario.
Una vez hemos llegado a este punto le daremos al botón Start Post y GScraper empieza a trabajar.
Este programa es de pago, pero si buscáis por internet y en ciertos foros lo conseguiréis gratis.
Espero os haya gustado el tutorial, lo he intentado hacer lo mas sencillo que he podido, asi que si os a gustado, agradecería comentarios y un Me agrada.
Antes de meternos en materia, deberemos entender que es scrapear. Simplemente es conseguir una lista de información de una gran cantidad de páginas web. Como por ejemplo buscar webs que solo aparezca la palabra clave “perder peso” y por medio de ciertos programas se pueden conseguir una lista inmensa de páginas web con esta keyword, y con cierta información de cada uno de los sitios, como su PA, DA, PR, sus enlaces (backlinks), etc.
Con GScrapper que os he comentado al inicio se podría conseguir esta lista como la de la imagen:

Ahora toca hablar de los Proxys
Los proxys son los encargados de hacer de intermediarios entre un servidor y un cliente, básicamente nos interesa utilizar los Proxys para que cuando estemos utilizando programas de Scrapeos podamos engallar a Google para que no nos penalice. Que quiere decir esto, pues si Google ve que siempre estamos utilizando una misma IP con este tipo de programas, sabe que estamos haciendo algo ilegal entre comillas, y empezara a enviarnos el famoso captcha cada vez que queremos realizar una búsqueda, cosa muy incómoda, lo digo por experiencia.
Por obligación tendremos que utilizar los proxys con este tipo de programas. Tendremos dos tipos diferentes, los privados y los públicos.
Los proxys privados, que se pueden comprar en Fiverr o en foros, como te puedes imaginar serán más rápidos y funcionan mejor, porque solo los estas utilizando tu.
Los proxys públicos, se encuentran fácilmente en cualquier foro o web, solo tenéis que daros una vuelta, buscando en google “proxys actualizados” y os empezara a dar varias páginas. Hay unas páginas web que actualizan muy a menudo como son, “proxys.com.ar” y “gatherproxy.com”. En los programas de scrapeo podrás utilizar los que quieras, así que cuantos más mucho mejor. Los proxys públicos no suelen funcionar bien del todo ya que los están utilizando mucha gente, por eso siempre tendremos que ir rastreando la web para encontrar los más recientes.
Llegados a este punto nos queda hablar de los Footprints
Los footprints son simplemente unos comandos que utilizaremos para realizar las búsquedas en Google, como en este ejemplo:
inurl:blogger.com “perder peso”
Con esto le estamos diciendo a Google que busque todos los blogs de blogger que tengan la palabra “perder peso”. Si por ejemplo ponemos “ganar dinero”, buscara todos los blogs de blogger que contengan esa palabra.
En los programas de scrapeo se utilizan los footprints para indicarle que palabra es la que queremos buscar, en el caso del scrapeo lo que queremos es poner comentarios, pues buscaríamos los footprints “dejar comentario”, “deja un comentario”, “leave a comment” “comment”.
Si buscas en Google por footprints encontraras una lista muy extensa sobre todos los que existen, es interesante aprender unos cuantos, os lo ha consejo.
Llegados a este punto, vamos a aprender a utilizar GScraper para realizar un scrapeo.
¿Y para que vamos a utilizar el scrapeo? Pues simplemente, para realizar una estrategia de envió de backlinks masivos a la lista de webs que hemos obtenido, para poner en ellas nuestro enlace de forma automática. También lo podríamos hacer de forma manual, que sería contactar con el webmaster de dicha web y solicitarle un intercambio, una compra de reseña, pero por supuesto más lento, pero más seguro.
Vamos a empezar a ver cómo utilizar GScraper:
Lo primero de todo va a ser conseguir una lista de proxys, ya sean privados o públicos. Iremos a la pestaña Proxys y marcaremos la opción Use proxy (Searching and checking). Previamente habrás obtenido unos proxys y guardado en un fichero txt, el cual importaras en el cuadro, como puedes ver en la siguiente imagen:

Lo segundo que debemos hacer, es ir a la pestaña Options, donde le vamos a indicar como vamos a realizar el scrapeo. En One Keyword’s max results, indica cuantos resultados queremos máximo, por defecto viene quinientos, lo aconsejable son doscientos para evitar bloqueos del programa.
En result type, puedes indicarle si quieres buscar blogs, imágenes, videos, etc y su antigüedad que veras en Result time, por defecto viene Any time, que quiere decir en cualquier momento, el resto de opciones las dejaremos igual. Déjalo todo como en la imagen:

El tercer paso va a ser en la pestaña Scrape, aquí es donde vamos a indicarle los datos del scrapeo, lo primero de todo serán los footprints, debes conseguir una buena lista, cuantos más mejor, para conseguir un gran número de sitos. Puedes combinarlos en Ingles y en español, así tendrás webs de los dos idiomas.
Luego en el cuadro Keywords, pondremos todas las palabras claves que queremos que aparezcan en los diferentes blogs o webs. Por ejemplo si tengo una web de perder peso, pondré Keywords, tipo adelgazar, perder peso, como perder barriga, perder peso rápido, dietas, etc. Cuantas más palabras mejores resultados obtendremos, hay seos que ponen más de quinientas palabras clave. Fijaos en la imagen, tendrías que crear algo así, según vuestra temática:

Una vez puestos los footprints y las Keywords, pulsa el botón Strart Scrape, prepárate un café y a esperar tranquilamente.
Cuando haya finalizado nos dará una lista, ¿Qué hacer con ella?
Nos dará una lista, pero con poca información, nos interesa saber el Page Rank de las diferentes urls que nos muestra, así que deberemos ir a la pestaña Cherck Google Page Rank y luego pulsar Do, como muestro en la siguiente imagen:

Una vez nos ha mostrado el Page Rank de cada una de las Urls, iremos a la pestaña Filter, donde podremos realizar un filtro de los resultados, como por ejemplo eliminar todos los sitios con Page Rank menor a tres, para así quedarnos con los que tienen mejor autoridad. Como en la imagen:

Con esto nos quedaremos con sitios que su Page Rank es igual o superior a tres. Puedes afinar un poco mas y ver webs que mejor posicionadas están en Alexa, las que mas backlinks tienen, etc. También tenemos la opción de eliminar los enlaces que este duplicados con Remove duplícate domain o ulrs duplicadas con Remove duplícate URL.

Con esta lista lo que podremos hacer son miles de enlaces automáticos, muy buenos para los Tiers. Nunca realices esta técnica a tu Página principal si no quieres ser penalizado por Google.
Vamos a crear esos backlinks masivos
Por fin, la parte más esperada, la técnica que es Black Hat del envió de miles de backlins a la lista que hemos obtenido de webs. Lo que haremos será incluir un enlace hacia nuestra página web, que nunca va a ser nuestro Money Site, esto solo lo vamos a utilizar para los Tiers. Con que vamos a enviar muchos backlinks masivos, Google penalizara esas webs en poco tiempo.
Lo primero de todo iremos a la pestaña Post

En el apartado Email, pondremos un correo electrónico, que será el que utilizaremos en los comentarios de nuestra lista web. Hay que poner varios que alternativamente se irán cambiando. Ponlos así: {primercorreo|segundocorreo|tercercorreo}@gmail.com, con lo cual se irán cambiando aleatoriamente como primercorreo@gmail.com, segundocorreo@gmail.com, tercercorreo@gmail.com. Todo lo que pongas entre los corches se irá cambiando.
En la casilla Site and keywords hay que pulsar la “I” donde vamos a añadir un .txt echo con el bloc de notas, en ese bloc de notas habremos puesto en enlace de la web a la que enviaremos los backlinks y entre corchetes un nombre de usuario, que puede ser inventado por supuesto. Tendrias que ponerlo como en el siguiente ejemplo:
http://comoperderpeso.com{Antonio}
Luego seguiremos con la casilla Contents donde tendremos que pulsar también a la “I” y realizaremos una importación del comentario que previamente hemos creado en un .txt con el bloc de notas.
El comentario con que se va a publicar en cualquier web de la lista, deberemos crear un comentario que sea natural y con sentido, pero lo más genérico que te sea posible. Ejemplo, si el articulo habla sobre “la dieta del tomate para poder perder peso” y tu pones el comentario, me ha encantado esta dieta del tomate voy a probarla, cuando este comentario se inserte en una web donde hablan de adelgazar con pilates, el administrador no va a aceptar el comentario, pero si lo pones de forma genérica como por ejemplo: “Me parece muy interesante lo que están comentando en este post, ha sido un acierto descubrir este blog, estoy descubriendo una gran cantidad de información de mucha calidad .” Existirán mayores posibilidades que publiquen dicho comentario.
Una vez hemos llegado a este punto le daremos al botón Start Post y GScraper empieza a trabajar.
Este programa es de pago, pero si buscáis por internet y en ciertos foros lo conseguiréis gratis.
Espero os haya gustado el tutorial, lo he intentado hacer lo mas sencillo que he podido, asi que si os a gustado, agradecería comentarios y un Me agrada.