Tengo una duda que no sé si es posible hacerlo

  • Autor Autor FelipeLotas
  • Fecha de inicio Fecha de inicio
FelipeLotas

FelipeLotas

Beta
Verificado por Whatsapp
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Me gustaría tener un directorio de mails de un sector. ¿Es posible sacar de una web todos los mails que tienen publicados con algún programa de rastreo?, o ¿Tengo que hacerlo de forma manual?

Gracias de antemano
 
Hola, están visibles en la web? si es así puedes usar web scraping.
 
mmmmmmmm, puedo sacar sus páginas webs y de sus páginas webs su mail...se puede hacer con scraping?
 
mmmmmmmm, puedo sacar sus páginas webs y de sus páginas webs su mail...se puede hacer con scraping?

No entendí a que te refieres, en el comentario anterior te mencioné que si los emails están públicos en la web (habías dicho una web) puedes hacerlo con scraping web. Pero si están privados, la única manera es acceder a la base de datos.
 
Aja, pero que tipo de web quieres rastrear? Una web corporativa? un blog? un foro? una red social? Especifica..
 
Me gustaría tener un directorio de mails de un sector. ¿Es posible sacar de una web todos los mails que tienen publicados con algún programa de rastreo?, o ¿Tengo que hacerlo de forma manual?

Gracias de antemano

A esta altura de juego lo veo complejo, si existe van a querer exterminar tu bolsillo
 
Gracias a todos peña, miraré a ver, si no tendré que hacerlo manual
 
Cualquier cosa que se pueda hacer de forma manual, se puede hacer también de forma automática.
Si tú puedes ver esos emails uno a uno, automatízalo. Ya sea mediante Scrap, UI visión, Pupetter o cualquier otro sistema que los hay a patadas. Hasta con macros de Excel se puede.
Otra cosa es que pidas que te lo hagan. Como dice el compañero @Carlos Frias , prepara el bolsillo.

El conocimiento no es gratis.
 
No pido que lo hagan, lo he preguntado bajo mi ignorancia, solo he preguntado por si había algo fácil de usar, veo que no. Gracias por contestar
 
Me parece que te ha molestado mi respuesta 🤔

Llevas poco tiempo aquí. Yo también.

Para que veas que hay buena gente en ForoBeta, te lo hago gratis, (si no tienes prisa), este fin de semana próximo.

Si quieres, dime por privado la web que es.

Saludos
 
Noooo! no me ha molestado! De verdad he intentado contestar de la forma más respetuosa en serio, siempre voy de buena fe, lo juro. Pero gracias por tu ayuda te pregunto por pm. Mil gracias de verdad
 
Me parece que te ha molestado mi respuesta 🤔

Llevas poco tiempo aquí. Yo también.

Para que veas que hay buena gente en ForoBeta, te lo hago gratis, (si no tienes prisa), este fin de semana próximo.

Si quieres, dime por privado la web que es.

Saludos
Hola compañero, que tal. Una pregunta, que es lo que usas para hacer web scraping? Hace tiempo que tengo pensado aprender porque me serviría de mucho, pero no se por donde comenzar. Tengo pocos conocimientos de JS y pretendo profundizar en este lenguaje también. Aclaro esto porque en este caso quizás me convenga utilizar JS para scrapear. Agradezco tu respuesta.
Saludos!
 
Hola compañero, que tal. Una pregunta, que es lo que usas para hacer web scraping? Hace tiempo que tengo pensado aprender porque me serviría de mucho, pero no se por donde comenzar. Tengo pocos conocimientos de JS y pretendo profundizar en este lenguaje también. Aclaro esto porque en este caso quizás me convenga utilizar JS para scrapear. Agradezco tu respuesta.
Saludos!
El mejor lenguaje para scrapear es python, con bs4, scrapy y selenium. Claro tambien depende del uso que vayas a darle a la data extraida.

Js tambien es bueno pero un poco mas engorroso que py. Ahi se usa cheerio. Y tienes que manejarte bien con nodejs.

En cualquier caso te recomiendo estudiar un poco como funcionan los protocolos de internet, al menos el https. Que si no todo te va a parecer chino mandarin.

Pregunte sin pena que aqui lo que sobra es talento..
Que te respondan eso ya es otro cosa XD
 
Hola compañero, que tal. Una pregunta, que es lo que usas para hacer web scraping? Hace tiempo que tengo pensado aprender porque me serviría de mucho, pero no se por donde comenzar. Tengo pocos conocimientos de JS y pretendo profundizar en este lenguaje también. Aclaro esto porque en este caso quizás me convenga utilizar JS para scrapear. Agradezco tu respuesta.
Saludos!
Hola (soy compañerA)

Ufff, me preguntas por mi pasión. Escribiría libros sobre esto. La extracción de datos es mi vida 😵😵😛
Para scrapear utilizo TODO 😀😀y si algo no existe, me lo invento y/o lo programo.

Personalmente, nunca se me ha resistido nada de lo que he querido extraer.

Si te gusta JS, y es lo que quieres y vas a aprender, podrás scrapear todo lo que quieras. Bueno, NodeJs
Yo empezaría por instalar Xampp, NodeJs y Puppetter en mi PC y ta vas practicando.

Ahora bien...

Si lo que buscas es conocimiento:
@moon-ra te ha contestado correctamente. Aunque hay cosas que es mejor hacerlas de otras maneras. Python está muy bien, pero yo solo lo uso en contadas ocasiones. Me muevo mejor en Js. Aunque cada proyecto es distinto. Y tú has dicho que vas a dedicar más a JS.
Y lo que sí o sí tienes que aprender y desenvolverte bien es con las DevTools de los navegadores. Eso que te sale cuando haces click derecho en una página y eliges "inspeccionar". Esto te va a ser imprescindible.

Si lo que buscas es extraer datos de verdad:
Lo más fácil: EXCEL, sí, Excel. Si la web se deja, claro. Abres el sitemap de la web, copias y pegas en una hoja de excel. Con una macro en VBA se recorren todas las urls, cargando el DOM y extrayendo los datos necesarios. Más fácil imposible.
UIVISION, y no te líes tanto. Según mi experiencia, el 50% de los trabajos lo puedes realizar con UIVision, que es una extensión de chrome. Su versión gratuita es más que suficiente para casi todo. Y tienes que escribir muy poco código, incluso nada de código. El compañero que ha iniciado este hilo pedía unos datos de más de 10.000 páginas que se extraerán en automático visitando las páginas una a una de forma desatendida, entregando la extracción en un sencillo archivo csv.
SCRAMINGFROG, lo uso para páginas gigantes, en un 20% de los trabajos. Hay que conocerlo bien para configurarlo en cada proyecto. Es de pago, y algunas conjuntas del foro lo tienen en su lista, por lo que es barato usarlo. La versión free es limitada, pero funcional para aprender. Extrae lo que sea de cualquier web, si los datos no están excesivamente protegidos.
OCTOPARSE o SCRAPINGSTORM en sus versiones de pago, los uso poco, un 5% de los trabajos, para trabajos más difíciles. Tienen buen apoyo para las que somos blackhateras 😎
Y para el resto, aquellos trabajos duros de verdad, hago programación propia, principalmente con Puppetter que me gusta mucho con NodeJs, y en ocasiones PhantomJs o CasperJs. También Phyton, e incluso PHP.
Todo depende del proyecto, de lo que quiero extraer, y de si ya hice trabajos parecidos y, por lo tanto, tengo rutinas elaboradas anteriormente, que pueda reutilizar con poco trabajo.

Por eso te dije que uso TODO. Siempre depende del proyecto a atacar y de los datos que queremos extraer.

Saludos!
 
Ahora que lo releo, ... igual te he liado más @chita
Bueno, pregunta lo que sea si quieres...
 
Hola (soy compañerA)

Ufff, me preguntas por mi pasión. Escribiría libros sobre esto. La extracción de datos es mi vida 😵😵😛
Para scrapear utilizo TODO 😀😀y si algo no existe, me lo invento y/o lo programo.

Personalmente, nunca se me ha resistido nada de lo que he querido extraer.

Si te gusta JS, y es lo que quieres y vas a aprender, podrás scrapear todo lo que quieras. Bueno, NodeJs
Yo empezaría por instalar Xampp, NodeJs y Puppetter en mi PC y ta vas practicando.

Ahora bien...

Si lo que buscas es conocimiento:
@moon-ra te ha contestado correctamente. Aunque hay cosas que es mejor hacerlas de otras maneras. Python está muy bien, pero yo solo lo uso en contadas ocasiones. Me muevo mejor en Js. Aunque cada proyecto es distinto. Y tú has dicho que vas a dedicar más a JS.
Y lo que sí o sí tienes que aprender y desenvolverte bien es con las DevTools de los navegadores. Eso que te sale cuando haces click derecho en una página y eliges "inspeccionar". Esto te va a ser imprescindible.

Si lo que buscas es extraer datos de verdad:
Lo más fácil: EXCEL, sí, Excel. Si la web se deja, claro. Abres el sitemap de la web, copias y pegas en una hoja de excel. Con una macro en VBA se recorren todas las urls, cargando el DOM y extrayendo los datos necesarios. Más fácil imposible.
UIVISION, y no te líes tanto. Según mi experiencia, el 50% de los trabajos lo puedes realizar con UIVision, que es una extensión de chrome. Su versión gratuita es más que suficiente para casi todo. Y tienes que escribir muy poco código, incluso nada de código. El compañero que ha iniciado este hilo pedía unos datos de más de 10.000 páginas que se extraerán en automático visitando las páginas una a una de forma desatendida, entregando la extracción en un sencillo archivo csv.
SCRAMINGFROG, lo uso para páginas gigantes, en un 20% de los trabajos. Hay que conocerlo bien para configurarlo en cada proyecto. Es de pago, y algunas conjuntas del foro lo tienen en su lista, por lo que es barato usarlo. La versión free es limitada, pero funcional para aprender. Extrae lo que sea de cualquier web, si los datos no están excesivamente protegidos.
OCTOPARSE o SCRAPINGSTORM en sus versiones de pago, los uso poco, un 5% de los trabajos, para trabajos más difíciles. Tienen buen apoyo para las que somos blackhateras 😎
Y para el resto, aquellos trabajos duros de verdad, hago programación propia, principalmente con Puppetter que me gusta mucho con NodeJs, y en ocasiones PhantomJs o CasperJs. También Phyton, e incluso PHP.
Todo depende del proyecto, de lo que quiero extraer, y de si ya hice trabajos parecidos y, por lo tanto, tengo rutinas elaboradas anteriormente, que pueda reutilizar con poco trabajo.

Por eso te dije que uso TODO. Siempre depende del proyecto a atacar y de los datos que queremos extraer.

Saludos!
Veermo, ya veo que te gusta el tema XD
Que gusto da tener gente como tu aca en el foro! Yo apenas si he hecho scrapin para mis proyectos de nlp, y pensaba que sabia jeje...
 

Temas similares

Atrás
Arriba