Eliminar urls indexadas

  • Autor Autor Don Michi
  • Fecha de inicio Fecha de inicio
Don Michi

Don Michi

Préstamo
No recomendado
Verificado
Verificación en dos pasos activada
Verificado por Whatsapp
¡Ha verificado su Paypal!
Verificado por Binance
Saludos amigos tengo un problema con mi sitio web el cual es que hace un tiempito le fue ingresado un malware el cual creaba unas redireciones a ciertas páginas indexadas las cuales eran redirecionadas a una web tienda china...

Entonces ese malware me dejó unas url indexadas

Screenshot_2023-01-14-16-18-20-322_com.android.chrome.webp


Entonces me gustaría saber si alguien me puede ayudar a explicar cómo eliminar esas urls indexadas de las search de Google

El detalle es que son muchisimas url

Mayormente estás url suelen empezar el slug por (?)

Ejemplo: https://packs-hub.com/?nz2274
 
En el archivo robots.txt puedes modificar ello, dices que son "muchas", Pues siendo muchas con un parámetro especifico. Bloquee por los archivos robots.txt ese parámetro...

User-agent: Googlebot
Disallow: /?


/? es el parámetro a bloquear, porque todo de alli para allá no está bien...
?aaaa
?bbbb
?cccc
 
Remove URL o un rewrite rule, pero verifica si no estas infectado
 
En el archivo robots.txt puedes modificar ello, dices que son "muchas", Pues siendo muchas con un parámetro especifico. Bloquee por los archivos robots.txt ese parámetro...

User-agent: Googlebot
Disallow: /?


/? es el parámetro a bloquear, porque todo de alli para allá no está bien...
?aaaa
?bbbb
?cccc
Okey amigo entonces dicho código en la robots.txt bloqueará solo las url que sus slug empiezen /? Entonces dichas url con slug que empiezen por ejemplo /p no serán afectadas cierto?... Es lo que e entendido

Y si son muchas urls no sé cuántas urls perjudicada pero me detecta muchisimas urls

Screenshot_2023-01-14-18-24-16-389_com.android.chrome.webp


Me detecta aproximadamente 271k resultados
 
Okey amigo entonces dicho código en la robots.txt bloqueará solo las url que sus slug empiezen /? Entonces dichas url con slug que empiezen por ejemplo /p no serán afectadas cierto?... Es lo que e entendido

Y si son muchas urls no sé cuántas urls perjudicada pero me detecta muchisimas urls

Ver el archivo adjunto 932972

Me detecta aproximadamente 271k resultados
Todas las url que tenga el "?" luego de .com/ serán bloqueadas... Y la tardanza se mide en su mayoría por la autoridad del dominio... Según lo que me ha pasado en casos parecidos...

Ya si quieres bloquear otra cadena de símbolos...

Ejemplos...

User-agent: Googlebot
Disallow: /?

User-agent: Googlebot
Disallow: /@

User-agent: Googlebot
Disallow: /=
 
Todas las url que tenga el "?" luego de .com/ serán bloqueadas... Y la tardanza se mide en su mayoría por la autoridad del dominio... Según lo que me ha pasado en casos parecidos...

Ya si quieres bloquear otra cadena de símbolos...

Ejemplos...

User-agent: Googlebot
Disallow: /?

User-agent: Googlebot
Disallow: /@

User-agent: Googlebot
Disallow: /=
Okey amigo perfecto entonces lo pondré a prueba, gracias 👍
 
En search console abierto:

Insertar CODE, HTML o PHP:
https://search.google.com/search-console/removals?resource_id=https%3A%2F%2Fmidominio.com%2F
 
Okey amigo perfecto entonces lo pondré a prueba, gracias 👍
Eso las bloqueara para Google... Ahora si el problema en para todos los buscadores... Usa esta

User-agent: *
Disallow: /?

Esto hará, que Bing, Google, Yandex, y más. No indexen esos parámetros que bloqueas...
 
¿Seguro? Si escaneas las urls con Virus Total, hay un resultado sospechoso.
Si amigo es correcto a lo mejor no an actualizado los resultados por parte del antivirus incluso se escaneo la web por una empresa antivirus y no logro detectar ningún virus
 
Eso las bloqueara para Google... Ahora si el problema en para todos los buscadores... Usa esta

User-agent: *
Disallow: /?

Esto hará, que Bing, Google, Yandex, y más. No indexen esos parámetros que bloqueas...
Okey amigo pues me parece mejor esa opción ya que la verdad no e revisado los otros buscadores, ese problema de indexacion perjudica los recursos del hosting?.

Es que e tenido un problema el cual mi web satura mi cpu al 100%
 
Okey amigo pues me parece mejor esa opción ya que la verdad no e revisado los otros buscadores, ese problema de indexacion perjudica los recursos del hosting?.

Es que e tenido un problema el cual mi web satura mi cpu al 100%

Aquí no sabría ayudarte, porque no sé de ello... Lo único que sé con respecto a esto, es que los robots visitarán tu web con mayor frecuencia debido al cambio del archivo robots.txt... Y después simplemente no, sería como una subida brusca de visitas... Luego se normaliza...

Como tu web tiene muchas paginas que quitar, eso puede afectar, tu web en cuanto a lo que preguntas...

@Carlos Frias puede dar un toque a esta conclusión, espero puedas resolver los problemas...
 
Aquí no sabría ayudarte, porque no sé de ello... Lo único que sé con respecto a esto, es que los robots visitarán tu web con mayor frecuencia debido al cambio del archivo robots.txt... Y después simplemente no, sería como una subida brusca de visitas... Luego se normaliza...

Como tu web tiene muchas paginas que quitar, eso puede afectar, tu web en cuanto a lo que preguntas...

@Carlos Frias puede dar un toque a esta conclusión, espero puedas resolver los problemas...
Amigo mi proveedor de hosting me agrego este código este código no perjudica mi posicionamiento?
 
Amigo mi proveedor de hosting me agrego este código este código no perjudica mi posicionamiento?

Cual código? los archivos robots.txt

Si hablas de ello, todas las webs lo tienen o por lo menos la mayoría... Es algo normal, solo que no se acostumbra a ser cambiado... Porque el básico hace lo que tiene que hacer.

No afecta el posicionamiento, más bien ayuda a que todo en tu web esté indexando bien...
 
Cual código? los archivos robots.txt

Si hablas de ello, todas las webs lo tienen o por lo menos la mayoría... Es algo normal, solo que no se acostumbra a ser cambiado... Porque el básico hace lo que tiene que hacer.

No afecta el posicionamiento, más bien ayuda a que todo en tu web esté indexando bien...
Pensé que había agregado el codigo 🤦

Este código amigo

Insertar CODE, HTML o PHP:
User-agent: *
Disallow: /

Sitemap: https://packs-hub.com/sitemap_index.xml

Ese código no afecta mi posicionamiento ya que lo agregaron para todas las urls?
 
Okey amigo entonces dicho código en la robots.txt bloqueará solo las url que sus slug empiezen /? Entonces dichas url con slug que empiezen por ejemplo /p no serán afectadas cierto?... Es lo que e entendido

Y si son muchas urls no sé cuántas urls perjudicada pero me detecta muchisimas urls

Ver el archivo adjunto 932972

Me detecta aproximadamente 271k resultados

Tienes el sitio infectado ¿ya resolviste el problema principal?
 
Atrás
Arriba