S
srvaliente
Dseda
SEO
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Optimización de blogs Wordpress meta etiquetas y robots.
Ofrezco un servicio de optimización para blogs de worpress orientando a optimizar las meta-etiquetas y el archivo robots.txt.
Con esta optimización conseguiras mucha más velocidad de carga de tu blog y conseguiras subir algunas posiciones.
Ofrezco un servicio de optimización para blogs de worpress orientando a optimizar las meta-etiquetas y el archivo robots.txt.
Con esta optimización conseguiras mucha más velocidad de carga de tu blog y conseguiras subir algunas posiciones.
El trabajo lo hará mi programador de HTML, PHP y base de datos, con el que te pondre en contacto una vez hayas solicitado el servicio.
1.-Descripcion General.
•Indexación de nuestra página web en los buscadores mas importantes.
•Compresión de los archivos CSS.
•Compresión de los archivos JS.
•Revisión de etiquetas (TITLE, H1, H2, H3, META, propiedades ALT de las imagenes, etc... ).
•Configuración del archivo robots.txt
•Configuración de sitemap.2.
2-Configuración del archivo Robots.txt
•El archivo robot.txt será lo primero que la spider intentará localizar en nuestro sitio, lo que busca es ver en un archivo que partes de un sitio puede indexar y cuales no. Así que aquí será donde le indicaremos que puede o no puede indexar.
•Discriminar entre Robots
•El archivo robot.txt seguira los estándares del protocolo de exclusión de robots. La primera parte en este archivo hará referencia al agente de usuario, User-agent, esta etiqueta se usará para indicar que robots pueden o no pueden pasar a determinados sitios.
•Deshabilitar Carpetas
•A continuación indicaremos que es lo que no tiene que indexar
•Deshabilitar Links
•Otra orden que podemos indicar a los robots es que no indexen los link de una determinada página.
•Dejaremos inhabilitados todos los link de esa página para los indexizadores, pero el contenido si que lo tendrán disponible.
•Establecer un horario para Robots
•Indicaremos a los robots cuando pueden indexar el sitio, imaginemos que tenemos nuestro sitio.
•Permitiremos así que los robots sólo accedan en este horario, no causando molestias a los usuarios en los picos de mayor tráfico.
•Meta etiqueta robots
•Otra forma de indicar que tiene que hacer un robot con una página es incluir la metaetiqueta robots en la cabezera de la página
•Spambots
•Por último mencionar que ninguno de los spambots harán caso a todas las indicaciones que aquí hagamos, ya que no van a buscar nunca este archivo, su tarea no es esa, sino rastrear todo el sitio en busca de un direcciones de correo, debilidades de la web o para lo que hayan sido programados.
El servicio es de 20 euros y se abonará al inicio del servicio en una cuenta de Pay-pal. No aceptamos otro tipo de pago.
Última edición: