Please enable / Por favor activa JavaScript!
Por favor activa el Javascript![ ? ]

¿Qué es mejor: disallow en robots.txt o noindex en cada url?  ¿Qué es mejor: disallow en robots.txt o noindex en cada url?

Valoración de éste post
4.6 / 5 de 24 votos



Mensajes: 1235


Puntos totales:

Enhorabuena!

32





Si estás dentro del mundo del SEO o estás iniciándote, los términos "robots.txt" y "noindex" seguramente que ya son parte de vocabulario (o lo serán). La explicación de estos términos es bastante simple: tanto "robots.txt" como los meta tags "noindex" son dos maneras de decirle a los buscadores que incluyan en su índice o no, nuestras páginas web. La pregunta es: ¿Porqué debería querer excluir algunas de mis páginas del índice de los buscadores? Una respuesta rápida es: para evitar que los buscadores den una excesiva importancia a aquellas páginas poco importantes a precio de las importantes. Otra respuesta sería para áreas "secretas" que no queremos que salgan en los resultados de los buscadores o para eliminar contenido autoduplicado y mejorar en Google Panda por ejemplo.

Así que veamos las dos vías para excluir páginas del índice de los buscadores:

· Robots.txt y su "Disallow":

Robots,txt es un archivo que subimos a la raíz de nuestro servidor web (lo alojamos en http://www.tudominio.ext/robots.txt). En este archivo hay directrices para los buscadores y crawlers. Cuando este archivo tiene una directiva "Disallow" relativa a una cierta página, los crawlers saben que no tienen que leer esa página. Diciéndole a un crawler que no tiene que leer esa página, le estamos mandando una señal de que la página destino resulta ser poco importante y puede ignorarse. Y en mayor parte, esto asegurará de que esa página no aparecerá en los resultados de búsqueda de los buscadores.

De todas formas, "Disallow" significa "no leer", no "no visitar". "Disallow" no hace las páginas invisibles; sólo las hace no indexables. Si un link entrante o alguna citación existe en una página con el "Disallow", los crawlers estaran al caso de la existencia de esa página y, en raros casos, alguien que busque esa página desde el buscador podrá encontrar el resultado pero con un texto en la descripción indicando que esa página ha sido bloqueada (aunque será clicable).

· El meta tag "noindex"

El meta tag "noindex" es una parte de código que ponemos en la sección <head> de nuestras páginas web. A diferencia del "Disallow", el meta tag "noindex" permite a los crawlers ver y leer esa página pero también les indica de que no indexen esa página cuando hayan terminado de leer.

Ahora que hemos visto los dos métodos, la pregunta del millón es: ¿Qué es mejor: disallow en robots.txt o noindex en cada url?

En mi modesta opinión, el meta tag "noindex" es más seguro a la hora de mantener páginas excluídas del índice de los buscadores. Aún así, implementar este método puede ser un tanto costoso de gestionar ya que se aplica página a página. La directiva "Disallow" del "robots.txt", es simple de manejar ya que sólo se encuentra en un único fichero.

¿"Robots.txt" y "noindex" consumen Page Rank?

Ha habido muchas discusiones acerca de esta pregunta y aquí teneis la respuesta: Si usas "Disallow" hacia una página del tipo "do follow", el "Disallow" consumirá linkjuice. En cambio "noindex" puede pasar linkjuice a los links sin indexar.





No te pierdas el tema anterior: Regreso al pasado: saber de una web en su pasado

Salta al siguiente tema: El SEO para 2014: Las 10 claves

Quizás también te interese:
Si has encontrado información útil en Exaforo, ayúdanos a seguir creciendo. Muchas gracias por confiar en nosotros!




Volver a Posicionamiento


cron