Técnicas SEO

Esta es una transcripción del artículo publicado por Paddy moogan en Seomoz. Muy buenas a todos. Sin ser ni considerarme un experto en Posicionamiento en Buscadores (SEO), a lo largo de los años me he encontrado con problemas comunes de SEO, que como su propio nombre indica, suelen ocurrir a muchas páginas web. Veámoslos:

1.- Mayúsculas vs Minúsculas en Urls:
Este problemilla suele ocurrir sobre todo con páginas terminadas en “.net”. El problema radica mayormente en que el servidor está configurado para responder a urls con mayúsculas sin redireccionar o reescribir las versiones en minúscula. Aunque sí es verdad que este problema ha dejado de existir para muchos con las nuevas actualizaciones de los buscadores, merece la pena comentarlo. Muchos buscadores se quedan ahora con la versión canonical (la importante, para entendernos). Sin embargo, los buscadores no siempre harán el trabajo por ti, y en los casos en los que esto ocurra, hay que hacer lo siguiente…

Solución: Existe lo que se llama URL Rewrite module, que puede utilizarse para solucionar problemas de este tipo en servidores IIS 7. La herramienta dispone de una opción en la que puedes indicarle que prefieres la versión en minúscula. Si lo haces, se añadirá una norma a tu configuración web que solventará el problema.

Más información sobre posibles soluciones:

2.- Distintas versiones de la misma Homepage:
De nuevo, este tipo de problema suele ocurrir más frecuentemente con terminaciones .net, pero puede pasar con otras plataformas. Veamos un ejemplo:
www.example.com/index.html
www.example.com/home

Con urls distintas, estas dos páginas presentan el mismo contenido.

Solución:
Haz un Crawl Test (Revisa todas las urls de tu dominio) y secciona los resultados por título de página. De este modo encontrarás fácilmente el título de tu home. Te será fácil descubrir distintas versiones de la home page de esta manera.

Lo mejor que puedes hacer es aplicar un redireccionamiento 301 a la versión duplicada apuntando hacia la versión original. Además, puedes resolver este problema de otra forma: usando la etiqueta rel=canonical, especificando mediante esta etiqueta en la página duplicada, que la versión original es otra. Sin embargo, el redireccionamiento 301 es lo más recomendable por lo fiable que es, y porque Google también lo recomienda.

Sin embargo, el problema puede que no acabe aquí, porque puedes tener muchos links internos dirigiéndote hacia la versión duplicada. La herramienta Screaming Frog puede ayudarte a encontrar links internos direccionando hacia la versión errónea. Una vez encontrados, dirígete a tus gestor de contenidos o webmaster y dile que corrija esos links encontrados poniendo la url precisa. ¿Por qué si ya tenemos un 301? Pues porque el 301 sirve, sí, pero si una url te lleva a una página que a su vez te redirecciona a otra, estamos perdiendo Link juice.

Más Información sobre soluciones o cómo aplicarlas:

      How to implement redirects using htaccess
      Google guidelines on 301 redirects

3.- Parámetros de consulta añadidos al final de la dirección URL:
Este problemilla suele ocurrir especialmente en webs de eCommerce, como tiendas online, etc, pues suelen tener distintos atributos de productos y opciones filtradas como color, tamaño, talla, etc. En este caso, podemos acabar con urls de este aspecto:
www.example.com/product-category?colour=12

Estos parámetros pueden ser muy útiles para el usuario-cliente, pero no para el buscador. Estas urls no son buenas para el posicionamiento ya que no contienen keywords.

Además, a veces ocurre que encontramos dos urls distintas con el mismo contenido, veamos:
www.example.com/product-category?colour=12&size=5
www.example.com/product-category?size=5&colour=12

Ambas están mostrando el producto de talla 5 y color 12. Esto es Contenido Duplicado. Con este sistema de creación dinámica de urls, nos encontramos con que un cliente puede tener 20 millones de urls diferentes aún cuando sólo dispone de 20 productos a la venta. Lógicamente, esto es inviable.

Solución:
El tema aquí es que se están indexando páginas que no deberían estar indexadas, aparte de que las urls no sean amigables. Lo que tenemos que hacer es decidir qué contenido debe estar indexado por Google y cuál no. Decide esto bien y cuando te quedes con la lista de urls que vas a indexar, entonces hazlas amigables, es decir, a nivel de servidor, la url “www.waterproof-jackets/?brand=5″, debería convertirse en www.waterproof-jackets/north-face”, por ejemplo, así añadiendo el nombre del producto y la marca.

Si las urls que no quieres que se indexen todavía no han sido indexadas porque son nuevas, entonces lo mejor que puedes hacer es indicarle a los distintos robots de los buscadores que No indexen esas determinadas urls a través del Robots.txt. Sin embargo, si ya habían sido indexadas es mejor retirarlas absolutamente de los buscadores, en el caso de google se puede hacer desde las Herramientas para Webmasters, en el apartado de optimización > Eliminación de Url.

Si ya están indexadas, tambien puedes acudir a la famosa etiqueta de rel=canonical. Añádela en la página que no quieres que se muestre especificando que la buena es la otra. Desafortunadamente, esto actúa como una tirita, ayuda pero tampoco cura.

Más información:
Complete guide to rel=canonical

Seo tecnico

4.- Errores 404 Leves:
Esto pasa mucho más de lo que creemos. El usuario no tiene por qué notarlo, pero los buscadores sí. Un error 404 leve, es una página que se parece a un 404 normal de No encontrado pero que devuelve un Status HTTp de 200, es decir, correcto. El usuario puede leer el típico mensaje de “Lo siento, está buscando algo que no se encuentra aquí”, pero tras el telón se encuentra un Status 200 que le está indicando a los buscadores que todo va en orden, cuando no es así. Estas páginas pueden estar rastreadas e indexadas cuando en realidad no deberían estarlo.

Solución:
Básicamente necesitamos que la página nos devuelva un 404 en vez de un 200. Para detectarlos, una vez más acudimos las Herramientas para Webmasters de Google. También podemos intentar buscar el error manualmente, localizando links rotos y probando su status code. Puedes utilizar Web Sniffer o Ayima tool para ello.

Más Información:
Soft 404 en Webmaster Tools

5.- Redireccionamientos 302 en vez de 301:
UN redireccionamiento 301 es permanente y ayudan a traspasar el link juice de un lado a otro. UN redireccionamiento 302 es temporal, y los buscadores lo tratarán como tal, no dando link juice al destino porque esperan que finalmente elimines la url, la redirección o la cambies, porque como dijimos, No es permanente sino temporal.

Solución: Utiliza la herramienta llamada Screaming Frog que mencioné anteriormente para rastrear tu dominio, seccionar por 302 y si encuentras algo entonces dile a tu webmaster que los cambie a 301.

Más Información:
Redireccionamiento 301

6.- Sitemaps rotos o No actualizados:
Aunque un sitemap no es esencial, sí que ayuda a que los robots de los buscadores tengan más claro el contenido que hay en un sitio en base a sus urls. Sin embargo, algunos sitemaps sólo se crean una vez o no se actualizan con frecuencia o peor todavía, se rompen y ddejan de funcionar, haciendo que mantengan links rotos o evitando la inclusión de nuevas urls. Por otro lado, buscadores que están pegando fuerte ahora como Bing, han advertido que no les gusta la “porquería” en los sitempas y que por tanto si encuentran link rotos en tu sitemap, dejarán de tenerlo en cuenta en el futuro, perdiendo importancia.

Solución:
Utiliza esta herramienta para rastrear links rotos en tu sitemap. Elimínalos. En segundo lugar dile a tu webmaster que cree un sitemap dinámico para que se actualice cada vez que se meta contenido nuevo. Puedes incluso crear varios sitemaps y enviarselos todos a Google mediante las herramientas para webmasters.

Más Información:
Cómo encontrar basura en tu sitemap

Nota: Esta información ha sido sacada de www.seomoz.org