El SEO es una parte importantísima de cualquier estrategia digital, y la gente todavía parece que no lo ha entendido. Es por ello que, en esta ocasión, traemos un nuevo artículo al respecto, en el que señalamos los siete errores más habituales del SEO y cómo arreglarlos.

organictraffic

Los siete errores

1. Velocidad baja: Uno de los problemas más habituales de la mayor parte de los sitios web es que son lentos, y esto, en el PC, todavía podía ser tolerable, pero en un mundo donde la penetración móvil es cada vez mayor y ya supera el 50% del mercado, no lo es. Es por ello que debes hacer lo posible por aligerar el peso de tu web, realizar menos peticiones al servidor, y hacer que vaya como un rayo.
2. Imágenes sin optimizar: Utilizar imágenes es muy positivo. Es prácticamente una obligación en el SEO. Sin embargo, éstas deben estar optimizadas. De nada sirve una imagen si no está correctamente optimizada. Por ello, utiliza imágenes ligeras, añádele un nombre de archivo representativo, un texto ALT, etc. Optimiza las imágenes para posicionar en Google Imágenes.
3. Poco análisis de long tail keywords: Las long tail keywords siguen siendo uno de los aspectos fundamentales del posicionamiento en buscadores que la gente ignora. La gente sigue centrándose en competir con Amazon por keywords como “comprar herramientas de bricolaje”. Así no funciona. Debes atacar las keywords pequeñas, e ir creciendo poco a poco.
4. Ignorar el SEO Local: El SEO Local se ha convertido en algo fundamental, ahora que el mundo del móvil está tan en auge. Hace un tiempo no era importante, porque la gente se conectaba a internet desde sus casas, pero, hoy en día, debes ser capaz de informar a la gente de que estás cerca de ellos (porque están buscando desde una calle en el centro de la ciudad, por ejemplo).
5. No contar con un Sitemap: No hay ninguna razón por la que no debas tener un Sitemap. Hay quien dice que, si tienes un sitio web debidamente categorizado y sencillo, no te hace falta. Bueno, puede ser, pero tenerlo no te va a hacer ningún mal, y te aseguras de que, pase lo que pase, Google lea correctamente la estructura de tu web. Así que utilízalo.
6. No contar con un robots.txt: El archivo robots.txt sirve para explicarle a los diferentes robots que pasan por la web cómo deben comportarse. No disponer de un buen robots.txt afectará negativamente a la forma en que se indexa tu web, y al tiempo que pasa entre cada visita que realizan dichos robots. Debes tener uno lo más optimizado posible.
7. No utilizar redirecciones 301: Aquellas webs que llevan mucho tiempo en activo es normal que tengan errores 404. Lo que no es tan normal es que los dueños no hagan nada por solucionarlo. Si después de cambiar algo en tu web aparecen errores de este tipo, debes hacer lo posible por solucionarlo, ya que dificulta la buena experiencia del usuario. Las redirecciones 301 son una buena forma de solventar el problema.

Como ves, son errores que tienen un arreglo sencillo y barato, y que podrán ayudarte positivamente en el posicionamiento de tus diferentes páginas. Hoy en día, si tienes un negocio en internet y no aplicas SEO, es como si no estuvieras en internet.

Actualmente no hay comentarios.

*