Los 9 Problemas técnicos de SEO que más cometen los Webmasters

Analizar webs y realizar análisis SEO es una de las tareas que más llevo a cabo cada año.

Por ejemplo, en el 2017 contabilicé más de 80 auditorias de páginas webs. Esto es una media de algo más de 6 análisis de páginas a nivel de SEO cada mes.

Aunque no parezca mucho, te aseguro que lleva trabajo hacerlo bien.

Podría decir que:

una auditoría SEO es conocer las fortalezas y debilidades de un sitio web de cara a los motores de búsqueda como Google o Bing y actuar sobre ellas para mejorar el ranking.

En algunos casos, son páginas webs pequeñas con unas pocas urls, pero en otros, pueden ser tiendas online con miles de urls para realizar un análisis técnico de SEO completo.

Y en alguna ocasión, son páginas webs pirateadas , con infecciones o con caidas de tráfico orgánico muy pronunciado que hay que solucionar, y que detectar el problema a veces no es tan rápido.

A raiz de este trabajo, veo problemas de SEO comunes en webs administradas por webmasters con pocos conocimientos técnicos a nivel de posicionamiento en buscadores.

Por eso, hoy vamos a ver los problemas técnicos más comunes de SEO que se suelen cometer y cómo solucionarlos.

Por supuesto, cuando son solucionados, el impacto que producen en los buscadores es mayor y genera una mejora del tráfico orgánico.

Vamos a por ellos !

1. Problemas con el rediseño de la web

En muchos casos que analizo, compruebo como después de un rediseño de la web, esta ha tenido una caida del tráfico orgánico.

Unas veces cae alrededor de un 80% y en otras el tráfico cae un 10% o 20%.

Los nuevos diseños de páginas webs son un arma de doble filo a nivel de SEO.

Si no se hace bien, se puede producir un “derrumbe” del tráfico y tardar meses en recuperarse.

Algo como esto…

trafico organico caido

 

Otras veces ocurre que al hacer un diseño web nuevo, se suelen crear urls nuevas con el fin de optimizar mejor las viejas urls con el objetivo de que esto ayude a mejorar el ranking actual.

Sin embargo, se suele olvidar realizar las correspondientes redirecciones 301 de las urls viejas a las nuevas, y por lo tanto, se pierde gran cantidad de – link juice.

redireccion 301

En estos casos, el ranking de la página web cae y con ello, gran cantidad del número de visitas.

También puede caer el tráfico orgánico cuando se elimina mucho texto de páginas principales o categorías de temas o productos debido a que el nuevo diseño web es mas minimalista.

Cómo detectarlos

Se puede comprobar fácilmente a través de Google Analytics.

Si coincide la fecha en la cual se rediseñó la web y la caida del tráfico orgánico, sabremos que hemos sufrido este problema de SEO.

Cómo corregirlos

En muchos casos que he analizado, suelen haber borrado las urls antíguas, por lo tanto, no se pueden crear los redireccionamientos 301.

En otros casos donde se ha utilizado un CMS como wordpress, a veces, las han dejado activas pero no visibles, por lo tanto, implementando un simple plugins de redireccionamiento, podemos volver a obtener el tráfico orgánico que se tenía en unas semanas.

Se puede utilizar un plugin como este:

plugin redirection 301

Con este plugin puedes crear redicrecciones 301 muy fácilmente.

En el caso de que la caida del tráfico pudiera ser porque se ha eliminado texto de las páginas principales o categorías, y la relacion texto HTML está muy desiquilibrada, debemos estudiar la opción de cómo volver a colocar texto relevante en ellas.

Vamos a conocer un poco más sobre esto:

  • Ratio de Texto: es el porcentaje de texto plano que hay en una url en concreto.
  • Ratio de HTML: es el porcentaje de código CSS, imágenes, etiquetas…

¿Cual es el porcentaje ideal entre texto y código de una página web?

Se recomienda que este ratio sea un 30/70, es decir, un 30% del contenido de la página debe ser texto plano y el resto complementos como imágenes, multimedia, script, CSS.

¿Puede penalizar google tener un ratio texto HTML bajo?

Puede hacerlo perfectamente en forma de pérdida de posiciones orgánicas.

Yo considero que es una parte importante que hay que mirar dentro de una auditoría SEO.

Recuerda que para google es más fácil rastrear texto que imágenes (aunque cada vez avance más en este aspecto).

Además, incluso actualmente a través de las búsquedas por voz, google se basa en el rastreo de las palabras clave que ha indicado el usuario mediante la voz.

2. Problemas de optimización web móvil 

Algunos estudios arrojan que casi un 24% de las páginas webs existentes no son compatibles con dispositivos móviles.

Esto puede ser un problema o una ventaja competitiva, según se mire 🙂

Google ha declarado oficialmente que en 2018 primero clasificará cada página web en su versión móvil y después en la versión de PC.

Esto indica que – móvil primero.

No confundir “web responsive” con una “diseño web móvil“, ya que hay diferencias como vemos en la siguiente imagen.

 

diferencia web responsive y diseño movil

Aquí van algunas sugerencias sobre el diseño web móvil:

  • No colocar enlaces demasiado juntos.
  • Si el texto es demasiado pequeño, hay un 95% de posibilidades de incompatibilidad con dispositivos móviles.
  • Si el texto del contenido no se ajusta a la ventana, hay un 55% de probabilidades de no pasar el Test.
  • Es una mala idea bloquear archivos CSS y JS en el robots.txt .
  • Se crean sitios webs más ligeros y rápidos.

Cómo detectarlos

test page speed de google

Para conocer un sitio web es compatible con los dispositivos móviles utiliza:

Cómo corregirlos

Las propias herramientas te dan información sobre qué recursos son los que debes optimizar.

Hay que intentar tener la mejor puntuación posible en ellas. Por encima de un 80% mínimo estaremos en el buen camino.

En caso de no saber cómo hacerlo, se tendrá que contactar con un desarrollador web.

En caso de poder actualizar el PHP de la web a un PHP 7, se debe implementar esta opción ya que puede mejorar la velocidad de carga de la web.

3. Problemas con la experiencia de usuario (UX) móvil 

Ya hemos comentado que dentro del proceso de analizar una web, el usuario móvil y la experiencia de este navegando es uno de los factores de clasificación más importantes actualmente.

A veces puede ocurrir que la versión móvil de un sitio web es algo diferente a la versión de PC y esto también influye en la experiencia del usuario.

Google ha admitido que prefiere que las dos versiones de una misma web sean iguales.

También ha declarado que probablemente los webmasters vean un incremento del rastreo del bot de Google para móvil. 

robot de google para movil

Cómo detectarlos

  1. Comienza por utilizar la herramienta que se ha mencionado en el punto anterior: Test mobile friendly.
  2. Comprobar en search console si el bot está rastreando todas las páginas correctamente. Ir a “errores de rastreo” > “smartphone”.
  3. Comprobar que porcentaje de tráfico orgánico tiene la página desde móviles a través de google analytics.

Cómo corregirlos

Sabiendo que ahora Google da prioridad a la versión móvil a la hora de clasificar, podemos optar por varias actuaciones:

  1. Plantearnos cambiar de plantilla a una que cumpla con los requisitos y sea una plantilla SEO friendly.
  2. Verificar el diseño tanto en iPhone como en Android.
  3. Implementar una de estas 3 técnicas de diseño móvil .
  4. Asegurar de que se puede hacer clic fácilmente en cualquier elemento clicable de la página.
  5. Evitar colocar elementos clicables demasiado cerca entre si. Deja espacio suficiente entre ellos.
  6. Asegurarse de que el usuario puede encontrar lo que quiere fácil.
  7. Optimizar imágenes, y codificar HTML y minificar CSS para que la web cargue en 2 seg. o menos.
  8. Comprimir la web en el servidor .gzip, mejora la velocidad y así la experiencia de usuario.

Un buen plugin que hace esta tarea realmente bien, si se utiliza wordpress es este:

plugin para minificar css autoptimice

Otro punto a analizar son los pop ups que se muestran en los móviles.

He comprobado como alguna página web que he analizado, ha sido penalizada por mostrar intersticiales (pop ups) de forma agresiva.

Google está penalizando los pop up desde el 2017. 

Para mostrar correctamente las ventanas emergentes en la versión móvil hay que seguir las directrices del buscador.

mobile primero pop up

4. Problemas con la estructura de la web 

Crear contenido para atraer tráfico viene a veces con un problema agregado:

una mala estructuración de los contenidos trae problemas de posicionamiento

Una mala estructura de la web o categorización , afecta tanto a webs pequeñas como a páginas webs grandes.

Esto lo he comprobado en muchas de las auditorías técnicas que he realizado.

Se debe dedicar un tiempo a crear contenido, pero también a ordenarlo.

Considera ésta opción como si fuera un arma secreta que no se ve.

Conforme aumenta el tamaño de la web es más importante tener bien categorizado el contenido.

Por ejemplo,

Si se crea contenido nuevo semanalmente en el blog, hay que intentar evitar problemas de canibalización entre artículos.

También suele ocurrir, que en tiendas online algunos artículos del blog le quiten el ranking a páginas de productos, siendo esto un problema de cara a las ventas del ecommerce.

Hay que tener cuidado con la elección de palabras clave cuando se trabaja un blog y una tienda online dentro del mismo site.

La canibalización de palabras clave ocurre cuando dos o mas urls de una web, (por ejemplo www.ginesmayol.com), se clasifican involuntariamente por la misma palabra clave.

Doy un pequeño detalle…

No siempre es malo tener 2 urls posicionadas en la página 1 por una misma keyword.

Hay que tener en cuenta que Google muestra las páginas en las SERPs según la intención del usuario, por lo tanto, se puede dar el caso de que se muestren 2 páginas de un mismo sitio web para un término de búsqueda.

 

Cómo detectarlos

Para detectar si tenemos canibalización de palabras clave podemos utilizar un comando de búsqueda tan simple como este:

  • Busca entre comillas tu “keyword”
  • site:dominio.com “keyword”

Ejemplo,

Si ves más de una url tuya en las SERPs quiere decir que tendrás que revisar esas páginas porque puede que una le reste valor a otra.

Si tienes dos páginas similares que clasifican por una misma palabra clave, es posible que tengas que “unirlas” como veremos a continuación.

Cómo corregirlos

Para crear una buena arquitectura de la web se debe establecer previamente cómo va a ser esa estructura jerárquica.

Google usa entidades para buscar el contexto de un término de búsqueda, y cuanto más contexto se utilice, mejor.

Las entidades son la razón por la cual es difícil clasificar para una palabra clave con una sola pieza de contenido, y ahora comprenderás por qué con una sola pieza o artículo sobre una keyword, es muy complicado clasificarse actualmente.

Las entidades son las que envían información a google sobre la calidad y cantidad de una pieza de contenido, y para ello debemos clasificarlas.

Repito…

Aquí la clave es: a mayor contexto, mejor información.

Y para organizar un blog o una tienda online se puede hacer de dos formas:

  1. Por temas.
  2. Por categorías.

Te preguntarás, ¿cual es la diferencia y cual es la mejor opción?

Por categorías es como normalmente se estructura un blog, sin embargo, la estructura por temas es una manera mejor de organizar el contenido.

Al trabajar la estructura web con entidades o temas, debemos pensar como se organiza una biblioteca.

Esto sería más o menos cómo google entiende la estructura web por categorias:

 

estructura web por categorias

 

Y esto es cómo entiende google una web organizada por temas:

estructura web por temas

 

La segunda opción indica que se trabaja un tema de contenido en mayor profundidad.

He aquí un ejemplo algo más práctico:

jerarquia por entidades

 

Para ayudar a Google a comprender las entidades por las que desea clasificar, debemos pensar en términos de jerarquía y luego crear contenido que coincida con esa jerarquía .

He creado un artículo donde explico esta nueva manera de organizar el contenido de un blog:

Problema de canibalización

Cuando comprobamos que existe una canibalización de páginas y dos o más páginas luchan por posicionarse por una misma palabra clave o “intención de búsqueda”, entonces debemos afrontar una de las siguientes soluciones:

  • Crear una sola página utilizando el contenido de las dos. A esta página “más larga” se pueden redirigir las dos antiguas pasando así la fuerza a la publicación nueva.
  • Poner la etiqueta “noindex” a una de ellas y que clasifique solo una de las dos páginas.
  • Des-optimizar una de las páginas cambiando título y palabras clave para eliminar la canibalización.
  • Redireccionamiento 301 de una a otra y que clasifique mejor una de ellas.
  • Indicar una url como canónica y que google entienda cual es la página “buena”.

5. Problemas de indexación

Dentro de la auditoria de SEO técnico este punto es de crucial importancia tanto si la web es pequeña como si la web es grande.

Hacer perder el tiempo a los bots de google no es una buena idea.

Tanto el rastreo como la posterior indexación y posicionamiento orgánico después de una página web, dependen en gran medida de la capacidad de google para rastrear la página.

En muchas auditorias que hago, este es uno de los principales problemas que observo  y que traen consigo muchos problemas de posicionamiento orgánico de las webs.

Facilitar el rastreo a los bots y conseguir que estos se centren en las páginas importantes para nuestra web, es una de las habilidades de SEO que más me gustan.

Te puedo asegurar como algunas webs han cambiado como de la noche al día, corrigiendo sólo este punto tan dramático en apenas dos semanas.

Cómo detectarlos

El mejor sitio para detectar problemas de rastreo es dentro de Search console.

Dentro del apartado – rastreo > sitemaps

aquí podemos comprobar si hay mucha diferencia entre el número de urls enviadas a google y las que realmente se indexan.

problemas paginas indexadas

Lo segundo que debemos observar dentro de la propia herramienta es dentro del apartado – índice de google > estado de indexación

y comprobar si hay una caida importante en el número total de páginas indexadas, lo cual indicaría que tenemos un problema que resolver.

Puedes comprobar las 4 causas principales por las cuales Google puede eliminar páginas de las SERPS. En el vídeo lo explico:

 

También se pueden utilizar herramientas de rastreo como:

  • botify.com

Cómo corregirlos

Si se está utilizando wordpress y uno de sus plugins de SEO como puede ser Yoast, deberemos revisar la configuración de este plugin.

Si no se está utilizando esta opción, debemos revisar el archivo robots.txt por si se está bloqueando algún recurso importante que impide el correcto rastreo e indexación de la página.

Google ha declarado que no se deben bloquear los archivos CSS y JS en el robots.txt.

Si se utiliza otro CMS o una web a medida y comprobamos que se indexan páginas no importantes de la web, se debe colocar la etiqueta “noindex” en ellas.

A medida que una web crece, este punto es más crucial para que la página siga clasificándose correctamente.

6. Problemas de contenido delgado

El Thin content o contenido delgado es otro de los problemas más comunes, sobre todo en tiendas online, aunque en blogs también se suele dar el caso.

Tener contenido delgado quita potencial al resto del dominio

Las páginas con contenido pobre suelen afectar al resto de páginas que se clasifican bien, por lo tanto, es un problema técnico que se debe afrontar y solucionar.

Cómo detectarlos

Si los usuarios entran en una página y se van muy rápido, es una mala señal.

Puede que el contenido de esa página no sea muy completo o que falte.

O tal vez, no se da un información relevante, y entonces los usuarios se marchan a otro sitio web a buscarla.

Podemos detectarlo muy fácil a través de google analytics, siguiendo estos pasos:

  1. Ir a la pestaña de comportamiento
  2. Contenido del sitio
  3. Páginas de destino
  4. selecciona los últimos 3 meses y “mostrar 250 filas”

Se observan las urls que no han tenido “sesiones” o son muy escasas en este intervalo de tiempo.

problemas en paginas de destino

 

Cómo corregirlos

Cuando hemos detectado cuales son las páginas que apenas consiguen impresiones o con un alto porcentaje de rebote, entonces podemos optar por una de las siguientes soluciones:

  • Incrementar mayor cantidad de contenido a esas páginas (texto, imágenes, vídeo, etc).
  • Poner etiqueta “noindex” a las páginas que sean de poco valor real para clasificar. De esta forma, se incrementará el potencial de las páginas principales.

 

7. Problemas con los enlaces internos

No tener enlaces internos que pasen autoridad de una página de la web a otra, es encontrarse con un posible problema de indexación + no aprovechar esta técnica de SEO para hacer crecer el tráfico orgánico.

Los enlaces internos son de gran importancia actualmente para los buscadores, y mi consejo es que realices esta tarea en cada una de las urls o páginas de tu sitio web.

Esta técnica de SEO te va a ayudar a mejorar el ranking de tus palabras clave.

Algunas webs pequeñas no usan los vínculos internos para transmitir equidad de una página a otra, perdiendo una parte importante de su potencial orgánico.

Vincular artículos entre si o hacerlo desde el blog a la tienda online aporta un valor extra a google y al ranking de las palabras clave.

Cómo detectarlos

Para webs pequeñas se puede hacer fácilmente de forma manual visitando cada una de las páginas y comprobando si existen vínculos internos entre las páginas.

Para webs más grandes, se necesitarán herramientas más precisas como:

  • Screaming Frog

Cómo corregirlos

Colocar vínculos internos desde publicaciones del blog hacia las páginas principales que se desean clasificar es una gran estrategia de SEO 🙂

Igual se puede hacer para tiendas online.

Además hay que aprovechar los vínculos internos para colocar las palabras clave en los textos de anclaje del hipervínculo.

La clave está en utilizar diferentes textos de anclaje de forma natural.

Esto transmitirá aún más fuerza a la página de destino.

8. Problemas de backlinks

Los backlinks siguen siendo uno de los principales factores de SEO que Google tiene en cuenta para dar autoridad y confianza a un sitio web.

Google otorga una puntuación diferente por cada backlinks siguiendo sus propios criterios.

Por ejemplo,

la puntuación que le puede dar a un enlace que apunte a nosotros desde un directorio gratuito será menor que la puntuación que tengamos desde una web que trate la misma temática que nosotros.

Aún así, siempre se debe intentar establecer una frecuencia en el tiempo para llevar a cabo la obtención de enlaces externos.

Ten en cuenta que, siempre es más interesante conseguir enlaces desde otros sitios web de la misma categoría o nicho que el nuestro, a enlaces que no tengan nada que ver con nuestra temática.

Pero esto no siempre podemos controlarlo.

Es muy posible que tengas enlaces de páginas que no tengan nada que ver con tu sector, incluso páginas nuevas o con muy escasa autoridad, lo cual tampoco beneficia.

Ten por seguro, que tener 30 enlaces de sitios webs diferentes apuntando a tus páginas principales, tu clasificación orgánica aumentará.

Como para google los backlinks siguen siendo importantes, debemos conseguirlos.

 

Cómo detectarlos

Para saber si tenemos backlinks o no podemos utilizar las siguientes herramientas:

  • Search console
  • Open site explorer
  • Semrush
  • Ahrefs
  • Monitor backlinks
  • Linkstant
  • Linkody

herramienta backlinks

Cómo corregirlos

Podemos utilizar estas herramientas para saber la calidad de los backlinks y también para conocer si nos falta potencial de enlace para poder clasificar mejor nuestras palabras clave.

Es importante tener buenos enlaces externos que nos den autoridad y fuerza, pero debemos tener enlaces de baja calidad para otorgar a google una “naturalidad” dentro del sistema de enlazado.

La clave aquí está en conseguir que ese “menú de enlaces” se vea lo más natural posible.

Otro punto dentro de la auditoria de SEO técnico estará en la detección y eliminación de enlaces externos tóxicos.

 

9. Problemas de marcado de datos estructurados

Si te digo la verdad, la mayoría de páginas webs auditadas carecen de marcado de datos.

Los webmasters no suelen utilizar este sistema de google para dar a entender mucho mejor al buscador de qué se trata cada página.

Dentro de la optimización SEO, el marcado de datos puede dar un impulso al ranking de las palabras clave, ya que ayuda al buscador a entender mucho mejor de qué va cada una de las páginas de un sitio web.

Según google el marcado de schema ayuda a clasificar una web

introduccion a los datos estructurados

 

Cómo detectarlos

Usa Search console para detectar si hay errores de marcado de datos o carece la página de ellos. Navega a través de search console:

  1. Apariencia en el buscador
  2. Datos estructurados

Haz una prueba utilizando la herramienta para datos estructurados de google.

prueba datos estructurados

Cómo corregirlos

Para corregir este problema y así poder hacer entender mejor a google el tipo de contenido que hay en cada página, utiliza la misma herramienta de detección de errores para saber donde está el problema del código y poder solucionarlo.

Si utilizas wordpress puedes usar un plugin para hacer esta tarea más fácil como este :

  • Plugin All in One Schema . Con él obtendrás los Rich Snipeet o un breve resumen de la página en los resultados de búsqueda de Google, Yahoo o Bing.

Si utilizas otro CMS distinto puede que necesites ayuda de un programador para implementarlo. Solo debes conocer que Google prefiere los siguientes formatos:

  • JSON-LD (recomendado)
  • Microdata
  • RDFa

Creo que implementar este punto si puede ser una ventaja competitiva, ya que aun existen muchas páginas webs que carecen de este complemento.

 

 

 

Bien, pues yo ya he comentado todo lo que tenía previsto en este artículo.

Estos datos forman parte de mi trabajo y de lo que hago cada día.

Muchas veces no se entiende cómo funciona esto del “SEO“, ya que tiene algunas ramas un poco más técnicas como estas que acabamos de ver y que afectan de forma clara al posicionamiento de una web.

El SEO técnico es uno de los primeros puntos que se analizan cuando hay que auditar una página web.

Y la experiencia me dice que aquí están la mayoría de los problemas que actualmente limitan a una página web avanzar en las posiciones de los motores de búsqueda.

Si tienes alguna duda, utiliza los comentarios para poder responderla.

 

Ginés Mayol


Hazlo llegar a tus seguidores:

5 comentarios en “Los 9 Problemas técnicos de SEO que más cometen los Webmasters

  1. Hola a todos, felicidades Gines, excelente post, todo muy claro y al grano ! quería preguntar cuál es la mejor manera de realizar una ficha de producto en wp, ya que sino he entendido mal, si tengo dos productos parecidos a la venta, ej. venta online de tarta de manzana y venta online tarta de frutos del bosque y empezamos a describir contenidos utilizando kw tipo venta online tarta, tartas caseras, tartas para celebraciones, etc., se podría incurrir en Canibalización de kw ??
    Saludos

    • Si la keyword principal es “venta online de tarta de manzana” insiste en jugar con tarta de manzana, tipo: vendemos las mejores tartas de manzana caseras, aqui puedes ver un repertorio de recetas online para tartas de manzana, etc.
      Las keywords que me indicas como “venta online tarta” lo veo más para una categoria que para productos.
      Espero que te sea útil.
      Un abrazo
      Gines

    • Hola Eduardo,
      es importante mantener, si puedes. la estructura jerárquica de la web, los textos con sus palabras clave y los enlaces internos que tengas actuales.
      Si eliminas texto de las páginas, puedes perder posiciones.
      Si cambias la jerarquia de la web, asegúrate de redireccionar correctamente, o las keywords pueden bajar.
      Revisar las urls que no tienen visitas y eliminarlas o mejorarlas.
      Si el nuevo diseño es más rápido que el antiguo, entonces google también te premiará.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

shares