Supongo que si estáis leyendo este artículo, es porque os gustaría saber cómo hacer una Auditoria SEO y aumentar vuestro tráfico web. Así podréis conocer los errores que están impidiendo que se posicione. En el caso de que os hayan hecho una optimización SEO y no hayáis conseguido buenos resultados con este post podrás comprobar si han hecho un buen trabajo o no.

Lo importante es aprender a tener criterio propio y a saber cuáles son los procesos que se utilizan en una estrategia SEO y qué factores son más importantes para posicionarse en Google. Todo ello se recoge en un documento que le solemos llamar Auditoria SEO.

Puede que os preguntéis, ¿Se puede hacer una auditoría SEO o comprobar si otro profesional ha hecho un buen trabajo de optimización web sin tener conocimientos técnicos?

Para realizar una auditoria SEO completa, sí que se necesita saber cuáles son los factores más importantes que pueden determinar el posicionamiento de un proyecto.

Si os interesa saber si un profesional externo ha hecho un buen trabajo SEO hoy vais a aprende cómo.

Además de lo obvio, de saber si ha aumentado el tráfico de la web o no, hay ciertos factores que deben de estar implementados.

Si no estáis muy relacionado con el mundo del posicionamiento web, Os vamos a introducir un poco en el tema,

¿qué es una auditoria SEO o web?

Auditar es sinónimo de revisar a fondo, así que, una auditoria web es una revisión a fondo de una página en la que se chequean todos los aspectos más importantes para posicionarse en Google o en cualquier otro buscador (en el caso de la auditoria SEO). El documento final es un check list que nos sirve de guía para saber qué está bien y qué está mal y finalmente optimizar la web.

¿Cómo se aprende todo esto?

Revisando webs, analizando estructuras, equivocándote, rompiendo webs, implementando errores y arreglando errores de páginas webs de clientes. Ese es el trabajo habitual al que un consultor SEO se enfrenta todos los días. Vamos, lo que se llama hacer Auditorías SEO o informes SEO.

Lo que nunca pensamos cuando creamos una página web

Cuando queremos hacer una buena página web, lo primero que pensamos es en el diseño (a veces es lo único en lo que algunos piensan). La realidad es que existen muchas más cosas como, el objetivo de la página web, la estructura y categorización, el contenido, el tipo de comunicación, el peso de los archivos que se suben, la experiencia de usuario, la optimización de la conversión y muchas cosas más.

Si no estás familiarizado con el mundo del marketing digital todo esto se desconoce y ni se plantea. Antes se contrataba a un programador informático para crear una web. Ahora. en el proceso de crear un web puedes necesitar un SEO, un Copywriter, un experto en WPO, un experto en CRO, un Diseñador y cada uno de ellos te dirá que la web tiene unas necesidades distintas. ¿A quién debes hacer caso?

Como siempre en el mundo digital, ¡depende!

Sobretodo depende de objetivo. Para que una página sea más que una carta de presentación y se convierta en una herramienta de ventas debéis contar con alguien con los conocimientos adecuados, como es un consultor de marketing digital.

También están aquellos «profesionales» que por ahorrar costes y vender más barato hacen una parte del trabajo, dejando de lado factores que hoy en día son fundamentales como la usabilidad, el contenido original, la arquitectura web o la velocidad de carga (WPO).  Pero ya sabemos como es esto, en marketing digital, lo barato sale caro, y no exageramos.

Servicio barato = a pocas horas dedicadas a un trabajo.

Todavía no hemos hablado de SEO, ¿verdad? Eso parece, pero sí. Todas esas cosas relacionadas con la página web de las que hemos hablado antes, tienen mucho que ver con el SEO.

Hay que aclarar para todos aquellos que vayan a hacerse una web y les digan que el SEO va incluido o que lo hacen gratis!. Mucho cuidado!

Instalar un plugin como YOAST, no es hacer SEO!

El SEO es un trabajo analítico en el que se utilizan horas de trabajo, así que cuidado con ese tipo de ofertas. Vuelvo a lo de antes, si os lo hacen gratis es que no le dedican el tiempo que realmente necesita el proyecto.

Como consultor de marketing digital especializado en SEO me fijo, y mucho en todas esas cositas de las que la gente no se fija.

Ahora vamos a ver paso a paso cómo se hace una Auditoria SEO.

Guía para hacer una Auditoria SEO paso a paso.

Realizar una Auditoria web para mejorar el SEO y conseguir más tráfico, como ya hemos mencionado, es hacer un análisis de todos los factores que debemos mejorar en nuestra página web para conseguir los resultados que buscamos.

Una Auditoria SEO, como mínimo, debe contener:

  • Estudio de palabras clave.
  • Estudio de competencia.
  • Análisis técnico.

Vamos a por ello…

Estudio de palabras clave

Lo primero que tenemos que hacer para llevar a cabo una auditoria SEO es conocer el sector al que nos enfrentamos con un estudio de palabras clave que consiste en analizar las palabras relacionadas con el negocio que pueden aportarle tráfico y conversiones.

estudio de palabras claves auditoria seo

Analizaremos todo tipo de palabras, informacionales, transaccionales, navegacionales, etc. Con el fin de hacer un gran listado y poderlas categorizar para agrupar semánticamente y utilizarlas en la estructura de la web.

Esta parte, es la base para poder tener una estrategia SEO consistente y un SEO onpage efectivo.

Si quién os ha hecho la web y os ha optimizado el SEO, ha hablado en ningún momento de estudio de palabras clave, dudo que el SEO esté bien hecho.

No sois vosotros quienes tenéis que decirle a tu consultor SEO qué palabras quieres que os posicione, él tiene que hacer una investigación y presentaros las mejores opciones para que tengáis una web con tráfico cualificado (usuarios que estén interesado en lo que vendes).

Cosas que hay que tener en cuenta en la Auditoria SEO: desde hace algún tiempo, Google está fijándose en los contenidos que responden a las preguntas de los usuarios. Es importante dar soluciones a nuestros usuarios dentro de nuestra web. Google ayudará siempre a aquellas páginas que le solucionen los problemas a los usuarios.

Para poder hacer una página de preguntas y respuestas podemos utilizar la herramienta Answerthepublic.

Esta herramienta nos muestra preguntas típicas de los usuarios relacionadas con cualquier palabra clave que pongamos en su buscador. Es algo que debemos tener en cuanta para crear nuestro contenido web, sobre todo, si vamos a incluir un apartado de FAQ.

También es importante que no utilicemos una misma palabra clave como si estuviera escribiendo un robot. Eso ya no funciona. Eso es como funcionaba el antiguo SEO. Hoy en día es más complejo, tenemos que hacer una nube de palabras relacionadas entre ellas y usarlas en un mismo texto. Por eso mismo, debemos categorizar nuestro estudio de palabras clave.

Cuanta más riqueza semántica haya en un texto, mejor.

Estudio de competencia

Como en cualquier estrategia de marketing, es necesario realizar un estudio de la competencia para saber contra quién estamos compitiendo y ver qué están haciendo exactamente para estar en las primeras posiciones. Existen varias formas de analizar a la competencia. Esta parte es importante que la hagamos al principio y la incluyamos en el documento de la Auditoria SEO.

Esto lo podemos hacer de diferentes maneras:

1.  Crear una lista de los 10 primeros resultados en Google para cada una de las palabras clave que vamos a incluir en nuestra web. Crea un Excel por cada palabra clave y haz una lista de los competidores que están en ese top 10. Usando herramientas como SEMrush podemos averiguar la cantidad de tráfico que el competidor está recibiendo gracias a esa palabra.

2. Ver la autoridad de las páginas de la competencia posicionadas para cada palabra clave. Es muy importante conocer si la competencia tiene mucha autoridad en Google o partimos con ventaja frente a ellos. Para ello debemos ver la autoridad de las páginas. Si las páginas tienen una autoridad menor a 30, tenemos opciones de conseguir la primera página. Para ello, podemos usar la extensión para Chrome de Moz, nos permite ver el PA y DA de todas las páginas que aparecen en el ranking de Google de un simple vistazo.

3. Analizar uno por uno el SEO onpage de las páginas de los competidores que se encuentran en las primeras posiciones. Debemos ver cómo están optimizadas. Ver sus URLs, sus titulares, subtítulos, texto, densidad de palabras clave, enlaces, etc… Haciendo esto y creando una página mejor que ellos, conseguiremos un buen resultado en el ranking.

4. Analizar los enlaces que están recibiendo. Lo mejor que podéis hacer para conseguir enlaces y mejorar vuestro posicionamiento, es replicar aquellos enlaces más sencillos y accesibles. Para hacer esta tarea necesitareis usar una herramienta como Ahrefs, SEMRush o open site de Moz.

Teniendo conocimiento del mercado y sabiendo cuales son los puntos fuertes y débiles de la competencia, podemos realizar nuestro informe sobre la competencia y así crear una página optimizada y mejorada.

Con nuestro estudio de palabras clave y de la competencia es el momento de seguir con la parte más técnica de la auditoria SEO.

Análisis Técnico

Para tener una página web optimizar para SEO hemos preparado un Check list con el que podrás detectar todos los errores en menos de 30 minutos. 

 

En este punto lo que realizamos es un nuevo documento en Excel o en una hoja de calculo de Google Drive en el que vamos a realizar un check list SEO.

Para analizar los aspectos técnicos de nuestra web yo utilizo ScreamingFrog.

scriming frog

Es una herramienta muy extendida y muy potente y con versión gratuita que permite analizar hasta 500 URLs. También es bueno, apoyarse en Google Search Console para ver el estado de la indexación y analizar cómo Google ve nuestra página.

Vamos a ver cómo estructuramos la Auditoria SEO y cómo analizamos esos datos:

Accesibilidad/Indexación

En la primera parte del documento vamos a revisar el estado de la indexación de la página y ver cómo están configurados los mecanismos que tenemos para comunicarnos y guiar a Google a través del site.

Robots.txt

Con este archivo ordenamos a Google y a otros motores de búsqueda qué archivos deben rastrear y cuáles no.

Además, de indicarle qué páginas queremos que rastree daremos orden para bloquear los robots que nosotros no queremos que tengan acceso a nuestro sitio (no solo Google entra en tu web).

Si damos orden n el robots.txt para que no rastree una página concreta, no significa que no la indexe pero el robot no perderá el tiempo con esa página y pasará más tiempo con aquellas páginas que realmente queremos que posicione.

Para dar estas indicaciones, lo hacemos con las ordenes:

User-agent: (nombre del robot)

disallow: (página o directorio que queremos loquear)

Si existen páginas del sitio que no queréis indexar, podemos utilizar un doble bloqueo. Esto consiste en bloquear al robot para que no la rastree la página a través del Robots.txt, tal y como hemos visto. Y ponerle una etiqueta (meta-robot) noindex en la propia página que queremos bloquear. De esta forma aseguamos que la pagina no se rastreará por Google y no se indexará, por lo tanto, no saldrá en los resultados de búsqueda.

Para facilitarle las cosas al Googlebot, es bueno incluir el enlace al sitemap de nuestra página para que la indexación sea más rápida y automatizada.

Para ello, simplemente tendremos que incluir el enlace de esta manera en el Robots.txt:

Sitemap: http://www.mysite.com/sitemap.xml

¿Qué páginas conviene bloquear en el Robots.txt?

Todas aquellas que no tengan contenido relevante para Google. En el caso de un ecommerce, es muy importante, eliminar todas las paginaciones de productos, orden de preferencia de los productos, productos destacados, carrito de la compra, página de login, urls con parámetros, etc. Para una página web normal, las páginas que hemos mencionado antes también se deben bloquear.

Sobre todo, debemos quitar aquellas páginas que nos puedan generar contenidos duplicados y que no aporten relevancia a las palabras clave del sitio.

Meta-Robots

Se trata de una meta-etiqueta que da orden a Google para impedir que indexe esa página. Quizás estás pensando, que cual es la diferencia con dar la orden a través del Robots.txt. Si hacemos disallow en una página concreta a través del Robots.txt, el googlebot si que indexa la página pero no la rastrea, ósea que seguiría saliendo en los resultados de Google pero no dejaría acceder a ella o no mostraría sus contenidos. Como ya hemos comentado anteriormente, la mejor opción si queremos que una página no aparezca en los resultados de Google y desindexarla, habría que hacerlo a través de el doble bloqueo utilizando estas dos vías.

Esta meta-tag se ubica en el header de cada una de las páginas de nuestro site y tiene este aspecto:

<META NAME=»ROBOTS» CONTENT=»NOINDEX, NOFOLLOW»>

Comprobación del estado de las URLs

Como muchos sabréis, a Google no le gusta perder el tiempo, y todas las páginas con código 404 entorpecen el buen rastreo. En esta parte, toca revisar que todas las URLs del sitio funcionan correctamente y el servidor nos devuelva un código 200 en cada una de las páginas de nuestra web. Esto significa que la URL funciona perfectamente.

Si encontramos errores 404 tocará redireccionarlos a una página con código 200.

Para descubrir los códigos de cada página de nuestro sitio, lo podemos ver en Screaming frog y si queremos ver las páginas que Google ha detectado con errores lo podemos hacer en el Search Console de Google en el apartado «errores de rastreo».

Mi recomendación es que se haga una lista de todas las páginas del sitio y se vea el código que tienen para saber su situación y corregirlo en el caso que sea necesario.

XML Sitemap

Es uno de los archivos más importantes y debemos comprobar en la auditoria SEO, que existe y que está bien configurado.

El Sitemap.xml es una lista de las páginas del sitio que le da información adicional a Google.

Esta es la información que le da a Google: la frecuencia en la que se cambian los contenidos, la última vez que se actualizaron y la importancia que le damos a cada una de las páginas.

Por ejemplo. Seguramente no querremos que Google le de más importancia a la página de contacto o la de quiénes somos que a nuestra página de inicio o nuestras páginas de productos y servicios. Pues con el Sitemap.XML podemos guiar a Google para que se centre en lo que es realmente importante.

Para comprobar que este archivo está funcionando correctamente lo tenéis que hacer a través de Google Search Console.

Para crearlo, hay que hacerlo en lenguaje HTML, así que si no tenéis muchos conocimientos técnicos podéis pedírselo a vuestro programador o buscar algún módulo o plugin que lo haga por vosotros.

También lo podéis generar de forma online con esta herramienta: www.xml-sitemaps.com

Niveles de Navegación

La arquitectura de la información es fundamental para conseguir un buen posicionamiento orgánico. Cuantos menos clics o niveles de navegación haya en nuestra web, mucho mejor. Así conseguiremos una navegación por parte de los usuarios y los robots más fluida.

La mejor estructura es la estructura horizontal y conseguir como máximo que todas las páginas importantes se encuentre a 2/3 niveles de la página de inicio.

Eso lo conseguimos enlazando todas las páginas a la página de inicio y como máximo poner alguna página de menor importancia como nivel inferior de otro página.

Para hacer esta parte, volvemos a hacer uso de nuevo de ScreamingFrog.

Analisis On-page

Para este apartado de nuestra auditoria, crearemos una nueva pestaña dentro de la misma Hoja de calculo. Aquí lo que revisamos es la construcción de cada una de las páginas, fijándonos en los factores más importantes que afectan al SEO como pueden ser, URLs, títulos, contenido duplicado, descripciones, etiquetas H1, etc… y en la coherencia semántica en cada una de las páginas.

URLs

Hay que analizar cada una de las URLs del sitio, para ver que «son Friendly», es decir, que no contienen parámetros, que no contienen guiones bajos y que respetan la estructura de directorios y enlaces internos. Y lo más importante, que incluye la palabra clave exacta que queremos posicionar en es página. 

Siempre hay que tener presente, que si hay que reescribir una URL se deberá crear una redirección 301 de la URL antigua hacia la URL nueva creada.

Arquitectura de la información y entrelazado interno. 

El SEO va más allá de las palabras claves, de la velocidad de carga, etc.

Es importante que una página tenga su contenido bien ordenado, clasificado y categorizado. Si creamos una arquitectura optimizada lograremos que la autoridad de las páginas fluya de forma coherente, enriqueciendo con Link juice (autoridad) las páginas principales del sitio.

En una página pequeña esta parte es más simple y debe preocuparnos un poco menos, pero si se trata de un gran blog o un ecommerce es fundamental tener definida la arquitectura de la información en el momento de su creación.

En el momento de analizar una página debemos fijarnos en los niveles de navegación, categorización y sobre todo que no contenga subdominios entrelazados con la página web principal. Eso puede entorpecer la indexación del sitio, ya que a los subdominios hay que tratarlos como una web independiente.

Contenido duplicado

El contenido duplicado es algo peligroso y que sin saberlo todos tenemos el riesgo de estar generándolo. Las funciones de paginación, artículos o productos destacados, etc. ayudan al usuario a navegar mejor y a que pase má tiempo en nuestra web pero generan URLs con contenido duplicado.

Antes de hacer cualquier cosa debemos conocer el número de páginas que contiene nuestro site y el número de páginas que Google debería tener en su índice, esto lo podemos hacer con Screaming frog y con Search Console. Allí encontraremos estos datos.

Ahora podemos ver si Google tiene páginas duplicadas en su índice. Para ello utilizaremos esta búsqueda: site:www.tudominio.com

Haciendo esta búsqueda nos dará el resultado de todas las páginas que tiene Google  en su índice. Si el número es mayor a las páginas que hemos visto que tienen el sitio, eso significará que el sitio tiene páginas duplicadas y por lo tanto debemos corregirlo.

Estado de meta-titles y meta-descriptions

Todos los factores son importantes pero este realmente es uno de los que primero se mira. Una de las claves es saber hacer un buen uso de estas dos meta etiquetas dentro de tu estrategia SEO.

En esta parte de la auditoria SEO debemos comprobar:

  • Asegurarnos de que todas las páginas tienen sus titulo y su descripción.
  • Que no existen títulos y descripciones duplicados, Screaming frog nos dará este dato y nos enseñará cuales son las duplicadas.
  • Que la longitud de estos dos apartados no debe superar los 70 caracteres (titulos) y los 155 (descripciones).
  • Y que deben estar creados semánticamente con la palabra clave definida para cada una de las páginas del sitio.

Otras etiquetas en el <head>

Si utilizamos WordPress, la mayoría de plugins que instalamos se cargan en esta parte del código por lo tanto hay que comprobar que todo funcione normal y que esté bien configurado. La sobre carga de código en esta parte puede ralentizar la velocidad de la página, por lo que nos tenemos que asegurar de utilizar solo lo imprescindible.

Aquí también controlaremos si las páginas tienen etiquetas canonicas, meta-keywords, Open Graph, etc…

Por si no sabéis lo que son las URL canonicas. Para poder acceder a una página web se pueden utilizar diferentes URLs. Por ejemplo, con www.dominio.com, dominio.com, etc… Y podría convertirse en contenido duplicado si no se utiliza la etiqueta canónica. Sería como el nombre propio por el que Google reconoce una página.

Si utilizáis un plugin de SEO, bien configurado, con vuestro WordPress y tenéis una web pequeña, esto no debería daros problemas.

Imágenes

Si ya tenéis algunos conocimientos de SEO, sabréis que las imágenes se tienen que optimizar.

En nuestra auditoría SEO tenemos que revisar todas las imágenes del sitio. ¿En qué nos fijaremos?

Peso de las imágenes. No debe de ser superior a 100 kb. Esto es relativo, unos te dirán que 60kb, otros 90k. Lo importante es que pese lo menos posible pero mantenga buena calidad.

Nombre del archivo. Todos los nombres de los archivos de imagen deben contener una palabra relacionada con lo que se ve en la imagen y a ser posible que contengan la palabra clave de la página en la que se encuentran. Digo a ser posible, no hay que forzarlo.

Etiqueta alt. Es el texto alternativo de la imagen,. Su uso es para que personas invidentes puedan saber qué hay en la imagen que tienes en esa página. Por lo tanto, será bueno que las imágenes principales del sitio contengan una definición corta de lo que se ve en la imagen, además si cumple con la semántica de la optimización de la página mucho mejor.

No lo hemos probado y no sabemos que sea así 100% pero conocemos que hay quien utiliza la etiqueta «alt» para poner las palabras clave mal escritas que tienen muchas búsquedas. Por ejemplo, pistina en lugar de piscina, Googel en lugar de Google… Habrá que probar si funciona 😉

Headings (encabezados)

¿Os suena esto de los H1, H2, H3…?

Es el momento de revisarlo página por página del sitio. Sobre todo, las que por el contenido sean las más importantes y comprobar que las palabras clave estén correctamente implementadas en cada una de ellas. Lo que hay que fijarse es si están vacíos, si están duplicados o si no contienen las palabras clave de la página.

Para usar correctamente los headings deberíamos aplicar la palabra clave con diferentes variaciones en cada unas de las páginas.

Os vuelvo a recomendar que utilicéis una Hoja de Excel para volcar los datos de Screaming Frog en vuestra auditoria SEO y trabajéis los contenidos onpage página por página. Os pongo un ejemplo de cómo hago yo el documento.

auditoria seo

Ahora ya hemos revisado los apartados más importante de nuestra página web y ahora podemos evaluar todo el trabajo que tenemos por delante. Con el documento de la auditoría SEO acabado ya podemos ir apartado por apartado corrigiendo cada uno de los factores que hemos detectado que necesita ser optimizado.

Existen herramientas que nos facilitan muchísimo el trabajo para poder hacer las Auditorias Técnicas. La mayoría son de pago y es que como he comentado en el artículo son muchos factores los que hay que tener en cuenta y hace falta desarrollar una herramienta muy potente para hacerlo.

Yo recomiendo hacerlas con varias herramientas de análisis como las que comentado antes pero hay herramientas como SEOMATOR, que nos ayuda a analizar nuestro sitio y nos hace un informe teniendo en cuenta muchísimos factores.

Ahora os cuento de qué va esta herramienta.

SEOMATOR, la herramienta para crear informes SEO

seomator

SEOMATOR es una herramienta americana que acaba de salir al mercado y que nos ahorra mucho trabajo a quienes nos dedicamos al SEO.

Nos ayuda a crear informe personalizados para nuestro clientes o posibles clientes de forma muy rápida y completa.

Analiza la mayoría de factores SEO más importantes y te permite descargar los informes en pdf para poderlos enviar al cliente y explicarle las mejoras que se tienen que realizar en la web.

Factores que analiza SEOMATOR. 

Además de ofrecernos informes de los dominios que le hagamos analizar, también nos permite usar la herramienta como optin para conseguir Leads interesados en mejorar el SEO de su propia web. Ofreciendo la posibilidad de descargar un informe en versión reducida de forma automática. Esto mola!

Si quieres probarlo puedes conseguir tu Auditoria SEO en este enlace.

 

Lo que os acabamos de contar es cómo se hace una auditoria SEO, faltaría ver todo el tema de optimización de carga de la web (WPO) pero ese es otro tema…

Llevando a cabo esta auditoria seo y corrigiendo y aplicando todo lo que hemos detectado que necesita nuestra página conseguiremos aumentar nuestras posiciones y así conseguir más tráfico web.

Share This