Qué son la autoridad de página y de dominio, cómo medirlas y cómo usarlas

Cuando el 27 de septiembre de 1998 se estrenó Google, introdujo también un concepto revolucionario, la autoridad de la página, basada en la cantidad y calidad de los enlaces hacia ella. No puedes hacer SEO, si no tienes claro qué es y cómo se trabaja con este concepto.

autoridad pagina dominio

Imagen de Pixabay - ©

Para entender la revolución que supuso esa idea de usar los enlaces como “votos” para medir el nivel de confianza que se merecen otras página, baste decir que mejoró tanto los resultados de búsqueda que Google desbancó en poco tiempo al buscador dominante de la época: Altavista.

Aunque el concepto de “autoridad” es un concepto muy lógico e intuitivo que, en su esencia, sigue siendo el mismo que hace 20 años, el tiempo no ha pasado en balde y ha evolucionado mucho.

El principal cambio ha sido el de pasar de un simple algoritmo matemático a un algoritmo inteligente que entiende mucho mejor el contexto y la semántica que rodean estos enlaces y toma decisiones en función de esta información.

Si quieres hacer un SEO efectivo, tienes que conocer cuáles son estos principios. Aquí te los voy a explicar con todo el detalle necesario.

¿Cómo funciona el “PageRank”, la métrica original de autoridad de Google?

La idea de valorar el nivel de confianza de una página web, lógicamente necesita de métricas.

Esta métrica fue originalmente el PageRank (PR) de Google, una métrica que asigna un valor de 0 a 10 a cada página en función del nivel de confianza que se merece según el criterio de Google.

Esta métrica sigue existiendo a día de hoy, aunque Google ya no la hace pública.

Lo que es esencial aquí es que se trata de una escala logarítmica, no de una escala lineal. Es decir, en términos de dificultad para ir subiendo, si subir de un PR 0 a PR 1 nos cuenta un esfuerzo de 10, subir de un PR 1 a un PR 2 nos costaría 100, de PR 2 a PR 3, 1000 y así sucesivamente.

En la actualidad, a la hora de posicionar una página en los resultados de búsqueda (“SERPs”), Google va tomar en consideración, sobre todo, tres criterios para decidir qué posición asignarte:

  1. Cómo de bien responde el contenido de esa página la intención de búsqueda del usuario.
  2. La autoridad de la página y su dominio (enlaces).
  3. La experiencia de usuario (que la deduce por una serie de señales de comportamientos y otros factores como la velocidad de carga, por ejemplo.).

El quid de la cuestión es que, en todo esto, el factor autoridad sigue teniendo mucho peso y es lo que define el nivel de dificultad de posicionar tu página para una determinada búsqueda.

Dicho de otro modo: la dificultad depende de la autoridad de las páginas que compiten contigo. Si tienes muy poca autoridad y compiten contigo páginas con una autoridad sensiblemente mayor, incluso respondiendo ellas peor a la búsqueda que tú, probablemente se situarán por encima de ti.

Por tanto, como ves, conseguir autoridad tiene que ser un objetivo fundamental en cualquier web.

La idea detrás del algoritmo original del buscador de Google

La idea básica de la primera versión de Google era muy sencilla: se usan los enlaces entre páginas como un sistema de votos con un cálculo ponderado (una distribución de probabilidades) del peso de esos votos.

Las páginas, a través de los enlaces entrantes (los que apuntan a ellas), reciben autoridad de otras páginas y, a través de los enlaces salientes (los que salen de ellas) reparten autoridad a otras páginas.

A su vez, cuanto mayor sea la autoridad de una página, más autoridad podrá traspasar a otras (más peso tiene su voto). Esta autoridad se llama muchas veces también “fuerza” o “link juice”.

La parte complicada de esto son los cálculos del modelo matemático que controla todo este juego de cantidades de autoridad traspasada entre las páginas.

No voy a entrar más profundamente en ello porque, al final, para ti es trasparente (te interesa el resultado final, no cómo se consigue). Pero si tienes curiosidad por profundizar, aquí puedes ver el “paper” original redactado por Larry Page y Sergey Brin (los fundadores de Google) en la Universidad de Stanford.

Y si prefieres que te expliquen esto mejor con un vídeo, aquí tienes uno que cuenta el contenido del paper de una manera mucho más gráfica.

Hitos en la evolución del algoritmo de PageRank de Google

Este simple algoritmo matemático basado en los pesos de los enlaces fue muy bien un tiempo, pero como no podía ser de otra manera, al cabo de pocos años empezaron a surgir cada vez más spammer y “listos” intentando engañar ese algoritmo.

Esto ha iniciado una batalla entre Google y los spammers que practican SEO “Black Hat”, el tipo de SEO ilegal (en términos de Google) que trata de engañar al buscador para conseguir subir artificialmente páginas web en los resultados de búsqueda.

Ejemplos típicos de este tipo de prácticas Black Hat han sido cosas como:

  • Keyword stuffing: “hinchar” los textos artificialmente con las palabras clave que se pretenden posicionar.
  • Granjas de enlaces: webs artificiales que sólo sirven para generar enlaces salientes a otras webs que se quieren manipular para subir en los resultados de búsqueda.
  • Compra de enlaces: hay un “mercado negro” de compra y venta de enlaces, una práctica totalmente prohibida por Google.

Oirás hablar también alguna vez de SEO “White Hat” que es el SEO “bueno” (el que respeta los términos de Google) y el “Grey Hat” que se mueve, como ya sugiere su nombre, en una zona gris donde las cosas no están 100% claras.

Esta batalla, a día de hoy sigue en plena efervescencia y ha empujado a Google a mejorar cada vez más la inteligencia de su buscador para combatir estas prácticas fraudulentas con decenas de actualizaciones que saben detectarlas y penalizar los sitios que las aplican.

Si llevas ya un tiempo en el marketing online, habrás oído hablar de Google Panda, Google Penguin, o RankBrain, que son algunas de las actualizaciones más destacadas y de las que más se ha hablado.

Si te interesa conocer más detalles sobre esto, aquí puedes encontrar una lista exhaustiva de todas las actualizaciones y los cambios que han traído cada una hasta la fecha.

Te pongo unos pocos ejemplos para hacerte una idea:

  • La introducción de enlaces “nofollow” en el 2005 que indican a Google que no se debe seguir el enlace, ni traspasar autoridad. Esto ayudó mucho, por ejemplo, a controlar el spam en los comentarios (un coladero de gente intentando colar enlaces artificiales).
  • Dominios penalizados y enlaces “tóxicos” (que son los que salen de estos sitios). Este tipo de enlaces en todo caso no traspasan autoridad y pueden llegar incluso a disminuirla.
  • La afinidad temática entre sitios. Es decir, un enlace de un sitio de coches a otro sitio de coches vale mucho más que ese mismo enlace apuntando a otro sitio de otra temática.
  • Google ya no funciona en términos de palabras clave sino en términos de intención de búsqueda. Es decir, entiende mucho mejor lo que el usuario realmente quiere con una determinada frase de búsqueda. (P.e.: “hamburguesa con queso” => sabe que el usuario busca una receta).
  • Google analiza ahora también el comportamiento del usuario. Por ejemplo, si el resultado en la posición 4 recibe sistemáticamente más clics que el de la posición 2, considera mover los resultados. Otro ejemplo: si detecta que la gente “rebota” sistemáticamente de ciertas páginas entre los resultados (interpreta que le satisfacen) estas bajarán posiciones.
  • Búsquedas de marca. Si mucha gente busca, por ejemplo, “Ciudadano 2.0”, esto va a incrementar la autoridad de este sitio ya que Google entiende que esto es una señal de un ser un sitio de referencia y de calidad.
  • Etc., etc., etc.

Cómo aumentar la autoridad de un dominio y sus páginas

Con lo que has visto en los apartados anterior, debería quedar también resuelta la evidente pregunta de cómo puedes aumentar la autoridad de tu dominio. Está claro: consiguiendo enlaces de calidad a tus páginas.

Aquí lo que tienes que tener claro es lo siguiente: en función de la visibilidad de tu web, conseguirás más o menos enlaces de manera pasiva (probabilidades de que alguien enlace una página tuya) y puedes conseguirlos también de manera activa trabajando exprofeso en ello, lo que se conoce como link building.

Aquí te dejo dos posts, uno sobre link building y otro que te enseña estrategias (incluidas fórmulas de pago) para conseguir una máxima visibilidad, aunque tu web sea una web joven:

que es link building ¿Qué es Link Building? Cómo conseguir enlaces de calidad para aumentar las visitas de tu web

Los enlaces siguen teniendo mucho peso para posicionar una web, por eso existe el Link Building: técnicas que te ayudarán con esta difícil tarea.

como aumentar visitas web Cómo aumentar las visitas a tu página web o tu blog

Una web sin visitas no tiene sentido. Por eso, todos queremos conseguir cuantas más visitas, mejor. ¿Qué puedes hacer para conseguirlo?

Y para completar estas lecturas, te dejo también aquí un post que explora los factores de posicionamiento más importantes en la versión actual de Google:

cabecera posicionamiento seo google Posicionamiento SEO de Webs en Google: ¿Cómo hacerlo en la actualidad?

¿Qué criterio usa Google en la actualidad para posicionar contenidos? ✅ En este artículo tratamos algunos de los que ya sabemos con certeza.

¿Cómo saber la autoridad de un dominio y sus páginas?

En su momento, conocer la autoridad que Google asignaba a una página era fácil: PageRank era público. Había múltiples herramientas (extensiones de navegador gratuitas, etc.) para mostrar el PR de cualquier página.

Pero desde el 2013 Google empezó a restringir el acceso a PageRank y en el 2016 cerró definitivamente sus puertas. Aunque no hay una versión oficial, la razón seguramente sea que consideraron que dar esa información incita a técnicas Black Hat.

Sin embargo, no fue algo dramático porque en el mercado ya existían alternativas al PageRank oficial de Google que incluso trataban mejorar la versión original con escalas más finas (de 0 a 100), diferenciando entre autoridad de una página y del dominio completo, etc.

Ahora bien, tienes que tener muy claro que todas estas métricas alternativas son meras estimaciones, más o menos fiables, pero estimaciones, al fin y al cabo. Ya no existen datos oficiales de PageRank.

Estas estimaciones están basadas en las simulaciones del algoritmo original de Google e información adicional sobre otros factores de posicionamiento relevantes que se sabe que Google ha ido añadiendo en las actualizaciones de su algoritmo.

Hablamos entonces de las métricas de autoridad más relevantes y empresas que las han creado.

Calcular la autoridad de dominio y de página con Moz (DA y PA)

La referencia “clásica” en métricas de autoridad, junto con las métricas de Majestic (que veremos a continuación), son las métricas de autoridad de página (PA) y autoridad de dominio (DA) de Moz, una de las empresas de referencia en SEO a nivel mundial.

Lo bueno es que puedes tener acceso a estas métricas de una manera completamente gratuita gracias a la MozBar, una extensión de navegador gratuita que superpone estas métricas a cada uno de los resultados de Google tal como puedes ver a continuación:

mozbar en serps
Ejemplo de la MozBar en acción para la búsqueda "qué es seo". Gracias a las métricas se ve enseguida que no es una búsqueda en la que resulta fácil posicionarse.

Podemos decir grosso modo que estas métricas intentan replicar el PageRank de Google, pero diferenciando entre la autoridad de la página y la autoridad del dominio (que sería algo así como la suma de autoridad de todas sus páginas).

En este vídeo, el fundador de Moz, Rand Fishkin, explica mucho más a fondo los matices de estas métricas:

Personalmente, son las que más uso en la práctica. Son simples, intuitivas y, dentro de que este tipo de métricas no pueden ser muy precisas por su propia naturaleza, considero que llegan a un nivel de precisión y coherencia suficiente para ser útiles en la práctica.

Medir la autoridad con Trust Flow (TF) y Citation Flow (CF) de Majestic

Como ya decía arriba, la otra gran alternativa para estimar la autoridad de una página son las métricas de Trust Flow (TF) y Citation Flow (CF) de Majestic, “flujo de confianza” y “flujo de citas” si las traducimos al castellano.

Majestic introdujo una idea nueva e interesante con estas métricas: una correlación entre las dos que nos proporciona información adicional sobre la calidad de esos enlaces.

Ahora bien, estas métricas no las puedes usar fácilmente con herramientas gratuitas similares a la MozBar porque Majestic sólo las proporciona bajo un servicio de pago.

Veamos cómo funciona la idea del TF y CF:

¿Qué es y cómo funciona el Trust Flow (TF) de Majestic?

Trust Flow, que es una marca registrada de Majestic, es una puntuación basada en la calidad, en una escala entre 0-100. Está basada en un trabajo manual donde Majestic recopila muchos sitios como “semillas de confianza”, basado en una revisión manual de esas webs.

Si necesitas un hosting para tu web o tienda online, ¡actúa!

Aviso: estas ofertas son válidas ahora, pueden vencer en unos pocos días.

El TF mide la autoridad teniendo en cuenta el número de saltos (clics) que separan a una página determinada de una o varias de las páginas “semilla”.

Es decir, si la página A enlaza directamente a la B, el enlace es directo. Pero podría ser que A enlazase a B y B enlace a C. En ese caso, habría traspaso de autoridad, pero menos cantidad por ser una relación indirecta.

¿Qué es y cómo funciona el Citation Flow (CF) de Majestic?

Por otra parte, descrito de una manera simple, el Citation Flow sería simplemente la métrica de Majestic que emula al PageRank, parecida en ese sentido también al PA de Moz.

Cómo estimar la autoridad con el ratio de Trust Flow / Citation Flow

La aportación realmente diferenciadora de estas métricas es cuando se correlacionan ambas métricas. La idea de base es que el ratio TF/CF daría una estimación más precisa de la autoridad del sitio.

Por ejemplo:

Tomemos primero una página con un TF de 40 y un CF de 40. Esto os daría un ratio de 1.

Tomemos ahora otra página que también cuenta con un CF de 40, pero con un TF de sólo 10. En este caso, el ratio TF/CF de esa página daría 0,25.

Según Majestic, ante un mismo valor de CF (su PageRank emulado), pero con un TF más bajo, esta última página tendría una autoridad sensiblemente más baja que la primera porque la proporción de los sitios semilla identificados como “de confianza” por Majestic sería mucho menor.

O lo que es lo mismo: el perfil de enlaces de alta calidad es mucho mayor en el primer caso y, por tanto, el primer sitio merece más confianza y ser considerado de mayor autoridad.

Si se representan los ratios de todas las páginas de una web en un gráfico como el siguiente, podemos tener también una visión global de la autoridad de la web:

ejemplo ratio tf/cf majestic
Ejemplo de perfil TF/CF de enlaces de una web donde cada punto corresponde a una página y la línea indica un ratio exacto de 1. Cuanto más se concentre la nube de puntos hacia arriba, mayor la autoridad de la web.

Sobre el papel, esta idea de Majestic resulta muy interesante, lo cual hace que mucha gente la considere una métrica superior a las métricas de Moz. Sin embargo, personalmente no lo veo claro.

La mayor pega que veo en relación a la fiabilidad del TF es el hecho de basarse en un trabajo manual.

Con el tamaño actual de la web (más de un billón de sitios) y la velocidad a la que cambia, ¿es realmente viable y suficientemente preciso este trabajo de semillado manual para una empresa de tamaño medio como Majestic?

Además de esto, hay también críticas a la calidad de la base de datos de enlaces de Majestic, comparado con otros competidores importantes como Ahrefs, por ejemplo.

En cualquier caso, no es objeto de este post entrar en este debate, simplemente te quería plantear estas reservas sobre el sistema de Majestic. Te remito recabar más información sobre esta cuestión en otras fuentes si quieres profundizar en ello.

Alternativas para comprobar la autoridad de una web y la dificultad de un nicho

Las métricas de Moz y Majestic han sido durante muchos años la referencia, sin apenas alternativas. Pero con el tiempo han surgido varias de ellas.

Las métricas UR y DR de Ahrefs

Esta herramienta ha ganado mucha popularidad en los últimos años y se ha posicionado como una de las grandes en el mercado de herramientas SEO.

ejemplo metricas ahrefs
Las métricas UR y DR de Ahrefs.

Usa dos métricas que, grosso modo, podemos asemejar al PA y DA de Moz, también con una escala de 0 a 100 ya que tienen una filosofía parecida: UR (Url rating), que sería la equivalente al PA de Moz y DR (Domain rating), que sería la equivalente al DA de Moz.

Métricas de autoridad de SEMrush

SEMrush es, al igual que Ahrefs, otra herramienta que lidera el mercado de las herramientas SEO. De hecho, es la herramienta que usamos en este blog y mi preferida.

Esta herramienta cuenta también con su propia métrica que llama Authority Score (algo así como “puntuación de autoridad” en castellano) y que, a su vez se calcula a partir del Page Score (puntuación de página), Domain Score (puntuación de dominio) y Trust Score (puntuación de confianza), junto con algunas otras métricas.

Sin entrar en matices, para que nos entendamos, aunque estas métricas están basadas en una metodología y algoritmos propios de SEMrush, la idea se parece un poco a una combinación de las ideas que vimos con Moz y Majestic.

El Page Score sería similar al PA de Moz y Domain Score al DA. El trust score es una métrica que se parece al TF de Majestic y todo ello combinado daría el Authority Score que se asemeja a la idea del ratio de TF/CF de Majestic.

Te regalamos $60 para hacer SEO como un PRO

Sí, es cierto, te regalo dos semanas de acceso a SEMrush (por un valor de $60).

Es la herramienta SEO que yo uso y la que más me gusta porque:

  • Lo tiene todo, no necesitas otras 5 herramientas más a $100 al mes cada una.
  • Tiene el mejor analizador de palabras clave del mercado: el Keyword Magic Tool.
  • Es tan potente como fácil de usar. La dominarás enseguida.

Úsala gratis 14 días (precio normal: $119/mes). Puedes exportar todo tu trabajo en Excel.

Y si quieres sacarle el máximo partido , no te pierdas nuestro tutorial de SEMrush.

Hay que añadir que SEMrush cuenta con algunas herramientas y métricas muy interesantes que influyen en esto como el Toxic Score que es procede de una de las herramientas de detección de enlaces “tóxicos” (dominios de muy baja calidad, probablemente penalizados por Google).

Las métricas de Ubersuggest

Una herramienta que no puedo pasar por alto en es la reciente Ubersuggest.

Junto con la MozBar, Ubersuggest es la única que nos proporciona métricas gratis, al menos, sin las severas limitaciones de uso que tiene las versiones freemium de las herramientas de pago como SEMrush, Ahrefs, o Majestic.

Aunque no se puede comparar con el conjunto de funcionalidad de SEMrush o Ahrefs, lo cierto es que Ubersuggest cuenta con una funcionalidad muy completa para una herramienta que, hoy por hoy (ya veremos cuánto durará…), es 100% gratis.

En este sentido, cuenta también con una métrica de autoridad que es el DS (Domain Score) que se asemeja a las demás métricas de autoridad de dominio, aunque no cuenta con una métrica de autoridad de página.

¿Y para qué sirven realmente la autoridad de página y de dominio?

Todo esto es muy interesante, pero posiblemente te hayas preguntado para qué sirve realmente, cómo podemos usarlo para nuestros fines.

La respuesta es simple: aparte de poder seguir la evolución de la autoridad de nuestro sitio y sus páginas, estas métricas sirven para analizar en qué medida podemos competir en Google según en qué búsquedas y qué estrategias utilizar para hacerlo de la mejor manera posible.

¿Cuál es el peso la autoridad de página y de dominio en el posicionamiento web?

Como ya he mencionado al principio, los enlaces (y, por consiguiente, la autoridad de una web) están entre los factores de posicionamiento más importantes. Tanto es así, que con poca autoridad lo vas a tener realmente crudo en búsquedas que no tengan un nivel bajo de competencia.

Ahora bien, dicho esto, no te desesperes, aún así se pueden hacer cosas si estás en un nicho temático bueno (con demanda, es decir, con un buen volumen de búsquedas).

Por una parte, es cuestión de ser humilde y centrarte en búsquedas más especializadas y con menos competencia. Esto se conoce también como la estrategia de “larga cola” y lo veremos más abajo con un ejemplo concreto.

Por otra parte, recuerda también que los enlaces no son el único criterio de posicionamiento.

Te vas a encontrar bastantes veces con resultados de dominios con mucha autoridad, pero que no responden al 100% a la intención de búsqueda. Aquí, respondiendo con exactitud a la intención de búsqueda se esconden buenas oportunidades.

Qué son y cómo usar las diversas métricas de “Keyword Difficulty”

Para simplificar la estimación del nivel de dificultad para competir en una búsqueda determinada (que es de lo que se trata al final) reduciendo esa dificultad a un solo valor, casi todas las herramientas SEO actuales cuentan también con métricas de “keyword difficulty” que típicamente también se mueven en una escala de 0 a 100.

En el caso de Ahrefs, por ejemplo, según su propia definición, esta métrica “calcula la puntuación KD de Ahrefs tomando un promedio ponderado del número de dominios enlazados a las 10 mejores páginas de ranking actuales y proyectando el resultado en una escala logarítmica de 0 a 100.”

Los detalles del algoritmo varían en cada una de las demás herramientas (SEMrush, etc.), pero el objetivo final viene siendo básicamente el mismo.

akw ubersuggest
Ubersuggest es una herramienta SEO gratuita que está muy bien para empezar y que también incluye una métrica de estimación de dificultad.

SEMrush, al igual que Ahrfs, denomina esta métrica KD, mientras que Ubersuggest habla de SD (SEO Difficulty).

De todos modos, uses cual uses, no olvides que este tipo de métrica es absoluta. Es decir, no tiene en cuenta la autoridad de tu web y se pierde, por tanto, la información comparativa de contrastar el nivel de autoridad tu web o páginas concretas de tu web con las demás.

Cómo analizar en qué búsquedas tienes más posibilidades de posicionarte

Ahora ya hemos visto lo suficiente para aplicar todo lo que hemos aprendido a lo que realmente nos interesa: analizar tus posibilidades para posicionarte para una determinada búsqueda.

Para ser prácticos, aquí te lo voy a explicar con un ejemplo muy sencillo. Si quieres ver esta parte más en detalle, descárgate también nuestro eBook de SEO para principiantes:

Vamos con el ejemplo:

Supongamos que eres el autor de un blog de jardinería muy joven, con una autoridad de dominio de 10, según el DA de Moz, y te gustaría publicar un artículo sobre cómo cuidar bonsáis.

Has analizado el nicho con una herramienta SEO y has visto que hay muchas búsquedas concretas que responden a esta intención de búsqueda y todas ellas suman un volumen total de miles de búsquedas al mes. Así que, por ahora, vamos muy bien con esta idea.

El siguiente paso es hacer la búsqueda “cómo cuidar bonsáis” en Google para analizar el nivel de competencia. Para ello, vamos a usar la MozBar.

Tras hacerlo, te encuentras con este panorama en la primera página de resultados (que es la única que realmente nos interesa):

ejemplo bonsai carmona mozbar dificil
Resultados en Google de la búsqueda "cómo cuidar bonsáis".

Buff… la cosa pinta mal. Todos los resultados responden de manera bastante exacta a la intención de búsqueda y tienen bastante autoridad de página, algunos proceden incluso de dominios con una altísima autoridad (uncomo.com), aunque esto es mucho menos relevante que la autoridad de página (como puedes ver en su posicionamiento).

No desesperemos, recuerda lo que decía arriba: en estos casos una estrategia de “larga cola” (long tail) suele ofrecer soluciones.

Este concepto de “larga cola” o “long tail” del SEO se refiere a la gran cantidad de variantes especializadas (más largas en número de palabras) de las búsquedas generalistas, como lo es la del ejemplo.

En este caso, por ejemplo, hay una larga de cola de variantes de búsquedas según el tipo de bonsái: “cómo cuidar un bonsái ficus”, “cómo cuidar un bonsái carmona”, “cómo cuidar un bonsái ginseng” … y así decenas de ellas.

Tienes bastante experiencia con bonsáis Carmona, así que echas un vistazo a ver si hay un volumen de búsqueda suficiente. Si usases SEMrush, verías los siguientes resultados:

ejemplo bonsai carmona semrush
Palabras clave (búsquedas concretas) que encajan con la intención de búsquedas “cómo cuidar un bonsái Carmona”.

Buenas noticias: aunque el volumen total es sensiblemente inferior que en la búsqueda más genérica, casi 500 búsquedas al mes que suman las diferentes variantes de larga cola, sigue siendo un volumen interesante.

Veamos entonces cómo vamos de competencia con esta intención de búsqueda. Al buscar “cómo cuidar un bonsái carmona” nos sale:

ejemplo bonsai carmona mozbar facil
Resultados en Google para la búsqueda de “cómo cuidar un bonsái carmona”.

Si te fijas, en los resultados de búsqueda, a primera vista, puedes llevarte el susto de que, de nuevo, todo está lleno de webs con bastante autoridad contra las cuales no vas a tener ninguna oportunidad de competir.

Pero, analiza bien los resultados: ¿te has dado cuenta de que realmente sólo uno de los resultados responde bien a la intención de búsqueda (el que está resaltado)?

Si te fijas, los demás son resultados de información genérica sobre este tipo de bonsáis, no responden específicamente a cómo cuidarlos.

Es más, fíjate en que el resultado resaltado que responde bien a la búsqueda tiene mucho menos PA y DA que los que tiene debajo. Según Moz, incluso no tendría ni un solo enlace.

¿Por qué ocurre esto?

Pues porque es el único que responde adecuadamente a la búsqueda.

El resultado que tiene por encima probablemente la responda en su contenido (en un subapartado, por ejemplo), aunque no lo refleje en el título (es decir, no es el tema principal del contenido), pero gracias a sus altos PA y DA (y posible algún otro factor), consigue superar al que responde exacto.

Probablemente tan sólo con un poco más de PA (entre 15-20 estimo) el resultado exacto ya se posicionaría por encima.

Fíjate también en los valores de KD que muestra SEMrush, son grados de dificultad relativamente altos.

Esto es más o menos coherente con los DAs de los resultados, sin embargo, no es un reflejo de la situación real porque no hay apenas contenidos que respondan con exactitud a estas búsquedas. Es más, los que hay tienen muy poca autoridad.

De ahí, mi crítica a esta métrica tan simplista, creo que trivializa este tema tanto que deja de cumplir su función en la práctica. Por eso, personalmente prácticamente no las uso.

Conclusiones

En definitiva, al final todo esto resulta bastante lógico e intuitivo, ¿no te parece?

Sin embargo, si, tras leerte este post, te has quedado con la sensación de que todo esto tiene también mucho de lógica difusa, enhorabuena, has dado en el clavo. Efectivamente así es y así debes tomártelo.

En el ejemplo ha cuadrado todo muy bien y ha quedado muy bonito, pero en la práctica te vas a encontrar también más de una vez con cifras a las que no les ves mucho sentido.

Otras veces te vayas a encontrar con que un contenido que estaba clarísimo que posicionarías sin problemas según todas las métricas, resulta que no se posiciona ni a la de tres.

Y es que no tenemos que olvidar que, aunque resulta imprescindible hacer este análisis cuando quieres posicionar un contenido, no deja de ser estar trabajando con estimaciones sin contar, además, con que los caminos del señor Google muchas veces son tan inescrutables como los del resto de los seres divinos.

En cuanto a las herramientas, aunque soy un fan absoluto de SEMrush, sobre todo por su maravillosa herramienta de exploración de palabras clave (Keyword Magic Tool), en lo que se refiere a analizar el nivel de competencia sigo usando la MozBar prácticamente en exclusiva.

Y es que no solamente me siguen cuadrando (generalmente…) las métricas de PA y DA con los resultados de búsqueda, sino que no puedo concebir este análisis fuera de la página de resultados de Google.

En el ejemplo anterior se ha podido ver muy claro: no se trata de barajar cifras de PA y DA como un autómata, sino que hay mucha parte subjetiva, mucho “arte” en valorar en qué medida los resultados responden o no a la intención de búsqueda teniendo que entrar incluso muchas veces en el contenido del resultado para hilar fino en esto.

Para todo ello, en mi experiencia personal, el concepto de la MozBar, ser una extensión que se integra en el navegador y se fusiona con los resultados de Google, ha resultado ser la mejor fórmula hasta la fecha para este trabajo.

¿Te gustaría leer más sobre esta temática? Busca aquí:

Acerca del autor: Berto López

Soy autor y fundador de este blog, e Ingeniero en Informática de formación con amplia experiencia: he trabajado como empleado, empresario, incluso funcionario. Vamos, que he probado de todo 😄

De todo ello, lo que me apasiona de verdad, es el emprendimiento, combinado con la tecnología, algo que he podido retomar con mi proyecto web actual al cual pertenece, entre otras, esa web.

Aparte de mi propia experiencia emprendedora, mi contacto profesional con pymes y pequeños emprendedores me ha generado un gran interés en el marketing online.

Emprendí muy joven y eso hizo que todo el desarrollo inicial de las redes sociales, WordPress, SEO, etc. ya lo viví con esa experiencia. Me fascinó cómo cambió las reglas del juego para bien, sobre todo, para los pequeños emprendedores.

Esto me parece algo tan importante, de tanto calado social, que este blog nace con la vocación de ser un sitio de divulgación de este conocimiento y con la intención de motivar sus lectores para que aprovechen al máximo el potencial de estas disciplinas.


18 comentarios en «Qué son la autoridad de página y de dominio, cómo medirlas y cómo usarlas»

  1. Muy buen repaso global Berto, comparto 🙂

    Nosotros en la agencia también somos fans de SEMrush desde hace años, hemos utilizado y utilizamos varias pero ésta es la que más equilibrio nos da en las distintas patas.

    Al final sobre Google hay que trabajar sin patrones, con un enfoque claro en Branding para el medio y largo plazo, porque todas las actualizaciones de algoritmo persiguen siempre lo mismo, lo poco natural.

    Gracias por el artículo!

    Responder
    • Hola Manuel,

      Creo que es importante hacer SEO activamente, empezando por aprovechar lo más posibles los nichos de búsqueda que podemos encontrar con herramientas como SEMrush, pero de manera "honesta".

      Por mi parte he hecho cosas de Black Hat para experimentar y en otros sitios (no en este blog). Mi sensación es que, más allá de la discusión de las cuestiones éticas, Google ha llegado a un momento que este tipo de prácticas simplemente no merecen la pena. Acabas antes y tendrás más rendimiento con un trabajo SEO bien hecho y "honesto".

      ¡Un saludo!
      Berto

      Responder
  2. Que buen post Berto!

    Más allá de los números presentas la lógica de la autoridad del dominio y cómo usarla.

    Me queda la duda ¿te restringes de publicar ciertos temas antes de alcanzar cierta autoridad en una web nueva?

    En mi caso, he ido publicando, y bueno, luego empecé con el linkbuilding, bajo la lógica de que se que mi contenido es bueno y está bien trabajado, y a medida que lleguen los links se verá el efecto

    ¿Qué opinas?

    Saludos

    Responder
    • Hola Luis,

      En efecto, en nuestro caso, la autoridad del dominio ya es tal que nos podemos atrever con casi cualquier cosa.

      Pero en el caso de una web con poco autoridad, como norma general, recomendaría el principio de "métete sólo en una pelea si sabes que la vas a ganar" que, traducido a lo nuestro, significa que te mueva en intenciones de búsqueda con cuyos resultados a nivel de autoridad puedes competir.

      ¿Está mal lo que has hecho? No diría eso, pero sí me plantearía que dieses más prioridad a contenidos más fáciles y rápidos de posicionar si en tu nicho ves que existen oportunidades de ese tipo.

      ¡Un saludo!
      Berto

      Responder
  3. Una advertencia y una pregunta:

    Advertencia:
    En este párrafo entiendo que te falta un "100" ¿es así?
    Lo que es esencial aquí es que se trata de una escala logarítmica, no de una escala lineal. Es decir, en términos de dificultad para ir subiendo, si subir de un PR 0 a PR 1 nos cuenta un esfuerzo de 10, subir de un PR 1 a un PR 2 nos costaría, de PR 2 a 3, 1000 y así sucesivamente.

    Pregunta:
    Nuestra agencia de marketing nos dice que no puede darnos acceso a las métricas de nuestra propia web porque las mediciones las hacen en la herramienta Master Tools de la propia agencia ¿es eso correcto? ¿no pueden darnos acceso como invitado para ver el desarrollo de nuestras propias métricas? yo tenía entendido que se hace através de Google Analytics no de Master Tools.

    Gracias

    Responder
    • Hola Neo,

      Tienes toda la razón, estaba mal. Ya lo hemos corregido 🙂

      En cuanto a lo de la agencia, me tiene muy mala pinta, suficiente como plantearos un cambio. No es defendible que no tengáis acceso a vuestros datos.

      Puede que sea una herramienta propia, pero en ese caso, si no os dan acceso es porque no quieren. ¿Por qué motivo? ¿Quizás porque refleja que los resultados de su trabajo no son buenos?

      Tal como se explica aquí, la información de la analítica web es crucial para una empresa: https://www.ciudadano2cero.com/que-es-la-analitica-web/

      Como te digo, me huele muy mal. Para mi sería un claro indicio para indagar más y plantearme un cambio.

      ¡Un saludo!
      Berto

      Responder
      • Muchas gracias Berto, era lo que intuía. Indagaremos algo más para saber con claridad si es así.

        Siempre pensé que se podía invitar a otra perfil a ver tu Analytics para ver la evolución de un posicionamiento o incluso para vender publicidad en función de esos datos.

        Cosa distinta es que sea una herramienta propia.

        Saludos,

        Responder
  4. Ahora me ha quedado más claro que es el SEO, pero hay que tener en cuenta, que si el contenido de tu Web, no es renovado a menudo, las visitas no se incrementarán.
    Mi Web tiene un contenido para curiosos y de las visitas que he tenido, muchos serán visitantes que se hayan equivocado o se hayan confundido escribiendo la URL.
    Soy socio de Ciudadano 2.0 desde hace muy poco, pero me está ayudando un montón con la elaboración de mi Web y estoy muy agradecido a los consejos que se emiten.

    Responder
    • Hola Mario,

      Muchas gracias por tus amables palabras, pero te tengo que contradecir en una cosa 🙂

      Si bien el "freshness" (lo reciente que es la información) es verdad que es un factor positivo a la hora de posicionar un contenido, esto no quiere decir que sea imprescindible una actualización muy frecuente, incluso en nicho difíciles.

      Nosotros mismos tenemos muchos contenidos que llevan más de 5 años sin apenas modificaciones y que siguen muy bien posicionados.

      Si quieres aumentar tráfico, mi consejo es sobre todo, aumentar lo más que puedas el abanico de búsquedas diferentes a las que responden tus contenidos.

      ¡Un saludo!
      Berto

      Responder

Deja un comentario

⚠️ Importante: por respeto a esta comunidad, sigue estas pautas al dejar tu comentario:

  • Usa tu nombre personal, ni nombres inventados, ni el de tu web, ni el de tu empresa.
  • Cuida la redacción: separa párrafos y no escribas en mayúsculas (equivale a gritar).
  • No dejes enlaces a tu web en el comentario, dispones del campo "sitio web" para ello.
  • Eliminaremos comentarios con insultos, ofensivos o con lenguaje soez.

Al rellenar el formulario estás dando el consentimiento expreso al tratamiento de tus datos (guardar tu comentario y datos del formulario en el blog) conforme al Reglamento General de Protección de Datos (RGPD).

El responsable de este sitio es Wenova Online S.L.. La finalidad de este formulario es la divulgación en marketing online y emprendimiento, legitimado con tu consentimiento expreso.

El destinatario de tus datos es Webempresa (el hosting de este blog, ubicado en España) y podrás ejercer tus derechos de acceso, rectificación, limitación o supresión de tus datos (ver la política de privacidad).