Plataformas para comprar textos y redactores SEO freelance

Como SEOs que somos nuestra misión principal es aparecer rankeados en las mejores posiciones, para eso tenemos que tener en cuenta muchos factores, pero sin duda resolver las dudas de los usuarios es algo que debe estar por encima de todo y para eso, un buen texto (video, imagen…) es nuestro arma principal, y como el tiempo es oro, vamos a hacer un análisis de plataformas para comprar contenido, sus  pros  y sus contras .

Si alguna vez has tratado de comprar textos sabrás lo complicado que resulta hacerlo y lo difícil (al menos en mi caso) que es conseguir resultados positivos sobretodo si buscas comprar textos baratos. Mi recomendación, desde ya, es que no escatimes dinero en el contenido de tu web, 💡 es como si te haces una casa y compras el cemento de la peor calidad pero el proyector más nuevo del mercado para ver las películas, si se cae la casa no podrás ver películas.

🥜 Si pagas con cacahuetes sólo podrás contratar monos, ¿te suena esta frase? Pues en el sector de los textos yo no he parado de darme una y otra vez de golpes con ella, por suerte las plataformas de contenidos te ayudarán a resolver este tema.

No te culpes, yo mismo he comprado textos de estos de 1000 palabras $1 y… bueno, decir que me sangraban los ojos 👀 al leerlos es poco. Al final echas más horas corrigiendo, modificando y mejorando esos textos de lo que pagarías a un redactor profesional desde un principio.

Comprar o redactar textos de calidad es una de las mejores acciones SEO por las que puedes optar a medio / largo plazo, sobre todo si trabajas contenido evergreen ese texto estará trabajando para ti durante mucho tiempo.

¿Cómo es un buen contenido para SEO?
  • Índice – Un índice ayuda a los lectores a crearse una visión general del artículo y llegar al punto que más le interese sin perder tiempo
  • Títulos (H1, H2, H3..) – Ayudan a los buscadores a entender la organización del artículo y sus títulos más importantes
  • Negritas – Otra de las etiquetas que debemos utilizar en los textos. El uso de las negritas nos permite destacar palabras que por sí solas dan significado al párrafo completo
  • Keywords – Debemos añadir «con cabeza» las keywords en nuestro contenido, pero no de forma exacta, plurales, sinónimos… nos ayudarán a hacer un texto más natural
  • Longitud – Debes tratar de no hacer párrafos de más de 3-4 líneas
  • Valor – No extiendas el texto más allá de lo estrictamente necesario para aportar toda la información necesaria sobre el tema en cuestión
  • Multimedia – Las imágenes, vídeos, gifs, etc … ayudan a crear un contenido más ameno

Plataformas de contenido

Ventajas
Comodidad en el proceso
Redactores de calidad (pasan una prueba para vender sus textos dentro)
Garantía de cambios
Volumen de trabajo (muchos redactores)
Desventajas
Precio más elevado

Estas plataformas se han hecho más conocidas en los últimos años porque la demanda de creadores de contenido ha ido creciendo exponencialmente, hoy en día son muchas las personas que no tienen tiempo o conocimientos para crear contenido para sus proyectos webs y recurren a terceros en busca de este servicio.

Su servicio es «muy sencillo», hacen de intermediarios entre los redactores y los clientes que compran textos, su trabajo está en formar a los redactores, revisar los textos (faltas de ortografía, enlaces, gramática…) así como ofrecer a los clientes un dashboard intuitivo, sencillo y eficaz para poder gestionar los textos y los pedidos.

Por lo tanto para valorar si una plataforma de venta de textos es buena opción o no, no deberías fijarte sólo en el precio de los textos (que también) sino en qué servicios ofrece o en qué puntos destaca por su calidad frente a la competencia.

 

LowPost

💶🛒 Desde 28€ (más IVA) un artículo de 1000 palabras

👍 Tiene una enorme cantidad de redactores (35000) de todas las temáticas y niveles

Esta plataforma española lleva funcionando desde 2013 y ya se ha internacionalizado hace relativamente poco tiempo, con una base de datos de más de 40.000 redactores de hasta 40 categorías distintas y en varios idiomas es difícil que no encuentres el redactor que buscas.

Tienen un doble sistema de corrección humana, lo que garantiza que tus textos estarán siempre perfectos, además gracias a su panel de control sencillo e intuitivo, es muy cómodo seguir la evolución del desarrollo de nuestros textos y pedir modificaciones si fuera necesario.

Dispone de un sistema denominado Lowpost Active, que te permite delegar 100% la tarea de redacción de contenidos. En un primer contacto te ayudarán a determinar tu público objetivo, para entender qué contenido necesita, después de eso, serán ellos los encargados de buscar, crear y publicar el contenido en tu blog, el número que determines. No es un servicio económico, pero muy útil para aquellas empresas que no tienen tiempo de actualizar su web y necesitan aportar contenido fresco.

Me gusta
Panel de control
Lowpost Active
No me gusta
Precio
Acceso: LowPost

Publisuites

Publisuites
💶🛒 Desde 10€ un artículo de 1000 palabras (según redactor)

👍 Precios más económicos, pero no revisan los textos, sólo el redactor (sí permite solicitar modificaciones al texto)

Ya vimos en el artículo de plataformas para comprar enlaces, que Publisuites es una veterana en el sector y está ahí arriba sin duda por saber hacer las cosas bien y cuidar a sus clientes.

Además de la venta de enlaces y reseñas, dispone de una sección centrada únicamente en la venta de textos, eso sí, el modelo es un poco distinto (por eso ofrece precios más económicos) porque debes ser tú el que elija al redactor/a (entre los más de 4.000 que hay registrados), por suerte puedes ver sus valoraciones, sus cualidades en cuanto a categorías que domina, idiomas… y una opción muy útil es que puedes ver un texto de ejemplo del redactor/a antes de contratarle.

Tiene la opción de configuración masiva, es decir, si vas a solicitar 10 artículos sobre la lactancia materna, no tendrás que ir uno a uno configurando categoría, título, longitud de palabras, etc … sino que puedes poner un tema común como ese de «lactancia materna» y el propio redactor se encargará de ir creando artículos independientes con relación al tema común, muy útil además cuando no tienes muy claro sobre qué escribir.

Los precios pueden variar mucho, desde un precio mínimo de 0,01€ / palabra, es decir, 10€ por un texto de 1000 palabras, hasta los 0,2€, aunque la media está en torno a 0,015 – 0,020€ dependiendo de la especialización y nivel del redactor/a, y del idioma en el que necesites el texto.

Me gusta
Variedad de redactores
Rapidez en la entrega
No me gusta
Supervisión en los textos
Acceso: Publisuites

 

Contenido para SEO

💶🛒 No tienen disponibles tarifas fijas en la web, depende del servicio y del volumen.

👍 Ofrece un triple combo redacción + corrección + copywriting

Esta plataforma nace de la unión de Dean Romero y Jonatan Botello (además de todo el equipo de profesionales que hay detrás) como forma de ofrecer contenido de calidad a todos aquellos que buscan textos de calidad para sus nichos o proyectos web.

Destacan porque ofrecen un servicio más completo, ya que en el precio del texto incluyen redacción, corrección y copywriting, además de un estudio de palabras clave previo a la redacción del texto, como no podía ser de otra forma con DinoRank.

El que sea un equipo formado por profesionales muy ligados al sector copywriters, redactores, marketers… hace que sea muy sencillo encontrar los textos idóneos para posicionar bien tu web, porque conocen lo que Google valora y porque están acostumbrados a escribir para sus propios proyectos.

Me gusta
Proceso de elaboración del texto
Detallismo en la creación de contenidos
No me gusta
Sin panel de control

 

Buyatext

💶🛒 Desde 19,90€ un texto de 1000 palabras

👍 Realizan un keyword research previo a la redacción de contenido, además incluyen un servicio de curación de contenidos.

BuyAText lleva algo más de dos años en el mercado de los textos y no es de extrañar teniendo en cuenta la extensa lista de servicios que tienen, siempre puedes recurrir a ellos: artículos para web, comparativas y reseñas (muy útil para los que trabajamos nichos de Amazon Afiliados), guías y rutas de viajes, Seo Local y GMB (a por el rank&rent!), páginas de empresa, descripciones de productos y categorías de ecommerce, notas de prensa y guiones para vídeos

Si ya tienes textos en tu blog pero por alguna razón no estás posicionando, o cree que se podría atraer más tráfico con ese artículo, el servicio de curación de contenidos es lo que necesitas, ellos se encargan de analizar tu contenido y analizar el de la competencia para ver qué kws son las que les están llevando más tráfico y poder trabajarlas tú también, o aquellas que la competencia está trabajando y tú no. Luego te redactan un texto con las frases (coherentes con tu texto) que debes incluir en tu página.

Me gusta
Rapidez de entrega
Curación de contenidos
No me gusta
No tiene panel de control
Acceso: Buyatext

 

Textbroker

💶🛒27€ un artículo de unas 1000-1250 palabras por un redactor de 4 estrellas

👍 Clasificación de redactores por estrellas y por categorías

Que yo conozca es una de las plataformas de contenidos que más años lleva en el sector, y está implantada a nivel internacional por lo que la calidad de sus servicios quedan fuera de toda duda.

Esta plataforma está más orientada a la gente que necesita una gran volumen de textos, para pedir un texto de vez en cuando yo la veo algo compleja, ya que necesitas especificar muchas cosas del encargo (que por otra parte está bien).

Dependiendo del tipo de texto que necesites el precio puede variar mucho, por ejemplo, un artículo para un blog de unas 1000 – 1250 palabras por un redactor de 4 estrellas puede costar 27€, pero si eliges un redactor de 5 estrellas el precio puede dispararse hasta los 80 euros, a mayor cantidad de estrellas mayor es la calidad y la especialización del texto.

Puedes incluso crear un equipo con tus redactores favoritos y enviarles los encargos de tus textos sólo a ellos, así te evitas tener que estar buscando redactores nuevos cada dos por tres.

Me gusta
Atención al usuario
No me gusta
Precios
Acceso: Textbroker

 

ContenidosClick

💶🛒 Depende del servicio y el volumen que contrates

👍 Variedad de servicios de creación de contenidos

Más que una plataforma de venta de contenidos, ContenidosClick es una agencia de marketing de contenidos, ya que te permiten atender cualquier necesidad que tengas en tu negocio de marketing: contenidos para blog, publicaciones en Google My Business, eBook, infografías, video post… y además están enfocados en varios sectores concretos como inmobiliaria, educación y otros.

El funcionamiento es muy similar a otras plataformas, accedes a un panel de control desde el que puedes controlar tus pedidos, encargos y entregas, realizar pagos, etc.

Me gusta
Profesionalidad
Servicios asociados
No me gusta

 

DigitalContent.pro

💶🛒 Desde 80€ al mes el plan más económico de 4 artículos al mes

👍 Sólo tienes que elegir un plan y despreocuparte, ellos se ocupan del keyword research y los contenidos

La verdad que una vez das el paso a delegar tareas te das cuenta del tiempo que has perdido tratando de abarcarlo todo, ese es el principal lastre para muchos webmasters que tratan de hacer ellos mismos todos los trabajos y al final te estancas.

Cuando conocí DigitalContent.pro lo primero que me llamó la atención es que no son una plataforma al uso, donde tú pides determinado artículo lo pagas y ya. Ellos se implican por completo con los contenidos del blog, elaborando un calendario editorial, preparando los contenidos y realizando keywords research para conocer qué contenido interesa a tu público.

Y eso para los que no tenemos demasiado tiempo es oro, además que es una de las plataformas que más uso y yo soy bastante exigente para los textos.

Me gusta
Planes de calendario de contenidos
No me gusta

 

 

 

Plataformas de redactores

Ventajas
Precio
Servicios para el proceso (gestión, pagos, valoración…)
Acceso a miles de profesionales con experiencia
Desventajas
Encontrar un buen profesional

Este tipo de plataformas hace de intermediarios entre personas que buscan contratar un servicio y los freelancers que ofrecen sus servicios por internet a cambio de una comisión del precio final.

Si ya has empezado a contratar gente a través de foros u otras plataformas, este creo que es el paso siguiente, porque la forma de gestionar los trabajos es mucho más cómoda y te evitará dolores de cabeza, tienes acceso a muchos más profesionales y de servicios más variados, diseñadores gráficos, redactores, copywriters, etc…

Además tendrás control total sobre la elección del profesional y podrás repetir trabajos con él/ella siempre que quieras, es la opción más fácil para crear un equipo virtual y remoto con el que trabajar en proyectos propios o de clientes.

 

Workana

💶🛒 Este tipo de plataformas de freelancers cobran una comisión por hacer de intermediarios

👍 Cómodo y sencillo proceso de selección de profesionales

Workana es la plataforma de trabajos freelancers más importante de Latinoamérica, por lo que la cantidad de profesionales cualificados es enorme y los precios no suelen ser muy elevados, dependiendo de la reputación del profesional o de las certificaciones (Workana permite a los freelancers hacer tests que puedan probar y certificar sus habilidades).

Si quieres empezar a delegar tareas en tu negocio o empresa, como puede ser la elaboración de textos, sin duda, recurrir a este tipo de plataformas es una de las mejores opciones, aunque tengas que pagar la comisión de intermediario pero tendrás acceso a una enorme base de dato de profesionales, podrás revisar su perfil (habilidades, certificaciones, experiencia, valoración de otros usuarios, etc..) antes de elegir un profesional, realizar pagos seguros gracias a su plataforma, pedir modificaciones, etc…

Una de las opciones más interesante de Workana (hay otras plataformas de empleo que también disponen de ella) es que te permite contratar a los freelancers por un precio fijo por trabajo, o por precio por hora, por lo que si tu intención es trabajar con uno o varios redactores a lo largo de los meses quizás la opción por horas te salga más económica.

Me gusta
Comodidad para contratar
Seguimiento de pedidos
Contacto con los freelancers
Contrato por horas
No me gusta
Acceso: Workana

 

UpWork

💶🛒 Los precios pueden variar dependiendo del freelance

👍 Mejores precios por volumen

Esta enorme plataforma de contratación de freelancers tiene su sede en EEUU, y su mayor «inconveniente» es que está todo en inglés y la mayoría de los redactores son en ese idioma, aunque también puedes encontrar redactores para textos en español.

Si contratas muchos servicios a freelancers a lo largo del mes quizás te interese echarle un ojo a UpWork, una plataforma de freelancers en la que puedes obtener descuentos en las facturas a medida que más servicios contrates.

Me gusta
Sistema de contratación
App
No me gusta
Sin versión en español
Acceso: UpWork

Existen otras plataformas como  Fiverr  que ya vimos en el artículo de las plataformas de compra de enlaces en los que puedes encontrar muchos profesionales con muy buena relación calidad precio como los que listé en el artículo que publiqué de freelancers recomendados.

 

Foros para encontrar redactores

Ventajas
Precio
Mayor oferta de redactores

Desventajas
Coordinación

En los foros siempre vas a encontrar cantidad de gente que ofrece sus servicios, que pueden ser de redacción, o de cualquier otra cosa, a mi me gusta mucho trastear por los foros cuando tengo tiempo, siempre encuentras cosas interesantes, el problema es que necesitas mucho tiempo y estar muy pendiente para no perderte nada.

💡Mi consejo: no te limites a los típicos foros donde encontrar redactores (que son los dos que te voy a dejar más abajo), sino que puedes ampliar mucho más tus miras y buscar expertos en un tema en concreto en foros temáticos, por ejemplo, si necesitas unos artículos para un blog de jardinería, estoy 100% de que alguien que participe en un blog de jardinería va a tener más conocimientos que un redactor que sin saber nada de jardinería busca 3 artículos en internet, los lee y hace un resumen.

Lo difícil será encontrar alguien que quiera hacer los artículos, y seguramente no te salgan tan baratos, pero la calidad desde luego se va a notar.

 

Forobeta

Forobeta

Uno de los foros hispanos más grandes en cuanto a tema de webmasters y SEO se trata, Forobeta es sin lugar a dudas referencia en el sector, y precisamente su sección de negocios es una de las más activas.

Ahora han implementado una verificación para acceder a la zona de negocios (lo puedes hacer mediante Whatsapp) que espera «profesionalizar» un poco la zona de negocios que a veces parecía más un patio del colegio que una zona de negocios.

Aún y con todo, busca bien antes de contratar a un redactor, mira bien sus puntos de comerciantes, la valoración de otros usuarios y si es posible y tiene portfolio o trabajos ya redactados mejor, y nunca pidas 50 artículos de golpe, sino conoces al redactor 1-2 artículos para ver sus textos te ayudará a no perder el tiempo.

Pero Forobeta se vale de su tamaño, es como digo, uno de los foros más visitados, por lo tanto si quieres tener visibilidad debes participar en él.

Me gusta
Mucha oferta
Verificación zona negocios
No me gusta
Calidad de los redactores sino buscas bien
Acceso: Forobeta

Foro20

 

No podía faltar Foro20 en el listado, un foro dedicado a los negocios en internet, que aunque ha pasado un tiempo con poco movimiento, parece que con su renovación quiere seguir creciendo y aportando valor a los usuarios.

Y prueba de ello es su zona privada, donde se comparten trucos y técnicas con aquellos usuarios con el rango de colaborador, el hecho de pagar una cuota mensual en un foro es un aliciente muy interesante para sus dueños y moderadores a aportar contenido de valor a la comunidad y esperamos que así sea.

Me gusta
Diseño y usabilidad
Participación
Zona privada
No me gusta
Poco movimiento
Acceso: Foro20

 

Redactores SEO Freelance

RedactorSeo

💶🛒 50€ por un texto de 500 palabras

👍 Un redactor implicado en el proyecto, que investiga, analiza, corrige y entrega puntualmente cada pedido

Detrás del proyecto RedactorSeo se encuentra Álvaro Pérez, un joven emprendedor dedicado al mundo del SEO que emplea parte de su jornada en redactar textos especializados para otras empresas, en los que vuelca toda su experiencia posicionando sitios web desde 2010.

Acceso: RedactorSeo

 

ViveSeo

💶🛒 20€ por un texto de 1000 palabras

👍 Experiencia en artículos de temática de Marketing / SEO y precio

🔥 Con el cupón seodelnorte obtendrás un 50% de DESCUENTO en los encargos de textos que hagas, pero date prisa, sólo hay 5 cupones disponibles. 

Una pequeña agencia de marketing, donde la calidad prima por encima del volumen de trabajo, al frente de la cual se encuentra Javier Flores, entre los servicios que prestan a los clientes además de posicionamiento web está el de creación de contenidos, principalmente en temática SEO / Marketing / Internet (de cuya calidad puedo dar fe) y linkbuilding.

Acceso: ViveSeo

Nuria Cámaras

💶🛒 30€ por un texto de 1000 palabras

👍 Nuria es una redactora apasionada por su trabajo

Nuria es una redactora SEO como a ella misma le gusta denominarse, ya que por sus conocimientos y dilatada experiencia en el sector, así como estudios de Marketing y dirección de empresas la convierten en candidata ideal cuando buscas textos de este sector, te ayudará a conseguir clientes. Pero además puede escribir sobre muchos otros temas como viajes, maternidad, educación, niños… y tendrás siempre los textos a tiempo.

 

YoRedactor

💶🛒 25€ por un texto de 1000 palabras

👍 Tarifa única de 2,5€ / 100 palabras para todos los textos

Daniel Cana tiene más de una década de experiencia en los negocios en internet, empezó creando un blog de autoayuda con el que consiguió nada menos que 25.000 visitas diarias y ahora se dedica a aplicar toda esa experiencia a los textos que crea para sus clientes, podrás contratar sus textos con una tarifa única de 2,5€ por cada 100 palabras.

Acceso: YoRedactor

 

Isabel Ramírez

💶🛒 15€ por un texto de 1000 palabras

👍 Un completo servicio de marketing de contenidos

Isabel es experta en marketing digital y puede ofrecerte una amplia serie de servicios para mejorar tus estrategias digitales e incrementar tu presencia en internet para impactar a tus clientes, desde redacción de contenidos, curación de contenidos, email marketing y contenidos para redes sociales.

 

Fabricando contenidos

💶🛒 65-80€ por un texto de 1000 palabras

👍 Blog donde aprenderás un montón de técnicas de redacción y copywriting

Isabel Conesa, licenciada en Historia, es la profesional que está detrás de Fabricando Contenidos, una agencia especializada en la creación de contenidos que atraigan visitas a tu web, además de ayudarte a persuadirles y convencerles gracias al copywriting.

 

➕ ¿Quieres aparecer en la lista o echas de menos alguna plataforma? Házmelo saber aquí y la añadiremos.
15 comentarios

Mejores plataformas para comprar enlaces y linkbuilders manuales

Hoy en día el trabajo de creación de enlaces o linkbuilding es una tarea bastante «tediosa» por el tiempo de ejecución que requiere y que muchos SEOs y agencias deciden delegar en freelances o en plataformas de creación de backlinks que se pueden encargar de todo el trabajo, desde la planificación del linkbuilding, la creación de los enlaces incluso la supervisión o monitorización de los mismos una vez creados.

Backlink

⚠ La creación artificial de enlaces a un sitio web va en contra de las directrices de Google, el linkbuilding es un juego que va a darte muchas alegrías o penas dependiendo de cómo lo realices o en manos de quién dejes esta vital tarea.

La principal  ventaja  de este tipo de servicio es que nos descarga a nosotros de la tarea de crear los backlinks a nuestros proyectos, algo que puede llevar bastante tiempo, lo dejamos en manos de profesionales que tienen acceso a una extensa BD de sitios donde crear backlinks con métricas SEO para comparar.

Si tienes varios proyectos webs, recurrir a un servicio de creación de enlaces es casi imprescindible, el linkbuilding junto con la creación de contenidos suelen ser las primeras tareas que delegamos en terceros porque son las que más tiempo ocupan, tiempo que podemos emplear en buscar, investigar y plantear nuevos proyectos.

En la otra cara de la moneda, las  desventajas , sino tienes mucho control sobre ello puedes acabar creando enlaces de mala calidad que perjudiquen a tu posicionamiento, nadie mejor que tú conoces el perfil de enlaces y la estrategia de linkbuilding que has aplicado a tu proyecto web.

💡 Puedes delegar la ejecución de los trabajos, la creación del backlink, pero no delegues la estrategia de linkbuilding a nadie que no sea un profesional SEO porque puede perjudicar el crecimiento de tu web.

Plataformas compra de enlaces

Este tipo de plataformas hacen de intermediario entre las webs / blogs / periódicos / medios / revistas que quieren vender backlinks y los webmasters como nosotros que queremos comprar un enlace a nuestro sitio web, la principal ventaja es que nos ofrecen un listado con datos de las webs como autoridad, categoría y precio, facilitandonos mucho el trabajo de cribado.

💡 Te recomiendo registrarte en varias de ellas porque puede pasar que el mismo blog o medio tiene un precio distinto entre plataformas, dependiendo de la habilidad del comercial de la plataforma para ajustar su precio, del volumen de pedidos que tengan de cada plataforma, etc… por eso, no pierdes nada por revisar su precio en varias plataformas.

Antes de revisar una a una las mejores plataformas para comprar enlaces (para mí o que yo haya usado) vamos a ver las  ventajas  y  desventajas  de comprar enlaces en plataformas de linkbuilding.

Ventajas

Extensa y detallada información, tenemos acceso a un listado extenso y detallado (métricas SEO, tráfico, análisis crecimiento, categorías …) de sitios web que venden enlaces

Rapidez y comodidad, con sólo un par de clicks (y algunos euros) podemos tener 20-30 backlinks manuales creados a nuestra web

Servicios desatendidos, algunas plataformas lo ofrecen como un servicio extra gratuito a partir de cierto gasto al mes, se encargan de seleccionar y comprar los enlaces a tu web/s

Servicios extras como monitorización de enlaces para tener controlado el estado del backlink

✅ «Garantía» en los enlaces, si pasado un tiempo el blog en el que pagaste por publicar elimina el enlace o lo modifica puedes solicitar que lo restituyan

Desventajas

Precio más elevados, al precio que el dueño pone a un backlink en su web hay que sumar la comisión que la plataforma se lleva por hacer de intermediario

Sitios más saturados, al vender en una plataforma un blog / periódico tiene más enlaces salientes de gente que, como tú, ha comprado un backlink en su web

Poca variedad, con más de 1.800 millones de páginas webs en el mundo, al final te limitas a unas pocas 5 o 10 mil que son las que se ofrecen en las plataformas

Enlaces manuales

Los enlaces manuales, son normalmente aquellos gratuitos y de poca calidad pero que aporta naturalidad y variedad al perfil de enlaces de la web, son los creados en perfiles de foros, en posts de foros, comentarios en blog, perfiles sociales, webs 2.0, etc … encontrar este tipo de enlaces es muy sencillo haciendo uso de footprints en Google, ayudándote de herramientas como Scrapebox, aHrefs o consultando webs como las que veremos más abajo. En este post tienes un buen listado de sitios gratuitos donde dejar enlaces.

La cualidad (defecto) de los enlaces manuales es que son fácilmente replicables, nuestra competencia puede analizarnos con aHrefs o una herramienta similar y crear esos mismos enlaces en foros, perfiles de redes sociales o webs 2.0, comentarios en blogs, etc … aún así, son una muy buena base de backlinks sobre la que construir nuestra estrategia. Además sirven a modo de indexador manual.

El servicio que ofrecen estas plataformas es el trabajo de creación de los enlaces (el tiempo que lleva crearlos) por eso son baratos y rondan los 2€ por enlace, dependiendo la plataforma que elijamos.

 

Enlazalia

Enlazalia
💶🛒Pack de acceso, 12 enlaces manuales 39,95€

👍 Enlaces vitaminados, por un pequeño extra puedes enviar visitas a los enlaces que te han creado para darles más potencia

Nació bajo el amparo de Teamplatino, Chuiso junto con Miguel Ángel López incubaron, desarrollaron y lanzaron Enlazalia que desde el primer día ha tenido bastante éxito, porque en su origen era una idea novedosa, no existían, que yo conozca, más plataformas que ofreciera este servicio de creación de enlaces manuales.

Su plan más básico parte de 35,95€ (más IVA) al mes por 12 enlaces que se te irán creando poco a poco. Y podrás revisar desde tu panel de control la creación de los mismos, marcar si alguno está roto, añadir nuevos proyectos a los que crear enlaces, etc.

Me gusta
Servicios «extra»
No me gusta
Panel de control
Acceso: Enlazalia

 

Enlazator

Enlazator
💶🛒Pack 1, 25 enlaces manuales 84,95€ (IVA incluído)

👍 Servicio complementario para indexar los enlaces creados de forma más rápida y dar más autoridad a la web.

Nació también hace unos años como plataforma de enlaces manuales, aunque a día de hoy ofrece también la posibilidad de comprar enlaces de prensa (aunque de momento no tiene de medios españoles). Los packs son algo más económicos que otras plataformas similares y la calidad muy parecida.

Aunque no me gusta demasiado su panel de control (esto ya va sobre gustos) te permite el acceso a la información más relevante como pedidos, proyectos o estado de los pedidos, además de poder exportar los backlinks creados para trabajar con ellos en otras herramientas, como indexado, chequear los enlaces (con Screaming Frog por ejemplo), etc.

Ofrecen incluso un servicio de limpieza de reputación online, aunque si realmente tienes un problema de este tipo yo recurriría a empresas especializadas del sector como grandes agencias.

Me gusta
Servicio de indexación de enlaces
No me gusta
Acceso: Enlazator

 

Dofollow

Dofollow
💶🛒Pack «10 backlinks», 10 enlaces manuales 69€

👍 Acceso a servicios extra como cocitaciones para SEO local o reseñas desde una misma plataforma

Una de las últimas plataformas en aparecer, destaca por ofrecer todo un "pack completo" en cuanto a creación de enlaces y reseñas se refiere. Desde su plataforma puedes encargar la creación de enlaces manuales, enlaces en prensa, notas de prensa, creación de reseñas en negocios o citaciones para SEO Local.

No puedo dar una opinión sobre su servicio porque no lo he probado personalmente, sí que conozco algunos colegas del sector que no tuvieron muy buena experiencia con esta plataforma, ¿y tú los has probado? Sería genial que compartieras tu opinión con nosotros... 🙂

Me gusta
Variedad servicios
No me gusta
Acceso: Dofollow

 

LinksManuales.pro

LinksManuales
💶🛒Pack 30, 30 enlaces manuales 55€

👍 La mejor relación calidad / precio que he encontrado hasta ahora en plataformas de creación de enlaces.

Aunque no es una plataforma muy conocida, lo cierto es que LinksManuales ofrece unos precios muy buenos en comparación con otras plataformas y la calidad de los enlaces creados es más que aceptable.

Se hecha en falta un panel de control para llevar al gestión de todos los backlinks creados y proyectos, para poder saber de forma rápida el estado de nuestros proyectos, pero la comunicación con el soporte es muy fluida y no habrá problemas en el servicio por ese motivo.

Me gusta
Precio
No me gusta

 

 

Periódicos y blogs

Estas plataformas están más enfocadas a ofrecer webs de periódicos y/o medios de comunicación, revistas, sitios con mucha más autoridad en general y a los que de otra forma sería más complicado conseguir un backlink en ellos.

A cambio de un porcentaje en el precio accedemos a una gran base de datos con cientos o miles de medios de comunicación en los que podemos comprar un backlink, que además incluye métricas, condiciones del servicio, opiniones de otros usuarios, etc ...

 

Prensalink

Prensalink
👍 Tiene una enorme cantidad de medios de comunicación digitales disponibles para publicar nuestras reseñas..

Una de las mejores opciones si lo que buscas son enlaces en medios, siempre que he comprado alguna reseña con ellos me ha ido bien, sino a nivel de visibilidad del sitio web si al menos con el servicio.

Su buscador no incorpora demasiados filtros, pero no es algo que me incomode, porque personalmente me gusta analizar cada web en la que quiero poner un backlink, no me fio demasiado de las métricas que incluyen otras plataformas porque suelen estar desactualizadas.

Tienen un nuevo servicio de notas de prensa que me gusta mucho, porque está dividido en packs, y puedes encontrar medios por temática (por ejemplo música) por lo que nuestra nota de prensa se publicará sólo en medios de esa temática o por provincia (Madrid, Valencia...), además incluyen información detallada de cada medio en el que se publicará la nota de prensa.

Me gusta
Profesionalidad
No me gusta
Acceso: Prensalink

 

Publisuites

Publisuites
👍 Su excelente oferta y atención al usuario hacen de Publisuites una de las mejores plataformas donde comprar un enlace en medios o en blogs espcializados.

Publisuites es el veterano de todos los participantes en esto de comprar enlaces, lleva años funcionando de la mano de Mario Armenta, y desde luego, a su gran equipo y managers que te ayudan en todo lo que puedan, Publisuites es una referencia en el sector.

Es una de las plataformas más completas, por su base de datos de blogs / medios, por su buscador con filtros de métricas SEO, por su contenido de formación (Podcast, Youtube, Texto ...) y por su soporte al usuario, si quieres ir a "tiro hecho" te la recomiendo sin duda.

Si es cierto, sin embargo, que suelo encontrar sitios de baja calidad a la hora de comprar algún enlace para mis proyectos, si no filtras bien y analizas los sitios de forma manual puedes verte comprando un enlace en un sitio que "a priori" parecía buena opción.

Con el servicio "managed" te puedes evitar todo ese tiempo en buscar enlaces, analizar, organizar contenidos, etc... porque te lo hacen ellos mismos (con pedidos mínimos de 200€ /mes).

Me gusta
Base de datos de medios
No me gusta
Acceso: Publisuites

Unancor

Unancor
👍 Los servicios extras como «Link Booster» para mejorar la autoridad de los enlaces que crees en su plataforma convierten a Unancor en una herramienta única para conseguir potenciar nuestros proyectos.

Supieron ganarse una clientela fiel de personas que querían acceder a backlinks en medios digitales pero pagando una cuarta parte del precio, ¿cómo? Con los grupos de compra de enlaces, que permitían juntarse 3/4 personas y crear un sólo texto en el que se incluían enlaces a sus webs. Ahora tiene más de 2000 medios de noticias en los que poder comprar un enlace.

Disponen de un servicio de project manager, una persona de su equipo de profesionales que se encargará de analizar tu web y seleccionar los enlaces que mejor se ajusten a su perfil de enlaces, contratar los enlaces, textos ... sólo te tendrás que preocupar de revisar los informes finales.

Otro de los servicios interesantes es el Link Booster, un servicio para potenciar la autoridad del enlace que hayas creado de varias formas, con tráfico social de pago (Facebook Ads), visitas a la web del enlace o enlaces en Tiers2.

Me gusta
Servicios extra
No me gusta
Acceso: Unancor

 

TeBlogueo

👍 Aunque aún tienen poca oferta en medios, la sencillez de su interfaz y del proceso de compra hacen que esta plataforma sea ideal para los usuarios menos avanzados.

Una nueva plataforma de compra de reseñas en medios y blogs temáticos especializados, TeBlogueo, a su favor tiene que es muy sencillo registrarse ni siquiera tendrás que confirmar el correo.

No me ha gustado tanto que tienen unas métricas muy limitadas para los medios PA, DA, UR y DR, son las que podrás consultar en su panel antes de comprar una reseña. Claro que puedes tú mismo analizar (y de hecho en otras plataformas eberías hacerlo igual porque estas métricas suelen estar desactualizadas) toda la web con herramientas propias pero unas métricas generales en la web te pueden ayudar a pasar el primer filtro.

Aún así es buena opción para registrarse y estar pendiente de las ofertas en medios que publican y comparar precios del mismo medio o blog entre distintas plataformas.

Me gusta
Ofertas en medios
No me gusta
Poca variedad
Acceso: TeBlogueo

 

PuroLink

👍 Si buscas comprar reseñas de calidad en sitios internacionales en una plataforma privada, PuroLink es lo que buscas.

Si estás buscando backlinks en  alemán ,  francés ,  inglés  o  español  has llegado a la plataforma ideal, PuroLink.

Aunque Ramón Fernandez lleva años ofreciendo este servicio este mismo año 2020 ha renovado el diseño de esta plataforma te permite comprar backlinks en periódicos internacionales (España, Holanda, Francia, Dinamarca, Estados Unidos y países de LATAM) de hecho cuenta con el listado más extenso de medios, unos 20.000 a día de hoy.

Es 🔒 privada, esto es, requiere que tengas invitación para poder acceder, puedes solicitarla a través de su formulario de contacto.

Me gusta
Privada
No me gusta
Acceso: PuroLink

Prensarank

Prensarank
👍 Los grupos de compra son una excelente herramienta para acceder a sitios de mucha autoridad por poco dinero, eso si, revisa bien siempre que tus vecinos de reseña sean sitios confiables y relacionados con tu temática.

Una de las plataformas con más "vida" porque siempre tienen medios / blogs en oferta, envían correos con nuevos medios disponibles... y siempre encuentras la forma de mejorar tu enlazado gracias a sus recursos.

Puedes comprar backlinks en medios / blogs tanto de forma individual como en grupo, es decir, puedes crear (o unirte) un grupo para publicar en un blog de la temática de mascotas donde tú incluyas un enlace a tu landing de bebederos de perros, otro usuario enlace su web de antipulgas para perros, etc ... es una forma de comprar backlinks más baratos, pero ojo con los vecinos con los que compartes reseñas.

Me gusta
Grupos de compra
No me gusta
Acceso: Prensarank

Coobis

Coobis
👍 Una plataforma más completa para aquellos que quieren exprimir a fondo el marketing de contenidos.

Es una plataforma que he empezado a usar hace poco tiempo pero que me gusta cada día más, no sólo por la variedad de canales que tienen (Webs, Youtube, Instagram...) que te permite crear campañas de linkbuilding o de publicidad con influencers sino por la calidad de las webs que ofertan.

Quizás por eso el listado de webs que tienen no es demasiado extenso, en comparación con otras plataformas, pero te evitas tener que estar filtrando mucha basurilla, además el buscador con filtros que tienen es de lo mejor que he probado.

Me gusta
Calidad de webs
No me gusta
Poca cantidad de webs
Acceso: Coobis

 

 

Gratuitos

Por lo general los backlinks que están publicados en internet están copiados de una web, que está copiada de una lista, que a su vez copió otra lista, que ... vamos, que es difícil encontrar listas de backlinks manuales para crear "frescas" porque lleva mucho trabajo hacerlas y la mayoría se limitan a copiar otras.

 

TodoBacklinks

Todobacklinks
👍 Más de 1.600 backlinks clasificados por categoría, país, tipo, etc… completamente gratis para crear manualmente. Además los puedes recibir mensualmente en el email si te suscribes a la newsletter.

Jaime Bermejo empezó a recopilar enlaces manuales que iba creando a sus proyectos y decidió compartirlo de forma totalmente gratuita en su web, algo muy de agradecer, porque lo hace de forma ordenada, por categorías, país, etc... y eso lleva un trabajazo detrás.

Puedes recibir cada mes los nuevos enlaces que va añadiendo a la lista si te suscribes a la newsletter, es muy práctico porque así no tienes que revisar la lista para ver los nuevos y de paso es un recordatorio para crear enlaces a tus proyectos.

Me gusta
Listado actualizado
No me gusta
Tarda en cargar

 

 

Otros servicios

Si quieres implicarte un poco más en el trabajo de linkbuilding puede que prefieras buscar de forma directa un profesional para la creación de backlinks, a cambio conseguirás más control sobre el trabajo y precios más económicos, al fin y al cabo algunas plataformas trabajan como intermediarios entre los que crean los enlaces y los webmasters.

Eso sí, deberás andar con más cuidado a la hora de seleccionar servicios y emplear tiempo en hacer un buen filtro si luego no quieres llevarte sorpresas.

 

Fiverr

Fiverr
👍 Una de las mayores plataformas del mundo (sino la que más) para contratar freelances de una forma muy sencilla, desde donde podremos además seguir todo el proceso de nuestros trabajos.

Los enlaces de Fiverr siempre se han puesto de ejemplo a la hora de cómo no hacer una campaña de linkbuilding, pero, ¿realmente son tan malos los backlinks que puedes comprar en Fiverr?

No, en Fiverr puedes comprar enlaces muy buenos, pero si vas buscando miles de enlaces a tu web por $5 pues encontrarás los peores, enlaces automatizados en granjas de backlinks que aportarán muy poco o nada a tu web, esos, mejor evitarlos salvo que sean para hacer experimentos.

Pero puedes encontrar gigs de profesionales que ofrecen enlaces en blogs, webs o medios de noticias de mucha autoridad y relevancia. Tips: fíjate siempre en la valoración del vendedor (y del gig) antes de comprar.

Me gusta
Precio
No me gusta
Calidad
Acceso: Fiverr

 

Forobeta

Forobeta
👍 Enorme cantidad de oferta de gente para crear backlinks, comprar reseñas en blogs o en medios. Ahora necesitas estar verificado para acceder a la zona de negocios.

En Forobeta siempre encuentras de todo, puedes encontrar buenos servicios y profesionales, puedes comprar / vender webs a buen precio ... y puede ser que por la web que estás vendiendo que genera 500€ al mes llegue alguno y te haga una oferta de $35 ... conozco mucha gente que ha dejado de hacer negocios en Forobeta por este motivo precisamente.

Si vas a comprar backlinks en Forobeta te aconsejo armarte de paciencia y filtrar mucho, buscar ofertas de servicio, analizar los puntos de vendedor del usuario, opiniones, etc... no busques nunca por precio, la creación manual de backlinks lleva un tiempo, si un usuario ofrece algo demasiado barato desconfía.

Aunque ahora con la verificación de compradores parece que quieren solucionar este tema, esperemos que en el futuro se puedan hacer negocios de forma más tranquila.

Me gusta
Oferta
No me gusta
Debes filtrar mucho
Acceso: Forobeta

Freelances

Si lo que estás pensando es en delegar por completo la estrategia de enlazado de tu proyecto web y no tener que preocuparte de nada en absoluto, lo más recomendable es dejarlo en manos de profesionales que se encarguen de todo el trabajo de análisis, diseño de estrategia y la ejecución.

 

Oscar Armas

👍 Las ventajas de contratar a freelances como Óscar Armas es que su nivel de implicación suele ser mayor al manejar un menor volumen de trabajo que una agencia, además el precio del servicio puede ser más ajustado
Contacto: Email

 

Pablo Baselice

👍 Pablo Baselice es un consultor SEO especializado en campañas linkuilding con muchos años de experiencia que te puede ayudar a hacer crecer el tráfico de tu web con servicios de linkbuildingdisavow y auditoría de link building. Nos puede asesorar en la compra de los mejores enlaces en las plataformas de backlinks como las que hemos mencionado en el artículo o bien buscar él mismo con herramientas profesionales los mejores enlaces para nuestro perfil de enlaces.
Contacto: Web

 

Javier Flores

👍 Con más de 15 años de experiencia posicionando webs en internet, ahora ofrece sus servicios como SEO en la agencia Viveseo, donde además de paquetes de enlaces manuales puedes delegar el posicionamiento y estrategia de link building de tus proyectos. Creación de enlaces replicables de la competencia en foros, comentarios, blogs, etc… enlaces naturales para un crecimiento paulatino y reporte mensual con un listado de los enlaces creados y detallado.
Contacto: Web

 

Herramientas

Fuseon Link Affiniy

👍 El uso de este tipo de herramientas te permite descubrir backlinks que tu competencia no tiene, algo que Google valora mucho, será cuestión de tiempo que te los copien sino los escondes, pero irás siempre un paso por delante.

Fuseon Link Affinity, de palabras de su creador Sico de Andrés, es mucho más que una herramienta de link building, y lo cierto es que es una excelente herramienta para tratar de combatir uno de los puntos flojos que mencioné sobre las plataformas de compra de enlaces y es el hecho de que te limitas únicamente a los medios que ofrecen.

Fuseon Link Affinity te permite buscar, filtrar y negociar estrategias de enlaces con los medios que tú elijas, que podrás buscar según afinidad semántica con tu sitio web y puedes dejar (sino quieres hacerlo tú) que el equipo se encargue de las relaciones y comunicación con los medios que elijas.

Es decir, te permite a tí mismo buscar aquellos medios que por similitud semántica más se acercan a tu proyecto web, luego podrás analizar los medios que te interesen para conocer su estado de salud, descartar posibles penalizaciones, etc ... una vez tienes seleccionados los medios que quieres puedes gestionar tú mismo la comunicación con ellos o dejar que el equipo de la herramienta lo haga... y por último... puedes automatizar todo el proceso!

Además tienen una versión de prueba gratuita así que no pierdes nada por probarla 🙂

Me gusta
Servicios extra
No me gusta

 

➕ ¿Echas en falta alguna plataforma? Házmelo saber aquí y la añadiremos.
3 comentarios

Screaming Frog, la guía definitiva

Una de las tareas más importantes de un SEO es la  auditoría SEO , con este trabajo lo que buscamos es descubrir y solucionar errores que puedan afectar al posicionamiento web de nuestra página o a su funcionamiento en general, enlaces rotos, redirecciones que no funcionan, directivas de etiquetas mal aplicadas, incluso contenido duplicado son algunos de los problemas que pueden perjudicar nuestro crecimiento.

La herramienta que analizaremos hoy 🐸 nos permite realizar completas auditorías a nuestra web (o las de los clientes) y ahorrarnos horas de trabajo, ya que como veremos más adelante podemos automatizar todo el proceso, desde el análisis a la generación de los informes, incluso cruzar datos con otras herramientas como aHrefs, Google Analytics, Moz, Majestic… por lo que su potencial es enorme.

Screaming Frog debería ser una herramienta obligatoria para todo aquellos que quieran realizar en profundidad un análisis de factores On Page de posicionamiento de una web.
🎁 Regalo
Si quieres conseguir 25.807 dominios libres con autoridad, que hemos conseguido con Screaming Frog + aHrefs (siguiendo un ejercicio explicado más abajo extraídos de Páginas Amarillas) sólo tienes que ayudarme con una pequeña acción social y serán tuyos de inmediato …

Screaming frog es una aplicación de escritorio (tenemos que ejecutarla en nuestro ordenador) que va a funcionar como un crawler, es decir, recorrerá todo el sitio web recogiendo datos, muchos muchos datos, que luego nosotros podemos interpretar y tomar decisiones, es cierto que a primera vista la interfaz de Screaming no la hace muy amigable, tiene decenas de pestañas y opciones de configuración (que aprenderemos hoy!) y eso puede desbordarnos un poco, hoy aprenderemos a exprimir Screaming Frog y a no tenerle miedo!

✅ Aplicación de escritorio
✅ Realiza auditorías SEO On Page completas a webs
✅ Integración con otras herramientas (aHrefs, Moz, …)
✅ Automatización de tareas
✅ Scrapeo de contenido
✅ Versatilidad
Precio: £149 (170€ aprox.) / anual | Versión de prueba: Sí (límite 500 URLs) | Descargar Screaming Frog (Windows) | Versión actual: 12.6
Algunas alternativas a Screaming Frog: SiteBulb, OnCrawl, DeepCrawl
Tareas que puedes realizar (entre otras)...
Crear un sitemap
Encontrar enlaces rotos
Monitorizar backlinks creados
Detectar páginas sin títulos, descripciones …
Encontrar páginas no indexadas
Analizar la distribución de autoridad entre páginas internas
Validar datos estructurados
Encontrar páginas huérfanas …

¿Qué hace Screaming Frog?

Como hemos mencionado más arriba Screaming Frog SEO Spider (su nombre y apellidos) es un programa que podemos ejecutar en nuestro PC y se encarga de recorrer todas las páginas / URLs de un sitio web (puede ser nuestro o no) y recoger información como H1, etiquetas, enlaces de la página (entrantes / salientes), número de palabras, imágenes, archivos de estilo (CSS), peso, etc…

No te preocupes, las principales opciones de Screaming Frog (puede hacer muchas más combinando las existentes o personalizándolas) las he escondido a propósito para que no te abrumen sólo con ver el listado, lo realmente interesante es conocer qué tareas puede hacer Screaming Frog por nosotros, más allá de conocer sus detalles técnicos, que iremos desgranando.

🔍 Descubre TODO lo que puedes analizar con Screaming Frog
Errores – Errores de cliente y servidor (Sin respuesta, 4XX, 5XX) – Vitales para mantener nuestra web con buena «salud»
☑ Redirecciones – (3XX, permanentes o temporales) – Importante para saber si estamos perdiendo autoridad por una mala redirección
☑ Enlaces externos – Todos los enlaces y su código de estado – Podemos saber si tenemos enlaces rotos y distribuir el link juice
☑ Errores URI – Caracteres no ASCII, subrayados, mayúsculas, URIs dinámicas, URLs de más de 115 caracteres
☑ Páginas duplicadas – Valor hash / MD5checksums búsqueda de páginas con contenido duplicado – Ya vimos lo perjudicial que puede ser el contenido duplicado en el artículo de thin content
☑ Título de página – Sin título, duplicado, mayor de 65 caracteres, corto, ancho excesivo, igual que H1 o múltiple – Es vital que cada título de cada página sea diferente
☑ Meta Description – Sin descripción, mayor de 156 caracteres, corta, ancho excesivo o múltiple – Debemos controlar la que descripción sea clara y concisa para mejorar el CTR en las SERPs
☑ Meta Keywords – Principalmente para referencia ya que esto es usado sólo por Yahoo
☑ H1 – No hay o está duplicado o es mayor de 70 caracteres, múltiple – Debemos controlar que exista esta etiqueta
☑ H2 – No hay o está duplicado o es mayor de 70 caracteres, múltiple
☑ Meta Robots – Index, noindex, follow, nofollow, noarchive, nosnippet, noodp, noydir, etc – Es vital conocer el estado de esta directiva en cada página
☑ Meta Refresh – Incluye página de destino y tiempo de retardo
☑ Canonical enlace & cabeceras HTTP Canonical – Nos ayudará a alejarnos del contenido duplicado
☑ X-Robots-Tag – Etiqueta rel=“next” and rel=“prev” – Etiquetas de avance y retroceso en paginación
☑ Tamaño del archivo, tamaño de los archivos de nuestra web – Para optimizar la carga de la web
☑ Nivel de profundidad de página, enlaces que hay que seguir desde la principal para llegar a ella – Puede afectar a la indexabilidad de la web en general
☑ Enlaces entrantes – Todas las páginas que enlazan a esa URI
☑ Enlaces salientes – Todas las páginas que enlaza esa URI
☑ Texto ancla – Todo el texto del enlace que se usa como ancla
☑ Texto de la etiqueta «alt» en imágenes con enlace – El texto que debemos incluir como «breve» descripción en la imagen
☑ Follow & Nofollow – A nivel de enlace Imágenes – Todas las URIs con vínculo a la imagen y todas las imágenes de una página dada.
Imágenes de más de 100kb, que les falte el texto en la etiqueta «alt» o que este texto tenga más de 100 caracteres
☑ User-Agent Switcher – Analiza como Googlebot, Bingbot, Yahoo! Slurp, mobile user-agents o tu User Agent customizado.
☑ Redirecciones encadenadas – Descubre redirecciones encadenadas.
☑ Búsqueda determinada en el código fuente – El programa te permite buscar cualquier código determinado que quieras en el código fuente. Este apartado es muy útil pues nos permite buscar cualquier cosa en el código de cualquier página.
☑ Generador de sitemaps XML – Puedes crear un sitemap también usando Screaming Frog.

Instalar Screaming Frog

Cuidado porque  si pasas Screaming Frog por una web de cientos de miles de URLs puede estar muchas horas procesando toda la información.

💡 Lo más adecuado es sino tienes un equipo de sobremesa y no quieres dejar el portátil encendido todo el día es que contrates un VPS con Windows para ejecutar este tipo de programas como Scrapebox, Screaming Frog… que pueden estar funcionando horas y horas, además de agotar la RAM de tu ordenador para otras tareas.

Ojo! Que puedes correrlo en tu portátil sin problemas, pero si lo acabas usando tanto como yo estará prácticamente todo el día funcionando… además, como veremos más adelante tiene muchas opciones de automatización que permiten que el programa ejecute tareas de forma «autónoma» por lo que es conveniente que esté en un equipo 24 / 7.

Al ser una aplicación de escritorio Screaming Frog necesita unos requerimientos mínimos de tu equipo para poder funcionar de 4 GB, con eso no tendrás problemas para trabajar con hasta 100.000 URLS, 8 GB si vas a trabajar con sitios de hasta 200.000 URLs, si vas a trabajar con sitios por encima de 1 millón de URLs necesitarás al menos 16 GB y una plataforma de 64 bits.

Si ya dispones de una máquina para correr el programa, en tu propio equipo o en un VPS, lo primero que debes hacer es descargarlo desde la página de los desarrolladores.

1 Descarga la última versión para tu sistema operativo desde la página web de Screaming Frog.

La versión de Windows, que es la que yo uso, ocupa unos 250 MB por lo que si tu conexión es de fibra tardará muy poco en descargarse, guárdala en una carpeta temporal porque después de instalarlo podrás eliminar el archivo de instalación.

Versiones disponibles para descargar:  

 

 

2 Ejecuta la instalación

Doble click en el ejecutable que descargaste para iniciar la instalación, si tienes Windows 10 igual te aparece el típico mensaje de Control de Cuentas de Usuario para permitir la ejecución del programa, le confirmas SI y continúa la instalación.

* Al ser un programa que se ejecuta sobre el entorno Java puede ser que si tienes instalada una versión antigua del mismo te obligue a actualizar, hay programas (antiguos) que requieren una versión concreta de Java por lo que al instalarlo no marques eliminar la versión antigua o puede ser que dejes algún programa sin funcionar en tu equipo.

Ahora debes elegir entre dos opciones Default o Custom, la única diferencia entre las dos, es que la opción Custom te permite seleccionar la ruta donde se ubicaran los archivos del programa, que por defecto es «C:\Program Files (x86)\Screaming Frog SEO Spider«, si no necesitas cambiar la ruta (te recomienda instalarla en C y más si tienes un disco duro SSD) pulsa en el botón Install.

Ahora sólo queda esperar unos segundos a que el programa termine de instalarse en nuestro equipo, aparecerá el mensaje completado encima de una ventana rollo Matrix, después podrás pulsar en Close (cerrar).

Si vas al escritorio ya deberías ver un acceso directo a Screaming Frog, y sino, busca en Inicio > Programas, desde ahí puedes sacar un enlace para tenerlo a mano.

 

 

Conoce Screaming Frog

La curva de aprendizaje de Screaming Frog no es sencilla, tiene muchas opciones, requiere de una configuración inicial pero sobre todo requiere que has de saber muy bien lo que estás haciendo, digamos que no es una herramienta para todos los públicos.

Herramientas como Website Auditor únicamente requieren que introduzcas la URL de la web a auditar y ella se encarga del resto y nos muestra un informe más o menos avanzado de información que ha extraído de la web, pero no es tan potente ni tan versátil como Screaming Frog, además en caso de sitios muy grandes se agradece la cantidad de personalización de Screaming Frog, analizando y extrayendo sólo aquello que necesitamos.

▶ Configuración inicial🔽 Interfaz🔽 Modos🔽 Exportaciones🔽 Reportes🔽 Sitemaps🔽 Visualización🔽 Crawl Analysis

Configuración inicial

Antes de lanzarnos a la aventura de auditar un sitio con Screaming Frog, has de tener en cuenta algunos aspectos, esta herramienta no es como Ahrefs que le pides los backlinks de la Wikipedia y te lo muestra en segundos (porque ya los tiene rastreados), nosotros vamos a rastrear desde cero todo aquello que queramos, tendremos datos actualizados y en tiempo real, a cambio debemos esperar todo el tiempo que tarde en procesarlos.

El tamaño de la web con la que vamos a trabajar es clave, si es una web de 5000 URLs nos da igual no revisar la configuración de rastreo, pero si son 4.000.000 de URLs aplicar bien la configuración o no puede suponer un ahorro de mucho tiempo de trabajo.

Por ejemplo no rastrear las imágenes, los enlaces externos… toda esas opciones podemos personalizar desde Configuración, si evitas rastrear cosas que no necesitas en webs grandes puedes ahorrar mucho tiempo de trabajo.

Para acceder a esta  configuración inicial  vamos a desplazarnos al menú principal, Configuration -> Spider

💡 Una vez que tengamos configurado todo a nuestro gusto podemos guardar estas opciones para no tener que volver a revisar las pestañas una a una.

Opciones de configuración inicial (opcionales)
Configuración Spider - Crawl
Configuración Spider – Crawl
Desde esta sección podemos marcar qué tipo de fichero o de enlace queremos que la araña siga o no, además podemos elegir la opción de seguir y/o almacenar.

Imágenes, ficheros de estilos CSS, JavaScripts, SWF (Flash), sino vamos a trabajar específicamente con ellos es muy útil desmarcarlos para que el trabajo se realice mucho más rápido y necesitando menos recursos.

También podemos configurar el trabajo de rastreo teniendo en cuenta el tipo de enlace, internos / externos, canonicals, paginaciones, hreflang, AMP o MetaRefresh.

Y como comportamiento podemos elegir si queremos que el crawler trabaje en varias carpetas, por ej: seodelnorte.com/blog/ o no rastree lo que está fuera de esta, si queremos que rastree todos lo subdominios, seguir / no seguir enlaces nofollow.

Sitemaps. Podemos indicar al programa que siga los sitemaps que le añadimos de forma manual, que los busque en el robots.txt o simplemente que los ignore.

Configuracion Spider - Extraction
Configuración Spider – Extraction
En la sección Extraction, tenemos todas las opciones disponibles que la araña va a extraer y almacenar de cada página, muchas veces no nos serán necesarios todos, yo normalmente suelo quitar Page Size, Hash Value, Word Count, Text to Code Ratio, pero depende de cada proyecto y de la tarea que estés realizando.

Muy útil dejar marcada en la opción Directives, la opción Meta Robots, X-Robots-Tag para saber cuál tenemos configurada en cada página y no se nos cuele un Noindex, en una página importante por error.

Si usas datos estructurados en la página, puedes comprobar si se están implementando de forma correcta o no.

Si quieres trabajar con el renderizado de HTML o ver la página tal como la interpreta Google podrás marcar las casillas de HTML.

Configuración Spider - Limits
Configuración Spider – Limits
Este software está pensado para recorrer y analizar webs grandes, pero podemos limitar su trabajo y por tanto los recursos que vamos a consumir desde la sección de Limits.

Podemos limitar el número total de URLs que analizaremos, la profundidad total que el crawler puede trabajar (los enlaces que se encuentran a un click de la home, los que se encuentran a dos clicks, etc…), profundidad de carpetas o número de cadenas de la consulta.

También podemos limitar:

  • El número de redirecciones a seguir
  • Longitud máxima de las URLs a analizar (por ej: si pones 100, sólo seguirá aquellas URLs que ocupen menos de 100 caracteres)
  • Número máximo de enlaces por URL
  • Tamaño total de la página
Configuración Spider - Advanced
Configuración Spider – Advanced
 En las opciones avanzadas podemos permitir las cookies al rastrear un sitio, seguir redirecciones, canonicals, hacer caso a los noindex (y no rastrear esas páginas)… y varias opciones más.

Lo importante de esta sección es marcar la pestaña «Pause on High Memory Usage» que lo que hará será pausar el trabajo en el caso de que se esté usando mucha memoria para poder guardarlo y continuar, porque si se excediera el uso de memoria disponible del ordenador podría colgarse el programa y perder todos los resultados almacenados hasta el momento.

Esta opción de la que ya te puedes aprovechar tú a mi me costó algún tiempo, muchos cabezazos y horas de trabajo perdidas hasta que le supe sacar partido.

Configuración Spider - Preferences
Configuración Spider – Preferences
La última sección de la configuración de Screaming Frog nos permite ajustar el máximo de algunos valores de los que recibiremos una alerta en el informe si se sobrepasan, por ejemplo:

  • Ancho de Título (en píxeles y en caracteres)
  • Ancho de Descripción (en píxeles y en caracteres)
  • Longitud máxima de URL
  • Longitud máxima del título H1
  • Longitud máxima de los título H2
  • Longitud máxima de la etiqueta ALT
  • Tamaño máximo de las imágenes

La interfaz de Screaming Frog

Si te parece fea ahora es que no probaste las primeras versiones… en cualquier caso, puede ser abrumador por la cantidad de pestañas, columnas, menús que encontramos al abrir por primera vez el programa, pero piensa que son muchos los datos que podemos manejar y encontrar un equilibrio entre tener todo accesible y hacerlo visualmente ligero es difícil.

Interface Screaming Frog
Interfaz Screaming Frog
 Menú principal 

Es el menú desde el que podemos manejar todas las opciones del programa, no sólo del proyecto con el que estemos trabajando en ese momento.

File

Desde esta sección podremos guardar o cargar proyectos con los que estemos trabajando, cerrar el programa.

Pero además encontramos dos de las opciones más potentes con las que contamos en Screaming Frog, Scheduling que nos permite programar (con cierto grado de configuración) en el tiempo análisis de distintas webs sin tener que preocuparnos, muy útil por ejemplo para almacenar en una carpeta de un cliente un análisis semanal o mensual que nos sirva como historial al que recurrir si algo falla.

Y Configuration, desde donde podemos guardar o recuperar toda la configuración de Screaming Frog, muy útil para hacer distintas configuraciones centradas en diferentes aspectos y simplemente recurrir a ellas al iniciar un nuevo análisis sin tener que revisar la configuración general.

Configuration

  • Spider – La sección más importante, desde aquí podemos configurar cómo se comporta el crawler con la web, qué elementos queremos que recoja o que ignore, qué límite de profundidad, en qué carpetas, etc…
  • Robots.txt – Cómo queremos que Screaming trate el archivo robots.txt si lo encuentra en un sitio, que lo ignore o que lo cumpla. En la pestaña Custom podemos añadir nosotros mismos las directivas de robots.txt (en el caso de que no tengamos uno en la web) que queremos que se sigan para ese sitio, excluyendo urls o directorios, etc.
  • URL Rewriting – Nos permite renombrar y eliminar parámetros indeseados de las URLs que procesamos.
  • CDNs – Si usas un CDN (Content Delivery Network) como Akamai, CloudFlare, etc. Puedes indicarlo en este apartado, así sus dominios serán tomados como internos, los enlaces y carpetas de los mismos como parte de tu proyecto.
  • Include – Una muy potente opción que nos permite gracias al uso de Regex, limitar qué rutas queremos que el crawler trabaje, por ejemplo, en nuestro caso, si queremos únicamente analizar la sección del blog (seodelnorte.com/blog), deberemos introducir en include «https://www.seodelnorte.com/blog/.*». (Podemos introducir tantas URLs o expresiones regulares como queramos)
  • Exclude – Al contrario y siguiendo el ejemplo anterior, si queremos analizar todo el sitio menos la sección del blog, tendríamos que introducir la misma línea (https://www.seodelnorte.com/blog/.*) en esta sección de exclude, que nos permite excluir determinadas secciones, rutas o URLs del trabajo del crawler.
  • Speed – Desde aquí puedes aumentar la velocidad del crawler, te aconsejo hacerlo mediante URLs, aumentar los hilos de procesamiento de forma significativa podría hacer muchas cientos de peticiones al sitio web, sobrecargarlo e incluso dejarlo inactivo. Una velocidad más lenta requerirá además menos memoria para procesar el trabajo.
  • User-Agent – Podemos cambiar el User Agent, con el que el programa trabajará, muy útil por si algún sitio tiene bloqueado determinado user agent, puedes usar los más comunes o personalizar uno propio.
  • HTTP Header – En esta sección podemos personalizar por completo la cabecera HTTP
  • Custom (Search, Extraction) – Uno de los apartados más potentes de Screaming Frog ya que nos permite buscar cualquier cosa en el código de la web y/o scrapear contenido de nuestra web o de otras webs.
  • User Interfaz – Personalizar el interfaz del programa
  • API Access (Google Analytics, Google Search Console, Page Speed Insights, Majestic, aHrefs, Moz) – Desde aquí podemos configurar el acceso a la API de las herramientas soportadas por Screaming Frog para poder utilizar sus datos en los informes generados con Screaming
  • Authentication – Si tienes un sitio en desarrollo o simplemente si necesitas autenticarte para ver todo el contenido (por ejemplo una comunidad, un foro…) desde aquí puedes añadir los datos necesarios para que use el crawler.
  • System (Memory, Storage, Proxy, Embedded Browser) – Configura las opciones de sistema del programa, memoria que puede ocupar (dependiendo de la que tengas instalada en el equipo), carpeta de almacenamiento, proxy o si quieres usar el navegador integrado en el programa por defecto o no.

Mode

  • Spider – En este modo el programa recorrerá todas las URLs del sitio web que vaya encontrando siguiendo los enlaces.
  • List – De esta forma podemos subir una lista de URLs que serán las que se analicen.
  • SERP – Podemos comprobar si nuestros títulos y descripciones se ajustan a las SERPs.

Bulk Export

Esta función está pensada para exportar los datos de la herramienta y trabajar con otras herramientas.

  • All Inlinks – Exporta a un hoja de cálculo todos los enlaces entrantes
  • All Outlinks – Exporta a una hoja de cálculo todos los enlaces salientes
  • Queued URLs – Exporta a una hoja de cálculo las URLs en espera
  • All Anchor Text – Exporta a una hoja de cálculo todos los anchor text de los enlaces
  • All Images – Exporta a una hoja de cálculo todas las rutas de las imágenes del sitio
  • Screenshots – Permite exportar los Screenshots (si el renderizado con Javascript está activo)
  • All Page Source – Exporta a una hoja de cálculo todos los orígenes de datos
  • External Links – Exporta a una hoja de cálculo todos los enlaces externos
  • Response Codes – Exporta a una hoja de cálculo todos los códigos de respuesta de las URLs analizadas
  • Directives – Exporta a una hoja de cálculo las URLs con las directivas que le indiquemos (noindex, nofollow, noarchive…)
  • Canonicals – Exporta a una hoja de cálculo todas las URLs con etiquetas canonicals
  • AMP – Exporta a una hoja de cálculo datos de las páginas AMP (enlaces entrantes, códigos de respuesta, etc…)
  • Structured Data – Exporta a una hoja de cálculo todos los datos estructurado
  • Images – Exporta a una hoja de cálculo las rutas de las imágenes del sitio que no tengan ALT o que sobrepasen determinado peso
  • Sitemaps – Podemos exportar los sitemaps generados
  • Custom Search – Exporta a una hoja de cálculo los datos que hemos obtenido con una custom search
  • Custom Extraction – Exporta a una hoja de cálculo los datos que hemos extraído con custom extraction

Reports

  • Crawl Overview – Un resumen de todo el rastreo que ha procesado es por defecto la primera pantalla que vemos al terminar el trabajo el crawler.
  • Redirects – Podremos ver todas las redirecciones que se están produciendo en el sitio
  • Canonicals – Un informe de todos los canonicals del sitio (también podemos sacar únicamente de aquellas que no están indexadas)
  • Pagination – Páginas de paginación que no están funcionando, testeamos la implementación de las etiquetas rel=»next», rel=»prev»
  • Hreflang – Si estás trabajando con sitios internacionales deberás controlar la implementación de las etiquetas Hreflang
  • Insecure Content – Nos sacará un listado de todas las URL «no seguras», es decir, aquellas que no usan HTTPS
  • SERP Summary – Nos permite ajustar nuestros títulos y descripciones al ancho requerido por los resultados en la SERPs
  • Orphan Pages – (requerida API Analytics) Nos mostrará un listado de las páginas huérfanas encontradas (aquellas que no tienen ningún enlace entrante)
  • Structured Data – Nos permite validar los datos estructurados que hayamos implementado en nuestro sitio
  • Page Speed – Nos permite aplicar los filtros de la herramienta de Page Speed a nuestro sitio, es decir, los consejos de mejora de WPO podemos aplicarlos y ver qué elementos se pueden mejorar

Sitemaps

Desde aquí podemos crear de una forma muy sencilla un sitemap para nuestro sitio (o un sitemap de imágenes) y podemos configurar algunas opciones sobre qué páginas meter, cambiar la prioridad, incluir imágenes, etc…

Visualisations

La herramienta más gráfica de Screaming Frog, nos permite ver de forma visual la estructura de un sitio web, son muy útiles a la hora de hacernos una idea de la estructura real de un sitio web, aunque no aportan más datos de los que ya puedes ver en el informe normal. Hay dos tipos de visualizaciones Rastreo y Directorio, en la primera podemos ver cómo el crawler ha ido rastreando el sitio y en el segundo podemos ver cómo sería el directorio del sitio web, es decir, en carpetas.

Yo suelo utilizarlos cuando empiezo con un nuevo proyecto para entender su estructura y cómo se reparten las URLs y autoridad.

Crawl Analysis

Podemos realizar un análisis de factores SEO que afectan al sitio web con el que estemos trabajando, métricas que se calculan y no pueden recogerse del sitio.

El crawl analysis es muy útil para conocer si el interlinking está bien planteado o debemos de introducir cambios para distribuir la autoridad o link juice de la página correctamente.

Link Score – Esta es una métrica propia de Screaming Frog que nos ayuda a hacernos una idea del valor de cada enlace
Pagination – Errores en paginaciones
Hreflang – Ausencia de la etiqueta o mal configuradas
AMP – Código de respuesta correcto y etiqueta bien implementada
Sitemaps – Comprueba que existen los sitemaps, que las URLs incluidas responden bien, etc…
Analytics – (necesita que conectes la API de Google Analytics) Localización de páginas huérfanas
Search Console – (necesita que conectes la API de Google Search Console) Localización de páginas huérfanas

License

Desde aquí podrás introducir tu licencia o comprar una, sino la tienes aún te aseguro que pocas herramientas hay en el mercado tan útiles por el precio que ofrecen, lo único negativo que tendrás que desembolsar el pago anual de golpe.

Help

Guía de usuario (muy útil pero sólo en inglés), versión del programa, memoria libre y usada, etc…

 Introducción datos 

Desde esta barra podemos indicar la URL con la que vamos a trabajar, pegar URLs, subir un fichero con URLs, etc… dependiendo del modo que elijamos.

 Menú superior 

Aquí encontraremos las pestañas (pueden variar dependiendo de si añadimos herramientas externas gracias a las API) en las que vamos a encontrar clasificada la información que Screaming nos muestra y puedes cerrarlas pulsando con el botón derecho sobre ellas.

 Listado de URLs 

Aquí encontramos el listado de URLs analizadas con los datos agrupados en columnas, desde configuración puedes personalizar qué columnas quieres ver y cuáles no.

 Barra lateral 

Podemos ampliar la información o acceder de forma directa a la información contenida en las pestañas así como a gráficas y resúmenes más visuales de la información.

 Ampliar información de URL 

Cuando tenemos una URL seleccionada, desde este menú tenemos la posibilidad de ampliar la información referente a la misma, como enlaces entrantes, screenshot, datos estructurados, enlaces salientes…

Modos

Estos modos nos permiten modificar la forma en la que Screaming Frog va a procesar los datos.

  • Spider – será el propio programa el encargado en recorrer toda la web como un crawler, siguiendo los enlaces (internos y externos, podemos modificarlo) que se vaya encontrando
  • List – podemos añadirle un listado de URLs (manualmente o desde un archivo), de forma que sólo procese esas URLs y no siga los enlaces
  • SERPs – Nos permite procesar las URLs tal como aparecen en las páginas de resultado de los buscadores, para poder optimizar el título, descripción, etc…

 

Exportaciones
Tipos de informes que podemos exportar:

  • All Inlinks – Enlaces entrantes
  • All Outlinks – Enlaces salientes
  • Queued URLs – URLs en espera
  • All Anchor Text – Anchor text de los enlaces
  • All Images -Imágenes del sitio
  • Screenshots – Screenshots del site
  • All Page Source -Orígenes de datos
  • External Links – Enlaces externos
  • Response Codes – Códigos de respuesta de las URLs
  • Directives – Directivas
  • Canonicals – Canonicals
  • AMP – Páginas AMP
  • Structured Data – Datos estructurado
  • Images – Imágenes
  • Sitemaps – Sitemaps del sitio
  • Custom Search – Búsqueda personalizada
  • Custom Extraction – Extracción de datos personalizado

Reportes

Reportes que podemos generar:

  • Crawl Overview
  • Redirects
  • Canonicals, Pagination
  • Hreflang
  • Insecure Content
  • SERP Summary
  • Orphan Pages
  • Structured Data
  • Page Speed

Sitemaps

Desde aquí podrás generar los sitemaps del sitio web en caso de que no los tenga.

Visualización
Visualización
Crawl Analysis

 

🔬 Analizando una web

Vale, ya sabemos todo lo que Screaming Frog puede hacer por nosotros, pero ahora vamos a ponerlo en práctica, vamos a tomar como referencia este blog, y vamos a ver con un ejercicio práctico cómo realizo yo una sencilla auditoría SEO On Page con Screaming Frog, para encontrar los problemas más graves en una web. Ojo, con la versatilidad de este programa habrá mil formas distintas y mejores de hacerlo, pero eso ya depende de los datos en los que le guste a cada uno centrarse o lo que requiera el proyecto en cuestión.

Lo primero que haremos será añadir la URL del blog, desde el Modo de Araña, pues lo que queremos es que el crawler recorra todos los enlaces del sitio (recuerda que desde configuración puedes seleccionar si quieres que siga los enlaces externos, hasta qué profundidad, imágenes, CSS o JavaScript, etc…).

 

Paso 1 análisis
Paso 1 análisis

Desde la pantalla principal tendremos acceso a un montón de información vital para la salud del sitio web, yo suelo empezar por revisar:

  • Código de estado de las URLs, revisar aquellas que dan error 404, o 50x…
  • Revisar que no están marcadas como «Non-indexable» URLs que sean de valor para los usuario

Abajo a la derecha podrás comprobar las páginas totales de nuestro sitio, puedes comparar ese resultado con el devuelto por el comando «site:seodelnorte.com» para comparar las páginas que tiene indexadas Google con las que realmente tiene nuestro sitio web y descartar posibles problemas de indexación.

Paso 2 análisis
Paso 2 análisis

En la barra lateral de la derecha tendrás acceso a información sobre la estructura del sitio, te permite hacerte no sólo una idea del tamaño y estructura del sitio web, sino además conocer a qué profundidad se encuentran sus URLs (puede acarrear problemas de indexación).

En nuestro caso, vemos que el 100% de las URLs se encuentran en los tres primeros niveles de profundidad, más allá de ellos podría dificultar el rastreo de los crawlers (aunque no siempre es así, claro!).

Paso 3 análisis
Paso 3 análisis

Ahora vamos a repasar todos los H1 (H2, H3…) de cada página, para ver si tenemos la keyword incluida en el título (siempre que tenga sentido), sino tenemos la etiqueta H1 vacía o repetida, etc.

Paso 4 análisis
Paso 4 análisis – H1

Un vistazo a el listado de todas las imágenes de la web nos servirá para ver si hay alguna que tenga demasiado peso y pueda ralentizar la carga de la web.

Paso 5 análisis
Paso 5 análisis

Vamos a ver si las etiquetas canonicals están bien implementadas, sino las conoces son las etiquetas que dicen a Google que la página de autoridad es otra y no la que está accediendo, se usa por ejemplo si hay varios artículos de una temática relacionada para no canibalizar contenidos, o en el caso de paginaciones, etc…

Paso 6 análisis
Paso 6 análisis

En este último paso, aunque no es algo básico, ya que como verás incluye mucha más información de la que vas a poder procesar, el informe de Page Speed (tendrás que añadir una KEY para poder usar la API) es muy útil para conocer aquellas URLs que están teniendo problemas de carga y en concreto qué lo está provocando.

Paso 7 análisis
Paso 7 análisis – Page Speed

 

 

💡 Otras tareas útiles que puedes hacer con Screaming Frog

Llevo muchos años leyendo sobre esta herramienta en la red y algo que siempre me había dejado con mal sabor de boca y espero no hacerlo con esta guía, son los textos que se limitan a explicar la herramienta y sus funcionalidades sin aportar ideas sobre formas de trabajar con ella que como habrás intuido a estas alturas son casi infinitas.

Así que aquí va mi aportación con 5 ideas sobre tareas que puedes realizar de forma automática con Screaming Frog mejorando así tu productividad y consiguiendo resultados que tendrías que pagar en otras herramientas y no sabías que podías hacer con esta.

1 Conseguir dominios expirados para web Rank&Rent

Si ya has visto mi guía para crear y monetizar una web de venta de leads, y estás pensando en ponerte manos a la obra, encontrar un dominio con autoridad y expirado puede hacer que tu proyecto empiece unos peldaños más arriba para empezar a generar ingresos, un dominio expirado es un dominio con autoridad pero que han dejado caducar, es decir, está libre para registrar.

⚠ Hay que tener cuidado a la hora de registrar este tipo de dominios y analizarlo bien previamente para descartar que tenga enlaces tóxicos, que haya sido spameado o que estuviera penalizado por Google.

Hay muchas formas de encontrar dominios de este tipo, incluso servicios en línea como ExpiredDomains donde puedes acceder de forma gratuita a listados con miles de dominios caducados con autoridad, el problema es que hay mucha gente con acceso a esa información y es difícil conseguirlos y que son dominios generales y nosotros buscamos dominios específicos de empresas o relacionados con temática de negocios locales.

Vamos a ver cómo conseguir dominios caducados con autoridad de una temática o ciudad que elijamos con Screaming Frog, ya que hemos pagado la licencia vamos a exprimirla al máximo.

1 Vamos a tener que conseguir un listado de dominios para revisar, podemos ir a la web de Datos.gob.es, que ofrecen muchos datos sobre actividades empresariales en España, si buscamos empresas, el primer resultado que nos aparece es una BD de empresas en Alcobendas, para el ejemplo nos sirve… 🙂

Esto es sólo un ejemplo que se me ha ocurrido, pero puedes buscar directorios de webs y extraer de ahí los dominios, de herramientas como aHrefs y sacar por ejemplo los dominios que enlaza PaginasAmarillas.es, etc…

La información se muestra en muchos formatos, para este ejercicio vamos a elegir el .csv que nos permite trabajar mejor con los datos.

Datos.gob.es

Descargamos el fichero que contiene todas las empresas, si abres el .csv y ves un montón  de datos amontonados ve a la sección Datos > Organizar por columnas.

2  Ahora vamos a meter ese listado de URLs a Screaming Frog, a primera vista sólo podemos introducir una URL para escanear, tienes que cambiar el modo entre los tres existentes: Spider (por defecto), List y SERP.

 

Una vez seleccionado el modo «List» podremos añadir las urls de forma manual pegándolas directamente en una caja de texto o si son varias miles de ellas te recomiendo hacerlo subiendo un archivo de texto.

Una vez que hayamos añadido las URLs el programa va a empezar a procesarlas de forma automática y lo que más nos interesa a recoger los los códigos de respuesta que más tarde nos van a decir si un dominio está libre o no.

Aparecerán muchos códigos, los que nos interesa son los que están marcados como DNS Lookup Failed, puedes verlos marcando la opción «No response» dentro de la pestaña Response Codes en la barra lateral derecha, o simplemente ordenando la lista por códigos, aunque si es muy larga se puede hacer tedioso.


3 Ya tenemos el listado de dominios «libres» (algunos no lo estarán), lo que debemos hacer ahora es pasar un segundo filtro, haremos una búsqueda en algún registrador de dominios como por ej, DonDominio (que tiene búsqueda masiva), Dynadot, etc…

El paso siguiente es revisar la lista, seleccionar los que más se adecuan al nicho que quieres montar de web local, o simplemente pasarlos por alguna herramienta como el Análisis de Lotes de aHrefs que te va a sacar de forma masiva los datos más interesantes de los dominios como autoridad, enlaces entrantes, keywords posicionadas, etc… y de un vistazo puedes seleccionar los más interesantes.

En mi caso me fijé en el dominio dejameloami.es, simplemente porque es el que apareció el último en la lista no hice este ejercicio para encontrar dominios, le hice una consulta rápida en Ahrefs y aunque tiene muy pocos backlinks, 2 son de noticias que hablan sobre esa web (no en comentarios) en 20minutos.es y otro de Loogic.com (un blog con autoridad).

🎁 Regalo
Aplicando la técnica que hemos visto ahora con Screaming Frog, he sacado cientos de miles de dominios de Páginas Amarillas, que al final se han quedado «sólo» en unos 25.000 dominios libres con autoridad que te dejaré descargar a cambio de una simple acción social.

 

2 Migrar una web

Las migraciones web es uno de los procesos más traumáticos que como consultor/a SEO vas a tener que enfrentarte, o al menos a mi me pasa, y la presión va directamente proporcional al volumen de tráfico del proyecto, todos sabemos la teoría de que Google asa la mayoría de autoridad con una redirección 301, pero, en una migración, hay muchas cosas que pueden salir mal.

Por suerte, el programa de la ranita una vez más nos puede ayudar, no a llevar a cabo la migración porque eso debemos hacerlo nosotros, pero sí a preparar unos logs o informes previos a la migración y los mismos de forma posterior para conocer con exactitud qué diferencias se pueden haber generado en URLs, etiquetas cambiadas, enlaces rotos, etc …

Tipos de migración, en el mejor de los casos si la migración sólo es un cambio de dominio, pero no supone cambios de URLs, estructura web ni nada similar, nuestro trabajo consistirá básicamente en cambiar el dominio antiguo por el nuevo en la web y comprobar que todas las nuevas URLs realizan la llamada al nuevo dominio, para que cuando el viejo deje de apuntar a las DNS de nuestro servidor no dejen de funcionar.

En el peor, te tocará enfrentarte a un cambio de estructura y URLs, por lo que tendrás que elaborar un archivo .htaccess con todas las redirecciones 301 de a URL antigua a la URL nueva, también aquí Screaming Frog puede ayudarte.

Paso 1.- El primer paso que debes dar es, antes de realizar nada de la migración, hacer un análisis del sitio actual y exportar todos los elementos que lo componen (URLs, imágenes, etiquetas, redirecciones, etc…), de esta forma tenemos una referencia a la que acudir para ver cómo estaba el sitio previo a la migración.

Para eso una vez finalizado el análisis, desde la pestaña de Internal, asegúrate de seleccionar ALL (no sólo imágenes, o html, o css… etc) puedes pulsar en el botón Export, te generará un archivo con todas las URLs (de todos los tipos) del sitio.

Exportación previa a migración

 

Paso 2.- Una vez que hayas realizado la migración, siempre puedes recurrir y ver el análisis previo a la migración desde la sección Mode -> List, e importando el archivo que exportamos en el paso 1.

Importar archivo de urls

 

3 Comprobar que las etiquetas hreflang están bien implementadas

Hace poco leí un tuit de Sergio Simarro (a quién te recomiendo seguir) que opinaba que Google muy pronto dejaría de utilizar la etiqueta hreflang para sitios internacionales por todo el trabajo que les llevaba procesar esta etiqueta en los sitios y no le falta razón, si a nosotros los SEOs se nos hace cuesta arriba organizarla en un sólo sitio, no me quiero imaginar tener que interpretarla como hace Google.

Por suerte, Screaming Frog también nos puede ayudar en esta tarea, si tienes un sitio en varios idiomas orientado a distintos países o mercados, con Screaming puedes revisar que tienes bien implementado hreflang, asegurándote que cada usuario puede ver la versión de la web que corresponde a su país o idioma.

Antes de empezar con el análisis, debemos asegurarnos de tener marcada la pestaña Hreflang en la configuración inicial.

Hreflang en Screaming Frog

Vamos a poner como ejemplo Tripadvisor, se me ocurren pocas páginas que tengan versiones en más idiomas que este enorme portal de turismo, ¿no? Pues manos a la obra, para el ejemplo no he dejado que complete el análisis, porque me podría tirar horas, además de la primera página que encuentre sacará todas las versiones de idiomas, pero si vas a analizar tu web, sí te recomiendo que recorra todas las URLs.

Hreflang Tripadvisor
Como ves, muestra la información en columnas, la primera Ocurrences, nos indica el número de etiquetas Hreflang en esa URL y en las columnas posteriores irá mostrando el código de hreflang y la URL donde apunta.

 

4 Extrayendo emails de usuarios por temática

Como vimos en la sección de Interfaz, Screaming Frog tiene una potente herramienta para buscar cualquier contenido en la web que queramos, podemos además añadir tantos  campos como queramos (hasta 100) lo que nos permite personalizar aún más esa búsqueda.

¿Qué podemos hacer? Pues desde buscar etiquetas sin poner en nuestra web, sacar precios de productos, títulos de los artículos de la competencia… hasta extraer cientos o miles de emails de potenciales clientes.

Imagina que acabas de abrir una web de pesca, el tráfico orgánico tardará en llegar y no tienes demasiado presupuesto para gastar en campañas SEM, vamos a buscar emails de personas a las que le gusta la pesca, ¿cómo? Muy sencillo, puedes ir por ejemplo a un foro de pesca y buscar «@gmail.com», lo que nos sacará correos de personas que hayan publicado en esa página.

Emails Screaming Frog

Ahora ya tenemos cientos o miles de URLs donde aparecen correos de «gente interesada en la pesca», podríamos usar el Custom Extraction para sacar ese contenido, como hicimos en un apartado anterior, pero lo más sencillo es simplemente que te instales un addon para Chrome como Email Extractor, que precisamente lo que hace es recoger emails de las URL que visitemos y listo.

El email marketing no sólo no ha muerto, está más vivo que nunca, pero como todo ha evolucionado, puedes enviar 1.000.000 de emails y esperar una conversión de 1 cada 10.000 si estás spameando, o de 1 de cada 100 si estás haciendo las cosas bien y aportando valor al usuario. No envíes el primer correo en frío con los productos que vendes de tu tienda, explícales sobre tu proyecto, adjunta un ebook sobre técnicas de pesca, o las mejores zonas para pescar en España… aporta valor antes de tratar de vender nada.

 

5 Encontrar páginas huérfanas

Las páginas huérfanas, son aquellas que dentro de nuestro sitio web no reciben ningún enlace, por tanto, Google no podrá indexar porque no tiene forma de llegar a ellas, y no recibirán tráfico.

El principal problema que nos pueden acarrear este tipo de páginas, es que, tratándose de una URL que queramos posicionar, al no poder ser crawleada ni indexada esa página no recibirá nunca tráfico, aunque lo normal es que se trate de páginas «olvidadas», landings que usamos de forma puntual y nos olvidamos de eliminar, páginas de ejemplo de estilos del tema que estemos usando, pero también pueden ser páginas creadas por algún virus, etc.

Hay varias formas de detectar este tipo de páginas, podemos revisar los logs del servidor (existe una herramienta especializada desarrollada por la misma agencia que Screaming Frog, Log File Analyser), donde seguramente se haga alguna mención a esa página o podemos una vez más recurrir a Screaming Frog, que tiene una función para encontrar este tipo de páginas (tendrás que configurar la API de Google Analytics y Google Search Console), sólo asegúrate que el Modo es araña (Mode Spider).

Páginas huérfanas

Hasta ahora encontrar páginas huérfanas requería de tediosos procesos de cruzar datos con herramientas como Analytics o GSC, ahora con Screaming Frog la podemos sacar de forma sencilla

 

📚 Referencias

No puedo hacer un artículo de Screaming Frog sin mencionar a Mjcachon, quien se puede considerar la «embajadora» de Screaming Frog en España, ha escrito mucho sobre la herramienta, ha dado muchas charlas y aporta mucha información interesante sobre la herramienta, su manejo y novedades, así que no dejes de pasar por su blog.

Sin comentarios

Guia completa SEOPress. La alternativa a Yoast Y RankMath

Qué es SEOPress y sus principales características con respecto a sus competidores

Llamado a ser la mejor alternativa a Yoast SEO y RankMath, aquí alguna de sus funcionalidades con respecto a sus competidores.

caracteristicas seopress

Precio de SEOPress

Tiene versión free o una opción de pago por 39€ con distintas funcionalidades pero todas ellas para sitios ilimitados.

version gratis y pro seopress

 

Descargar plugin SEOPress

Instalación de SEOPress

Si has comprado la versión PRO ten en cuenta que instalar tanto la versión free como la PRO para que funcione, así como activar la licencia y agregar tu sitio dentro de tu panel en la página de seopress.

Configuración guiada SEOPress

Consta de un Wizard Setup sencillo y guiado pero puedes hacerlo manual sección por sección, no obstante de dejo esta guía de instalación en PDF

Importando configuraciones de otros plugins:

wizard setup seopress

Datos personales knowledge graph

knowledge graph seopress

Indexaciones

configurando paginas a indexar en seopress

Opciones avanzadas SEOPress

configurando opciones avanzadas en seopress

Configuración manual SEOPress

Si quieres hacerlo manual estás son algunas de las opciones que encontrarás:

Migración de Yoast a SEOPress

migracion de yoast a seopress

Seleccionamos importar datos del plugin Yoast SEO

importando datos de yoast

Migración de redirecciones de otros plugins

Importamos todas las redirecciones en mi caso del plugin redirections

migramos las redirecciones

Para ello primero tenemos que exportar un archivo json del plugin redirection

exportando redirecciones

Importando redirecciones

 

Verificación sencilla de GSC, Yandex, Bing y Pinterest

verificacion de GSC

BOT para detectar enlaces rotos

bot broken links seopress

Checker de backlinks en SEOPress

Tiene un checker de backlinks actualmente ligado por api a Majestic, he preguntado en soporte y me dicen que pronto llegara integración con Ahrefs

majestic api seopress

Schemas

Tiene su propio sistema de gestión de datos estructurados y Schema con muchas plantillas predefinidas y función de autoSchema

schema seopress

Sitemap HTML

mapa html seopress

SEO Onpage

Tiene un buen y completo checker de seo onpage que tiene en cuenta aspectos como:

  • Sugerencias de keywords
  • Análisis de imágenes
  • Análisis de Nofollows
  • Schemas
  • Contador de palabras
  • Densidad
  • Encabezados H
  • Title y description
  • Metarobots
  • Outbound Links

seo onpage seopress

Plugins que me he ahorrado y borrado gracias a SEOPress

  • Yoast SEO
  • Redirections
  • Schema & Structured Data for WP & AMP

¿Recomiendo su uso?

Por el momento no me he encontrado ningún problema a la hora de instalación, ni de incompatibilidades ni con migraciones con otros plugins, tiene más opciones que no tienen los demás y su interfaz es muy sencilla, no me ha costado nada entenderlo, aparte de buen soporte y en español.

Descargar plugin SEOPress

Sin comentarios

Como el thin content puede arruinar tu posicionamiento web

El  thin content  es uno de los  errores más frecuentes  por los que proyectos web no consiguen tráfico y es «difícil» de detectar porque es «silencioso», es decir, no hay nada establecido que te diga si Google va a considerar tu artículo como thin content, un parámetro como podría ser el «extinto» PR (PageRank), sólo tu experiencia y conocimientos podrán hacerlo (nos ayudaremos de algunas tools) y hoy aquí te enseñaré cómo.

No son pocos los que invierten gran cantidad de dinero y tiempo en mejorar la carga de su web o en conseguir enlaces potentes con cero resultados, algo que les frustra y piensan que el SEO no funciona, cuando el problema principal lo tienen en sus contenidos.

Thin content
El thin content puede arruinar tu crecimiento en internet

El problema, es que generar contenido de calidad tiene un coste de dinero o tiempo, en cambio es uno de los apartados a los que generalmente los webmasters no dan mucha importancia, ✅ realizan un profundo keyword research, ✅ diseñan una buena arquitectura web, ✅desarrollan una web que carga rápido, le ✅crean muchos backlinks de autoridad… y ❌ delegan la creación de contenido a autores sin demasiado conocimiento o experiencia que echan por tierra todo el trabajo anterior.

No confundas thin content con poco contenido, habrá intenciones de búsqueda que se puedan resolver con poco contenido, piensa más en la utilidad que el usuario va a obtener de ese contenido si va a satisfacer sus necesidades o sólo le hará perder tiempo.

Tienes que tener claro que no te interesa en absoluto que Google indexe todas las páginas de tu web, a veces, sobre todo cuando empezamos en esto pensamos que basta con subir la página al hosting que «ya se las apañará Google» con ella, con el tiempo nos damos cuenta de que hay poco de cierto en eso, si quieres mejorar el posicionamiento web de tu página tienes que darle a Google todo el trabajo mascadito, decirle qué indexar y qué no (robots.txt, noindex), qué páginas son las importantes (canonicals), versiones de idioma de la web (hreflang), qué relación tenemos con la web que enlazamos (nofollow, ugc, sponsored) …

Hoy vamos a encargarnos de aprender todo sobre el thin content y cómo evitar problemas con el contenido de baja calidad en nuestra web, una situación que afecta a la mayoría de páginas web, así que sí, seguro que tú también tienes problemas de thin content que están lastrando el crecimiento de tu página web, sigue leyendo para aprender a resolverlos.

 

¿Qué es el thin content?

El thin content es definido por Google como contenido de baja calidad, contenido que no satisface la intención de búsqueda del usuario y es por este motivo que Google lucha con todas sus fuerzas (?) para sacarlo de sus resultados de búsqueda porque para Google, aunque no lo creas, el usuario es lo primero.

 THIN CONTENT  =  CONTENIDO DE BAJA CALIDAD 

Si estás pensando en cómo Google es capaz de saber si un contenido resuelve la intención de búsqueda de un usuario es muy sencillo, existen una serie de métricas enfocadas en la experiencia de usuario como dwell time (1) o pogo sticking (2), que le ayudan a determinar qué etan satisfechos salen los usuarios de nuestra web.

1 El dwell time es una métrica del marketing tradicional que calcula el tiempo que un usuario se pasa observando un producto o un escaparate, en el caso del marketing online esta métrica calcula el tiempo que transcurre entre que un usuario hace click en nuestro resultado de búsqueda en las SERPs hasta que vuelve al buscador (si es que hace click atrás), es decir, si un usuario hace click en nuestro resultado y 6 segundos después vuelve al buscador, es evidente que no ha encontrado lo que buscaba en nuestra web.

2 Pogo Sticking, hace referencia precisamente a este comportamiento de los usuarios, de abrir varias URLs desde el buscador para consultar y volver al buscador si los resultados no le convencen, si tu sitio tiene un alto porcentaje de pogo sticking es probable que baje su posicionamiento porque no está resultando útil a los usuarios.

 

Tipos de thin content

Contenido automático – Este es el más común del tipo de thin content que puedes encontrar en una auditoría seo, muchas veces los dueños del blog o del ecommerce ni siquiera son conscientes de que esas URL le podrían estar perjudicando al posicionamiento web.

Tipos de contenido automático:  Paginaciones ,  páginas de autor ,  filtros de búsqueda ,  tipos de productos ,  categorías ,  etiquetas 

Por ejemplo, en los blogs donde escriben varias personas es común encontrar una  página de autor , donde encontramos una breve descripción del autor, y un listado de los artículos escritos por él mismo… esa página no añade valor al usuario, que podria encontrar los artículos listados en las categorías, además el contenido original que añade es muy poco (generalmente un par de líneas de la descripción del autor) frente al contenido similar (que ya aparece en otras categorías) de los artículos.

Otro error que por suerte ya se ve cada vez menos son las  etiquetas  o tags, hace no muchos años era normal encontrar en la home de muchas webs una nube de etiquetas, que generaban cientos o miles de páginas donde se filtraban los artículos que contenían esa etiqueta, así tenías los artículos listados por categorías, por etiquetas y por autor… cientos de páginas que no aportan nada nuevo más allá de un listado de artículos.

Contenido de afiliados – Google no «odia» las webs de afiliados como mucha gente piensa, Google odia el contenido de baja calidad y este tipo de webs por norma general suelen tener contenido que no aporta nada al usuario más allá de tratar de convencerle para comprar ese producto desde su enlace de afiliado.

Pero si trabajas las comparativas, las reviews del / los producto / s, opiniones, manuales de uso, etc … y estás aportando contenido de valor al usuario podrás posicionar muy bien para keywords cuya intención de búsqueda se la de «opiniones de … «, «el mejor … «, etc.

Contenido copiado (scraping) – Bien mediante técnicas de blackhat como scraping, textos spineados, etc… el uso de este tipo de textos que no son 100% originales pueden resultar en una pérdida de posiciones en el peor de los casos, o en el mejor, en que Google ni siquiera rastree nuestra página por ser thin content. Si recurres es este tipo de técnicas asegúrate de saber siempre lo que haces en cada momento y asegúrate de que el contenido que creas es único, herramientas como Plagium o Plagiarism pueden ayudarte comparando esos textos con lo ya existente en internet. Más acerca de cómo solucionar problemas acercas del contenido duplicado.


Contenido de catálogo
– Muchas veces los dueños de los ecommerce no son conscientes del perjuicio que puede causar a su tienda (principalmente en posicionamiento) el uso de títulos y descripciones de catálogos proporcionados por los fabricantes. A veces por falta de recursos, por dejadez o por desconocimiento añaden a las fichas de productos los títulos y descripciones tal como se las facilita el distribuidor en el catálogo, sin caer en la cuenta que eso mismo lo pueden estar haciendo cientos de tiendas más, resultado encontramos en internet cientos de páginas de producto exactamente igual a la de nuestra tienda, en este caso, ¿a quién posiciona Google?

 

¿Cómo afecta el thin content a mi posicionamiento?

De forma negativa siempre y además lo hace por varias causas, que te explico a continuación, pero ten en cuenta que perjudicará con mayor o menor intensidad dependiendo del tamaño de la web, que no salten las alarmas si tienes un par de páginas con contenido duplicado.

Es decir, si tu web tiene 50.000 páginas y tienes 10 páginas afectadas por thin content, no tienes de qué preocuparte apenas tendrás problemas con esto, pero si de esas 50.000 son 25.000 las páginas afectadas, entonces tienes un problema gordo, no thin. ?

1 Perjudica a tu crawl budget – Sino lo conoces, el crawl budget (definición en el blog de Google) es el porcentaje de rastreo que Google asigna a cada web, es un cálculo matemático que puede variar dependiendo de la autoridad de la web o la frecuencia de actualización entre otros factores, pero lo importante es que es finito, es decir, es un tiempo que Google destina que una vez finalizado dejará de rastrear e indexar otras páginas de tu web.

Si tienes muchas páginas con thin content o contenido basura, seguramente no van a posicionar, pero además Googlebot perderá tiempo en rastrear esas páginas y puede quedar fuera del rastreo (por tanto de la indexación y por tanto de posicionar) otras páginas web que sí te pueden interesar más a la hora de captar usuarios o venderles un producto.


2 Incrementa la tasa de rebote
– Este valor (ayuda Google Analytics) indica el porcentaje de usuarios que entraron en nuestra web pero rápidamente volvieron a las SERP del buscador, es decir, no realizaron ninguna acción en nuestra web, pero además esta tasa de rebote le está indicando a Google que los usuarios no encuentran lo que buscan para esa query en nuestra web.


3 Menos keywords rankeadas
– Aunque esto no es un problema intrínseco del thin content, antes los webmasters se escudaban en las 300 palabras, asegurando que si el artículo tenía más de 300 palabras Google te iba a posicionar, esto tiene algo de verdad y mucho de mentira.

La longitud del artículo no es un factor decisivo para satisfacer la intención de búsqueda del usuario, por ejemplo, si un usuario busca cuál es la fórmula del agua, con el «texto» H2O se dará por satisfecha su búsqueda. En ese caso no tendría mucho sentido redactar más texto.

Pero sin embargo, el hecho de crear un artículo de más palabras, hace que de forma natural e «involuntaria» se ataquen más keywords y más intenciones de búsqueda, lo que a la larga nos traerá más ventajas que inconvenientes, siempre que no sea texto de relleno y aporte valor al usuario.


4 Penalización de Google
– ? ¿Has oído hablar de panda? No, no me refiero a esos adorables ositos blancos y negros que se pasan la vida comiendo bambú, sino a la actualización del algoritmo de Google que lanzó en 2011 para combatir las páginas con contenido de poca calidad. Te daré otra mala noticia, su nombre no es por los ositos, sino por el ingeniero que desarrolló este update, Navneet Panda.

Pues bien, este algoritmo está especialmente diseñado para analizar y penalizar aquellas páginas web con contenido de baja calidad, ya no es que no posicione ese contenido, sino que si Google lo considera de mala calidad te va a penalizar, bajar de posición, excluir esa URL del índice o todo el dominio entero.

 

Detectar el thin content en tu web

Hay muchas técnicas para detectar el thin content en tu página web, lo más sencillo es empezar por detectarlo por el tipo de páginas que tenemos en la página:

  • Páginas estáticas: aviso legal, cookies, política de privacidad…
  • Páginas generadas automáticamente (WP): etiquetas, author…
  • Páginas duplicadas: categorías, subcategorías, archivo…
  • Páginas vacías: categorías sin artículos…

Por ahí puedes empezar y ya tendrías gran parte del camino recorrido, pero ahora viene lo interesante, vamos a detectar páginas con contenido (artículos o páginas) pero que Google ha marcado como contenido de baja calidad y no posicionan o no todo lo bien que deberían.

De forma gratuita

Google Analytics

Una de las formas más habituales que empleo yo para detectar no sólo thin content sino contenidos que por una causa u otra no están funcionando es muy sencillo, basta con tener Google Analytics instalado en tu sitio web, ir al Dashboard de tu sitio, y en la sección:

Comportamiento > Contenido del sitio > Páginas de destino

Páginas de aterrizaje de usuarios
Páginas de aterrizaje de usuarios

Verás el listado de páginas webs por las que está entrando el tráfico a tu web desde los buscadores, es decir, las páginas mejor posicionadas en los resultados, ahora lo que haremos es establecer un rango de tiempo de entre 12 meses hasta 2 meses antes a la fecha actual, yo lo hago así para evitar en el listado artículos con menos visitas porque son nuevos.

También puedes usar el filtro para eliminar páginas o quedarte sólo con aquellas que necesitas, por ejemplo, si sólo quieres analizar las contenidas en un directorio.

Ahora ya sólo queda ordenar de menos a más visitas y encontrarás aquellas páginas que tienen más de 2 meses y que por algún motivo (puede ser thin content) no están posicionando ni recibiendo tráfico orgánico.

 

Google Search Console

GSC es otra herramienta que Google pone a nuestra disposición mediante la que podemos obtener información muy valiosa, entre toda ella, en concreto el rendimiento de las páginas webs nos da una idea clara de las páginas que están recibiendo más o menos clics

Rendimiento de páginas en GSC
Basta con ir a a la sección Rendimiento > Páginas

Herramientas especializadas

Safecont

SafeContLa herramienta española especializada y referencia en cuanto a problemas de contenido se refiere, si tienes dudas de que tu web está afectada por este problema, Safecont será un salvavidas al que agarrarte porque puede analizar todo tu sitio a fondo e indicar con un porcentaje el nivel de thin content de cada página o el riesgo de ser penalizado.

¿Cómo sabe Safecont si un contenido es de calidad? Bueno, es realmente complicado porque es una herramienta compleja, pero tiene una gran BD de sitios a los cuales analizan, revisan sus posiciones, y monitorizan… saben las características de las paginas que suben o bajan de posición y comparan estos datos con tu web.

Compara no sólo el thin content, si no el contenido duplicado (interno o externo) y la similaridad, si tienes por ejemplo fichas de producto con poca descripción verás que este valor, el de similaridad se te va a disparar por los aires.

Gráfica Safecont

El hecho de tener todos los valores de PandaRisk, Thin Content, Similarity y External Duplicate no te garantiza 100% estar exento de riesgo, pero si te tranquiliza en un alto grado de que estás haciendo las cosas bien. César Aparicio (su fundador) no te va a dar un salvoconducto que te libre de cualquier penalización de Google, pero al menos sabrás que tu contenido cumple con ciertas medidas de calidad.

Además encontrarás otras herramientas muy útiles también a la hora de crear nuestro sitio y su contenido como una herramienta de interlinking y arquitectura web que te permite tener controlados los enlaces internos y diseñar tu web con pocos niveles de profundidad para optimizar el rastreo de los crawlers.Riesgo penalización Panda

Web: SafecontPrecio: 45€ / mes – Trial de prueba: Sí

DinoRank

DinoRankLa suite de herramientas SEO más económica del mercado, tiene un módulo dedicado de forma exclusiva a la detección del thin content, no es tan avanzado como Safecont, pero te servirá para detectar thin content en tu blog y poder resolver el problema.

La forma de hacerlo es, como hemos visto más arriba de forma manual, cruzando los datos de Google Analytics para saber la tracción de tráfico de cada URL, sacando rápidamente las páginas que no reciben tráfico orgánico, es decir, que los visitantes no llegan a ellas desde los buscadores.

También tenemos un muy útil módulo de WDF*DF, que es una versión personalizada y mejorada del TF*IDF, con lo que podemos sacar la distribución estadísticas de las palabras claves que utilizan artículos similares al nuestro por intención de búsqueda o query, pudiendo así adaptar nuestro contenido con esos valores, que entendemos que son los que Google considera buenos para esas kws.

Si quieres crear una cuenta en Dinorank puedes aprovechar porque a veces sacan ofertas de prueba o descuentos para que puedas testear el potencial de la herramienta por tí mism@.

Web: DinoRankPrecio: 19,90€ – Trial de prueba: No

Semrush

Semrush
Semrush

Otra suite de herramientas SEO avanzadas que no debe faltar en el arsenal de todo SEO, tiene muchas opciones para trabajar desde módulos de linkuilding, monitorización de keywords, análisis de campañas SEM… pero en concreto uno, que nos ayudará a encontrar y resolver problemas de thin content que es el Analyzer Content.

Aunque también podemos, ya de paso analizar toda la salud del sitio completo con la herramienta de Site Audit, que nos hace un chequeo completo al sitio en busca de errores de contenido, enlazado, etiquetas, etc.

Es cierto que la cuota mensual de Semrush es la más elevada de las tres herramientas que hemos visto, pero si te dedicas profesionalmente al posicionamiento web le sacarás mucho partido y pagarás gustosamente cada euro de su licencia por todo el tiempo que te va a ahorrar en tareas, podrás hasta generar informes de forma automática para enviar a los clientes por correo, también de forma automática.

Web: Semrush – Precio: $99 – Trial de prueba: Si

 

Solucionar el thin content

Ya hemos detectado los posibles problemas de contenido de baja calidad en nuestra web que están lastrando nuestro crecimiento pero eso no nos servirá de nada sino nos ponemos manos a la obra a resolverlos, así que sigue leyendo para pasará a la acción.

Genera contenido de calidad

¿Es de cajón, no? Pero a veces, como hemos visto, el thin content no se genera porque hayamos redactado texto de baja calidad, sino por página automatizadas (paginaciones, páginas de autor, tags….), contenido duplicado (interno o externo), es decir, por otros motivos que han podido escapar a nuestro control, por lo que crear contenido de calidad no siempre es garantía de no tener thin content.

Limita las páginas que Google indexa

Lo  mejor que puedes hacer para controlar los problemas de thin content  en tu web es controlar completamente las páginas que Google puede rastrear e indexar en tu web. Como hemos visto, el generar contenido fresco, único, original y de calidad no siempre te va a librar de los problemas asociados al thin content, pero controlar al milímetro aquellas URLs o páginas que Google puede ver sí, porque de esta forma

Acceso bloqueado

Tipos de contenido automático
?‍? Si quieres saber qué plugin uso yo para todo el tema SEO de una web en WordPress, es RankMath, te aconsejo que le des una oportunidad porque tiene opciones muy interesantes y en todo este tiempo que llevo usándolo no he tenido ningún problema.
⚠ Advertencia
Cuidado a la hora de editar robots.txt o colocar noindex en páginas de tu sitio web, porque podrías accidentalmente bloquear el acceso de los rastreadores a tu web y que acabe completamente desindexada de los buscadores y sin tráfico!

Robots.txt – Ya deberías conocer este importante archivo para el SEO que nos permite controlar qué directorios o páginas de nuestro sitio queremos que los rastreadores puedan acceder e indexar y cuáles no. Su uso es muy sencillo, basta con colocarlo en el directorio raíz y donde será consultado con por los crawlers, así que es buena idea añadir la ruta de los sitemaps para que sean más fácilmente accesibles.

Ejemplo práctico
User-agent: *
Disallow: /wp-admin
Disallow: /author/
Disallow: /tag/
Disallow: /comments/

#Sitemap
Sitemap: https://tuweb.com/sitemap.xml

Una de las configuraciones más comunes de robots.txt si usas WP, con esas reglas estamos bloqueando el acceso a los rastreadores a la administración, al contenido de autores, etiquetas y comentaros, que como visto antes, podría generar problemas de thin content. También le indicamos la ruta completa donde encontrar el sitemap (además de poderlo enviar a GSC).

Si tienes dudas sobre sus reglas de uso o directivas, antes de tocar nada, puedes echar un ojo a la documentación disponible de Google.

Noindex – La meta etiqueta robots nos permite indicarle a los buscadores que no queremos que esa página se indexe ni se muestre en los resultados de búsqueda, podemos limitarlo a un buscador específico (limitando su crawler en concreto) o a todos los crawlers en general.

Ejemplo práctico
<meta name=»robots» content=»noindex» />

Con esta etiqueta (noindex) le estamos indicando a todos los robots o crawlers que no indexen ni muestren en los resultados esa página. Esta etiqueta deberíamos incluirla en páginas como Aviso Legal, Contacto, Política de Privacidad, páginas de contenido pobre, páginas con keywords que no tienen búsquedas, etc.. Páginas que no aportan valor a los usuarios que busquen en Google.

Pero, a ver, ambas técnicas sirven para bloquear la indexación de URLs o páginas en Google, ¿cuál es la diferencia entre robots.txt y noindex a la hora de no permitir indexar una URL?

Pues es muy sencillo, toma robots.txt como la opción ideal para bloquear la indexación de muchas URLS, usando reglas y expresiones regulares para bloquear el acceso a un directorio completo por ejemplo que contenga miles de URLs. Pero recuerda un cosa muy importante (¿No darle de comer después de media noche? No, no eso es de otra película!) los buscadores no rastrearán las páginas bloqueadas desde robots.txt salvo que estén enlazadas desde una página indexada, en ese caso el bloqueo no tendrá efecto.

La opción de noindex es la ideal para bloquear la indexación de páginas concretas, es más efectiva que robots.txt, porque recuerda, que robots.txt son sólo recomendaciones para los crawlers de los buscadores y podrían no tomarlos en cuenta, además una página aunque esté bloqueada en robots.txt si recibe un enlace de una página indexada será indexada.

 No uses ambas técnicas a la vez porque no tendrán efecto , es decir, si bloqueas las páginas contenidas en dominio.com/tienda, pero a la vez añades etiquetas noindex a las páginas allí alojadas, por ej dominio.com/tienda/pagina1.html, los rastreadores no podrán ver esa página y no leerán la etiqueta noindex.

Desindexa las páginas que Google ya tiene indexadas

A veces, desindexar una URL o página del índice de Google puede llevar demasiado tiempo, y si tienes cientos de miles de URLs querrás hacerlo lo más rápido posible, para eso te dejo un pequeño truquito que te ayudará a acelerar el proceso de desindexación de páginas.

Se trata de aprovechar el valor que da Google a los sitemaps que le enviamos desde GSC, y crear uno para las páginas que queremos desindexar, es decir, sería un sitemap que contendrá todas las URLs con la etiqueta noindex (puedes crearlo con Screaming Frog) y subirlo a los sitemaps de GSC, forzando así a Google a rastrear todas esas páginas y no indexarlas ya que detecta la etiqueta noindex.

2 comentarios

Fin del contenido

No hay más páginas por cargar