Cómo conseguir enlaces externos de calidad – 3º parte experimento

como conseguir enlaces externos de calidad
Estrategia de enlaces externos

En este artículo veremos como conseguir enlaces externos de calidad para subir nuestra autoridad de dominio, página y rankear nuestra keyword. En el anterior post y segunda parte nos quedamos en la obtención de enlaces mediante subdominios expirados con buen D.A y P.A y como recuperar su contenido, para luego poder añadir nuestros anchor text para que apunten a nuestro MONEY SITE. (Es recomendado ver los dos artículos anteriores para entender este post, estamos rankeando la keyword del artículo principal en este experimento del primer artículo como posicionar mi web en los primeros lugares de Google). Esta estrategia y enseñanza viene de nuestro gran Master Chuiso de Teamplatino, y como no yo soy otro Teamplatinero, uno de los mejores cursos de Black Hat SEO.

Curso Teamplatino

Cómo conseguir un buen linkbuilding externo garantizado

Lo primero que vamos a necesitar va a ser una herramienta fundamental y 3 servicios uno de proxys, rompedor de Captcha e indexador para su funcionamiento:

Herramienta 1: Scrapebox

Servicio para indexar: Index Inject

Servicios de Proxys: Proxy-hub

Rompedor de Captcha: Death by captcha

Scprabebox

Scrapebox tiene un montón de funcionalidades, pero aquí solo vamos a explicar su uso para conseguir cientos o miles de url’s de subdominios expirados que den un error 404 para scrapearlos. Esta herramienta vale para una licencia de un solo pc (se puede transferir a otro pc, por si utilizamos VPS), el precio 97$ y podemos hacer el pago mediante Paypal.

Index Inject

Para indexar los enlaces podemos hacerlo con nuestra cuenta de Google de Search Console con el Submit URL, pero como a mi me gusta ser muy cuidadoso y no dejar rastro, ademas  lo utilizo para otras herramientas, así que lo aprovecho. Con Index Inject podemos indexar enlaces de forma manual o programada, ya sabemos que no podemos enviar más de 25 URL’s al día, seria antinatural para Google. Pero como digo esta segunda herramienta es opcional, pero la recomiendo, su precio de plan basico es de 9,99$.

Proxy-hub

Proxies necesitamos un mínimo de 10 semidedicados (con esto vamos de sobra), yo uso 30 por que hago un montón de usos y los dedicados los utilizo para otras herramientas como GSA, esto ya es otra historia XD. El precio de los 10 proxys semidedicados es solo de 10$ al mes en Proxy-hub.

Death by captcha

Este servicio es necesario para muchas herramientas, pero lo necesitaremos si hacemos uso de Index Inject, tendremos que mandar la api de Death by captcha a Index Inject para que solucione los Captcha de Google cuando mandemos indexar los enlaces creados en los subdominios, su precio es de 6,95$ por 5.000 captcha.

Configurar Proxies en Scrapebox

Dentro de Proxy-hub nos vamos al «Área de clientes» y descargamos el archivo donde vendrán nuestros proxys con su ip, puerto, usuario y contraseña.

Configuración de proxies

Veremos un archivo como el siguiente

Archivo de proxys

Una vez tenemos los proxies a mano, nos vamos a Scrapebox, y podemos subirlos de dos formas:

  1. Cargando el archivo descargado sin el texto de arriba, solo dejando las ip’s con su puerto, usuario y contraseña.
  2. Seleccionando todas las ip’s con su puerto, usuario y pass.

Nos vamos a la herramienta y yo voy a elegir la segunda opción de copiar y pegar, nos vamos a»edit» y pegamos, por último le damos a guardar.

opciones de configuración

Ahora nos vamos a «manage» (tenemos que tener estas dos casillas marcadas «use custom harvester» y «use proxys»). Dentro de «manage» le damos a «text proxies» y luego a «test all proxies», y nos va a testear que funcionan bien los proxies.

Texteo de proxies

Textear proxies

Buscar subdominios con Scrapebox para conseguir backlink

Una vez ya tenemos todo preparado vamos a empezar hacer uso de la herramienta, para ello vamos a necesitar saber unos comandos avanzados de footprints.

En la ventana de arriba «Harvester and keywords» debemos poner nuestros footprints, abajo voy a poner un ejemplo y voy a explicarlo.

Site:.weebly.com «CON LA TECNOLOGÍA DE» redes sociales

Para ello he elegido el subdominio de Weebly, ahora os dejare unos cuantos sites de subdomain.

El primer comando que debemos poner para esta búsqueda avanzada es Site:

El segundo comando del subdominio donde queremos trabajar en este caso .weebly.com (importante poner el punto en el prefijo, ya que nos referimos a búsqueda de subdomnios), el tercer comando entre comillas dobles («») hace énfasis a una palabra que esta dentro de estas plataformas, en el caso de Weebly si nos vamos al footer veremos que pone «CON LA TECNOLOGÍA DE», el cual podemos hacer uso de cualquier palabra que se asemeje a esta plataforma, también podríamos poner «CREA UN SITIO WEB GRATUITO», o cualquier palabra que encontremos en Weebly, ya sea en el head, sidebar, etc, de esta forma filtramos más la búsqueda y Scrapebox nos encuentra más url’s.

El tercer comando hace referencia a la tematica, keyword o palabra por la que queremos que busqué.

Cuantos más footprints metamos mucho mejor y más nos buscara, en mi caso e metido:

Site:.weebly.com «CON LA TECNOLOGÍA DE» redes sociales
Site:.weebly.com «CON LA TECNOLOGÍA DE» crear pagina web en Google
Site:.weebly.com «CON LA TECNOLOGÍA DE» indexar en Google
Site:.weebly.com «CREA UN SITIO WEB GRATUITO» crear web
Site:.weebly.com «CREA UN SITIO WEB GRATUITO» posicionamiento web en Google
Site:.weebly.com «CREA UN SITIO WEB GRATUITO» conseguir visitas

Una vez puestos le damos a «Start Harvesting»

Paso 1

Ahora el la siguiente pantalla le damos a «Start», podemos seleccionar tantos motores de búsqueda como veamos oportuno, más resultados nos dará.

Paso 2

Una vez hallamos terminado la búsqueda cerramos las dos ventanas, la cual la segunda que hay que cerrar sera igual que la de la imagen de arriba, para volver al inicio de Scraperbox.

Paso 3

Una vez estemos en el menu principal nos vamos a «Manage list» y le damos a «trim» y luego a «trim to root» para eliminar las URIS y que deje solo la url raiz, que es lo que nos interesa. Cuando tengamos eliminadas las URIS, volvemos a «Manage list», le damos «Remove / filter» y a «Remove duplicate URL’s», de esta forma hemos eliminado las que estan duplicadas, ya tenemos un filtro limpio en la casilla «URL’s Harvester».

Paso 4

Ahora una vez que tenemos la limpieza realizada nos vamos a la pestaña superior donde dice «Addons» y le damos a «ScrapeBox Alive Checker», luego a «load urls» que esta situado en la parte inferior izquierda y por último a «Load urls from ScrapeBox Harvester»,  esto es para rastrear las URL’s que dan codigo 200 (funcionales) o error 404 que son las que nos interesan. Saldrán otras que no nos interesan las descartamos más adelante.Veremos lo siguiente:

Una vez terminado en la parte inferior derecha le damos a «Export» y a «Save all NOT-ALIVE records to ScrapeBox Harvester» (que son los que tienen código 404) y le damos a «Close», para llevarlo a la caja principal de «Url’s Harvester».

Ahora como podemos observar nos ha dejado 6 con error 404, el cual solo nos vale 2 que es el subdomain .weebly.com   (Esto es perseverancia y constancia, utilizar footprints diferentes e investigar palabras clave y otros subdominios, vamos que hay que darle al coco, hasta que deis con uno de calidad y de vuestra temática), como veis yo he seguido buscando nuevos footprints y keywords, y he dado con unos cuantos perfectos, uno de ellos que ya enseñe en el anterior post, que es el de la imagen de abajo. Podriamos encontrar más aun si dentro de estos en la opcion «Addons» le damos a «ScrapeBox Broken Link Checker» los cual los buscara enlaces salientes y poder encontrar oro, pero en este tuto no lo haremos.

Ahora para no perdernos seguimos por donde lo habíamos dejado, ya tenemos dos subdominios.

404

Ahora toca usar el filtro de D.A y P.A de ScrapeBox ya que lo que nos interesa es el P.A. Le da mos a «Addons» y vamos a «ScrapeBox Page Authority 64-bit», una vez dentro le damos a «Account setup» y debemos añadir nuestra API de nuestra cuenta de Moz (la cual es gratuita).

Una vez añadido, volvemos y le damos a»Load url list», «From ScrapeBox Harvester» y por último a «Start» y «Check all urls». Ya podemos saber cuales nos valen, que son los que tengan P.A.

D.A y P.A

Recuperar contenido de Subdominios

Una vez hecho esto nos toca recuperar su contenido, podemos hacerlo de muchas maneras, una es con archive.org y otra con un footprints para saber que url’s están en la cache de Google indexadas (También debemos analizar sus enlaces salientes para que no sean tóxicos).

Para ello nos vamos al buscador y ponemos site:URL y en mi caso salen las url’s que siguen indexadas. Ahora para recuperar su contenido tenemos que montar el dominio tal como estaba antes en Weebly.com, cogemos la url y le damos a cache, copiamos su contenido y creamos la misma URL (URI).

Cache

Seguimos con el experimento en el siguiente artículo chic@s, os dejo un pequeño avance. En el siguiente artículo veremos la estrategia de interlinking y crearemos unos cuantos enlaces artificiales e iremos preparando los artículos spinneados para lanzar una campaña Turbo Wizard con RankerX, para la creación de enlaces.

Artículo sppineado en html

Y su versión sin HTML que cambia constantemente, dando un post original y totalmente diferente.

Artículo sppineado sin HTML