Dossier «Marketing digital: revolucionando el consumo y la sociedad» coordinado por Irene EstebanNÚMERO 11 (Mayo 2019)
EL LADO OSCURO DEL SEO

Penalizaciones de Google: cómo destruir nuestro posicionamiento en buscadores

Resumen

Dentro del conjunto de estrategias de marketing digital, el posicionamiento orgánico en buscadores tiene como principal objetivo conseguir visibilidad en plataformas como Google que, después, se traduzcan en un crecimiento del tráfico a nuestras webs. En este sentido, la disciplina del Search Engine Optimization (SEO) se encarga de ejecutar una serie de tácticas on-page y off-page para promover que los algoritmos de los buscadores nos indexen entre los primeros resultados, pues son estos los que concentran un mayor ratio de clics (CTR). En este intento por adaptar las webs a los requerimientos premiados por los algoritmos, el desconocimiento o la picaresca pueden provocar la sobreoptimización de los sites, que son interpretados por los buscadores como intentos de manipulación o engaño. De ser detectados, las webs que han llevado a cabo estas acciones de manera consciente o inconsciente sufren penalizaciones por parte de plataformas como Google. Estas ocasionan grandes descensos en las posiciones de la página de resultados o, en los peores casos, la desindexación completa de la web, que desaparece de los buscadores, lo que provoca la pérdida de visibilidad y la destrucción del trabajo a largo plazo que supone el SEO. En este artículo, reconoceremos los tipos de penalización y los motivos por los que Google y otros search engines castigan las webs, además de una serie de técnicas para corregir estos castigos.

SEO;  posicionamiento en buscadores;  penalizaciones;  black hat SEO Google;  industria, innovación e infraestructura; 
Abstract

Within the set of digital marketing strategies, organic positioning in search engines has the main objective of achieving visibility on platforms such as Google, which then translate into a growth in traffic to our websites. In this sense, the discipline of Search Engine Optimisation (SEO) is in charge of implementing a series of on-page and off-page tactics in order to promote search engine algorithms to index our sites among the first results, since these results are the ones that concentrate a higher click through rate (CTR). In this attempt to adapt the websites to the requirements rewarded by the algorithms, ignorance or trickery may cause sites to be over-optimised, which is interpreted by search engines as attempts to manipulate or cheat the algorithm. If detected, websites that have carried out these actions, whether consciously or unconsciously, are penalised by platforms such as Google. These penalties cause large drops in positions on the results page or, in the worst-case scenarios, a complete delisting of the website, which disappears from search engines, causing the site to lose visibility and the long-term work involved in SEO to be destroyed. In this article, we will recognize the types of penalties and the reasons why Google and other search engines punish websites, as well as a series of techniques to correct these punishments.

SEO;  search engine positioning;  penalties;  black hat SEO;  Google;  industry, innovation and infrastructure; 
Introducción

Aunque, desde hace años, muchos vaticinaran la muerte de Google como buscador, lo cierto es que la optimización del posicionamiento orgánico sigue siendo uno de los grandes objetivos de los planes de marketing de empresas e instituciones. Aparecer en Google asegura visibilidad y es, hoy, una de las principales fuentes de tráfico de cualquier tipo de sitio web (Flat101, 2018). El SEO es la disciplina que se encarga de trabajar ese posicionamiento en la página de resultados de los buscadores (SERP), para las palabras clave que provean a la compañía de una mayor notoriedad, visitas o conversiones. Pero no es una tarea fácil. El SEO dista de ser una ciencia exacta (Aranda, 2018) y depende de algoritmos organizadores de los resultados que no solo son secretos, sino que cambian cada día (García de la Torre, 2018). Además, la manipulación excesiva de una web para que se adapte a los criterios que premian los algoritmos puede tener consecuencias fatales. Google puede penalizar y hacer que algunas páginas no aparezcan más en el buscador.

Pero ¿por qué castiga Google a una web? El motivo es bastante sencillo: las penalizaciones son necesarias para mejorar la experiencia del usuario (UX). Cuando realizamos una búsqueda, la mayoría de nosotros hacemos clic únicamente en el primer resultado (Mediative, s.f.). Confiamos en que este sea el que dé una mejor respuesta a nuestra necesidad. Google trabaja para que esto suceda así y que los resultados del SERP se organicen de acuerdo con su calidad y relevancia con respecto al término introducido por el usuario. Entonces, ¿qué pasaría si todos pudiésemos burlar los algoritmos de los search engines? Pues que webs con poca o nula calidad se posicionarían en los primeros puestos, generando una mala experiencia al usuario, quien no encontraría en esas webs lo que quiere.

En este sentido, no hablamos de que Google sea un ente altruista que quiere mejorar la vida de sus usuarios. Más bien, como la gran empresa que es, se trata de una cuestión de mantener a sus usuarios satisfechos con el servicio. Con ello, consigue retener a una masa crítica de personas sobre las que llevar a cabo impactos publicitarios, que es lo que vende a sus verdaderos clientes: los anunciantes. En conclusión, Google penaliza sitios web para evitar que resultados no óptimos se cuelen entre las primeras posiciones del buscador, con el objetivo de contentar a sus usuarios para mantenerlos en su plataforma a cambio de que estos consuman más publicidad. Y la publicidad es uno de los principales modelos de negocio (Rosenberg, 2018) del gigante tecnológico.

1.    Distintos castigos, distintos efectos

Existen dos tipos principales de penalizaciones según su origen: las algorítmicas y las manuales. Las penalizaciones algorítmicas son aquellas que se producen cuando los search engines, generalmente tras una actualización, detectan en un site una manipulación. En este sentido, los algoritmos incluyen una serie de filtros que determinan si las webs cumplen unas propiedades determinadas. De no hacerlo, se aplican de manera automática las sanciones que correspondan. Por su parte, encontramos también las penalizaciones manuales, que son aquellas determinadas por empleados de Google. En el buscador, un equipo de trabajadores se dedica al análisis de webs que previamente han sido denunciadas por usuarios a través del Webspam Report o que han sido detectadas, por los quality raters, como sospechosas de estar violando las condiciones que Google impone a los webmasters. En estos casos, se estudia individualmente la posible infracción y, de ser necesario, se determina la sanción (Ruiz, s.f).

Las penalizaciones no siempre perjudican de la misma forma a los sitios web. Hay algunas que solo afectan al posicionamiento para determinadas palabras clave, sin que repercuta en el ranking de la web para otras palabras clave. Otras tienen efecto sobre URL o directorios concretos dentro del site, es decir, sobre páginas o secciones específicas de esa web. Igualmente, las hay que afectan a todo un subdominio o al dominio completo. Así pues, ¿qué ocasionan estas sanciones? Pues que las páginas sufran un descenso en el ranking de la página de resultados, de manera que se deteriora su posicionamiento. Sin embargo, aún existe una penalización mucho más grave: la desindexación o delisting (Sistrix, s.f). De producirse, las páginas afectadas, o el sitio completo, desaparecerían completamente del buscador y no sería posible acceder a ellas a través de Google.

2.    Black Hat SEO: hecha la ley, hecha la trampa

Los motivos que pueden llevar a Google, de forma manual o automática, a considerar que un sitio no cumple sus políticas son variados. En este sentido, podemos recibir una penalización aun cuando no sabíamos que lo estábamos haciendo mal. No obstante, buena parte de las acciones que conducen a una sanción son optimizaciones que buscan el engaño de los crawlers de manera intencionada. En ocasiones, para agilizar la consecución los objetivos SEO, se llevan a cabo tácticas que tienen la intención de manipular deliberadamente los algoritmos. Este conjunto de técnicas son las llamadas Black Hat SEO e incluyen todas las prácticas de dudosa ética (Villanueva, 2017) que buscan resultados cortoplacistas. Aunque en muchos de los casos las metas se consiguen, Google suele detectar estas acciones y, consecuentemente, desposiciona o desindexa el site.

De entre todas las tácticas Black Hat, las más conocidas son las llamadas cloaking, spinning, spamming y keyword stuffing. El cloaking consiste en la generación de contenidos diferentes para usuarios y buscadores. Así, mientras se muestra un contenido a los visitantes de la página o sitio, se lleva a las arañas a un contenido distinto que, por ejemplo, incluye una densidad mayor de palabras clave o keywords que, sin estar relacionadas con la web, generan mucho tráfico entrante. Si bien esta técnica se considera en desuso en la actualidad por la capacidad de detección de los crawlers, lo cierto es que, combinada con otras técnicas, aún consigue engañar a Google en determinados casos (Human Level, 2016). Un ejemplo de cloaking lo representan las webs de contenido eminentemente promocional que, al no aportar valor al usuario, utilizan palabras propias de cualquier otra industria para aparecer en el buscador. Con ello, obtienen grandes cantidades de tráfico entrante que, aunque no es cualificado, suma impactos publicitarios.

De uso mucho más común es la técnica conocida como spinning, una manera de llamar al «copia y pega» de toda la vida. Mediante esta práctica, se plagia contenido de otras webs y se modifica ligeramente para evitar que Google lo detecte como contenido duplicado. Así, aceleramos la creación de texto sin dedicar apenas recursos para ello. De hecho, existen numerosos softwares que permiten llevar a cabo el spinning de manera automatizada. Estos programas copian textos de diversas fuentes y los modifican para ser subidos a la web de una forma rápida y sencilla. En este sentido y desde el lanzamiento de Google Penguin (Antevenio, 2018), la eficacia con la que el buscador detecta y penaliza esta práctica es cada vez mayor, especialmente en los casos automatizados. En general, Google castiga la existencia de contenido duplicado en cualquier web, tanto si el texto original proviene de fuentes externas como si la duplicación se produce de manera interna (por ejemplo, cuando se generan distintas URL que apuntan a la misma página del site). Pero si esta práctica, además, lleva el agravante de ser indiscriminada y se manipula para buscar el engaño, enfurecerá especialmente a las arañas, que tienen que trabajar más para indexar contenidos que nada aportan a la comunidad de usuarios.

Otra práctica Black Hat ampliamente extendida es el keyword stuffing, que consiste en el uso masivo de una palabra clave para la que se quiere posicionar una página. Imaginemos que queremos aparecer entre los primeros resultados para la keyword «joyas baratas». La lógica nos diría que cuantas más veces repitamos esa palabra en nuestro texto, más probabilidades tenemos de que Google considere que somos los que más hablamos de las joyas baratas. De ello, derivaría que nos posicionase como un resultado relevante para esa búsqueda. Para lograrlo, incluiríamos esta palabra clave de forma excesiva, repitiéndola en títulos, metadatos, etiquetas y destacados tipográficos. El problema a este respecto es que los buscadores encuentran este uso no natural y, al detectarlo, consideran que el site pretende manipularlos. Saben que escribimos para ellos y no para nuestros usuarios y, como resultado, obtendremos el efecto contrario: un desposicionamiento. Para no caer en esta penalización, basta con recordar que las palabras clave han de tener una densidad óptima. Aunque no existe un porcentaje exacto, se estima que la palabra clave objetivo ha de tener una presencia de entre el 1 y el 2,5% aproximadamente (Navío, 2018), con respecto al total del texto de la página. Por lo tanto, es recomendable el uso de sinónimos para no exceder esa proporción, aunque siempre ha de primar la naturalidad de la redacción.

Pero esta naturalidad que premia Google no solo es analizada en el proceso de creación del contenido, sino también en la forma en que otras webs incluyen enlaces hacia un site. Imaginemos una página concreta de un portal sobre moda. En dos meses, la página no ha recibido ningún backlink o enlace entrante, lo que significa que ninguna otra web la ha considerado tan relevante como para referenciarla. Sin embargo, de repente y en cuestión de días, muchos otros sitios webs crean enlaces hacia ella, usando, además, un anchor text (el texto hipervinculado) que coincide perfectamente con la palabra clave que la página de moda tiene como objetivo. Pues, aunque creamos lo contrario, cualquier buscador entenderá que estos links entrantes no se han producido de manera orgánica. En cambio, sabrá que se está intentando fomentar la creación de backlinks artificialmente para mejorar el posicionamiento.

En este sentido, el SEO funciona en gran medida como la comunidad científica. Las investigaciones y personas que crean trabajos de gran importancia son ampliamente citadas en revistas y artículos posteriores, de manera que aumenta notablemente su impacto y notoriedad. En esencia, Google opera de forma similar y considera que una página que ha sido muy referenciada, a través de enlaces en otros sitios, es una página relevante, que aporta valor, por lo que ha de tener una buena posición en la página de resultados. Sin embargo, ¿cuán sencillo es fomentar que otras webs nos referencien? De manera artificial, podemos promover la obtención de backlinks a través de la técnica off-page conocida como linkbuilding, que consiste, básicamente, en pedir a otros que nos enlacen. Y esto es muy positivo si se hace como parte de una estrategia a largo plazo.

El problema vendrá, a este respecto, cuando las arañas detecten que hemos cometido spamming. A través de esta técnica, vertimos, en webs y blogs de todo internet, comentarios que incluyen enlaces hasta nuestro site. Hay quienes incluso cambian su IP para que estos comentarios parezcan reales. Aunque esta no es la única manera de ejecutar spamming. Hay spammers que llegan a crear textos y enlaces ocultos en webs externas para generar enlaces hacia su site. Es lo que se denomina backdoors (Bustamante, 2018), y no solo provoca la penalización del que lo hace, sino también de la web que, inconsciente, lo sufre y recibe (Ezquerro, 2018). Por eso, si tenemos un blog, los plugins antispam son de vital importancia, pues nos previenen de la publicación de comentarios que se generan de forma automática por otras webs y que, aun sin culpa alguna, nos supondrán también castigos. Junto a todo esto, podremos asimismo ser sancionados por la compra de enlaces, el intercambio, las granjas de links o el linkbuilding excesivamente apresurado.

3.    No conocer el algoritmo no exime de su penalización

Cuando se trata de engañar, la creatividad no tiene límites. Hay quienes han conseguido hackear webs ajenas, con mucha autoridad, para redirigir tráfico hacia la suya. Los hay que llenan páginas con texto del mismo color que el fondo, para que el usuario no vea un contenido que quieren que las arañas rastreen. Hay, incluso, quienes han poblado sus metadatos de palabras relacionadas con la industria pornográfica, que mueve grandes cantidades de tráfico, para conseguir posicionamiento y visitas en contenidos que nada tenían que ver. Pero, igualmente, existen penalizaciones a webs cuyos autores no son conscientes de haber infringido las guías de Google. ¿Cuáles son los aspectos que no gustan nada al buscador?

Algunos de los motivos por los que los algoritmos pueden penalizarnos son cuestiones meramente técnicas. Tener una velocidad de carga muy lenta, por ejemplo, hace que Google te desposicione rápidamente. Por ello, optimizar las imágenes, el código o revisar el ancho de banda del servidor es de suma importancia. Igualmente, tener demasiados errores 404 provocará el castigo de las arañas. Por su parte, una web no optimizada para móviles (especialmente, las no responsive) o que no incluya el certificado de seguridad SSL será considerada de forma negativa. Pero, además de todo esto, existen sanciones que se generan expresamente por el contenido.

Un ejemplo lo encontramos en los portales poblados de anuncios: banners, pop ups, interstitials... La inclusión de demasiada publicidad puede generar una penalización. Esto se produce, sobre todo, si esta es molesta y si aparece de manera excesiva en la parte superior de la web, que es la que llamamos above-the-fold (porción de web que se ve al entrar en la página sin hacer scroll). El motivo es sencillo: la publicidad excesiva incomoda al usuario y, por tanto, los crawlers quieren evitar esta mala experiencia de entre sus resultados. Y no solo eso, los sites que ofrecen de manera clara enlaces patrocinados a cambio de beneficio económico son rápidamente detectados por el buscador, que también los penaliza. Y como Google detesta que lo engañen, también castiga a aquellos que dan consejos sobre cómo llevar a cabo, con éxito, acciones black hat (Ezquerro, 2018).

4.    Salir del lado oscuro

Imaginemos que una mañana, antes de escribir un nuevo post o subir un producto a la web, analizamos nuestro sitio con Google Analytics. En los gráficos, descubrimos un drástico descenso de las visitas. Sospechamos. Accedemos a las fuentes de tráfico y certificamos que las visitas orgánicas desde buscadores se han desplomado. Sí, todo indica que hemos sufrido una penalización. También podemos comprobarlo en herramientas de terceros que miden la visibilidad. Y ahora, lo importante: saber por qué y buscar la manera de salir del lado oscuro. Conocer si la penalización ha sido algorítmica o manual es muy sencillo. Las penalizaciones manuales son notificadas por el equipo de Google a través de Google Search Console. Esto permite trabajar rápidamente en las causas, solventarlas y mandar una reconsideración para que se vuelva a estudiar el caso (Google Support, s.f.). Sin embargo, para las penalizaciones algorítmicas, tendremos que realizar un arduo trabajo de investigación y de optimización previo al envío de la reevaluación. Esto, porque nadie nos va a indicar qué nos ha llevado a la situación en la que nos encontramos.

Ahora bien, eliminar las causas de las penalizaciones no siempre es sencillo. Cuando estas dependen de factores on-page como sobreoptimizaciones o stuffing, entre otros, está en nuestro poder solucionar rápidamente el problema. Pero ¿qué ocurre si el desposicionamieto o desindexación se ha producido por backlinks artificiales o fraudulentos? El trabajo de pedir a otros sitios que eliminen nuestros enlaces puede ser una carrera de fondo. En algunos casos, hay quienes piden compensaciones económicas o los que, directamente, nos ignoran. Aunque herramientas como Google Disavow nos permitirán pedir al buscador que no tenga en cuenta esos backlinks perjudiciales, no podemos perderles la pista.

Conclusiones

Como vemos, conocer los parámetros que utilizan los algoritmos de los buscadores es necesario para optimizar nuestras webs, de forma que cumplan los criterios que nos brindan el posicionamiento deseado. Sin embargo, una manipulación excesiva es generalmente detectada por los buscadores como un uso no natural. La sofisticación de los motores de búsqueda, con Google a la cabeza, permite una rápida penalización de aquellas webs que realizan prácticas engañosas para conseguir una visibilidad que no merecen. Y, en ese sentido, las consecuencias son realmente importantes en términos de notoriedad y visitas, lo que puede conllevar destruir durante mucho tiempo o para siempre el importante tráfico de búsqueda de una web. Las penalizaciones pretenden mejorar la experiencia de los usuarios cuando reciben sus resultados y todo lo que atente contra ello, con o sin sombrero negro, puede condenarnos al temible lado oscuro.

Referencias bibliográficas

ANTEVENIO (2018). «¿Qué es Black Hat SEO?». Antevenio.com [artículo en línea]. <https://www.antevenio.com/blog/2018/01/que-es-black-hat-seo/>.

ARANDA, B. (2018). «Descubre las 8 mentiras SEO más comunes en internet». BorjaArandaVaquero.com [artículo en línea]. <https://borjaarandavaquero.com/mentiras-seo/>.

BUSTAMANTE, E. G. (2018). «8 expertos desvelan estrategias de Black Hat SEO que sí funcionan en 2019». AulaCM [artículo en línea]. <https://aulacm.com/estrategias-black-hat-posicionamiento-seo/>.

EZQUERRO, D. (2018). «25 razones por las que tu web merece ser penalizada». 40 de fiebre [artículo en línea]. <https://www.40defiebre.com/razones-por-las-que-tu-web-penalizada>.

FLAT101 (2018). Estudio sobre conversión en negocios digitales españoles 2018 [estudio en línea]. <https://www.flat101.es/estudios-flat101/estudio-conversion-negocios-digitales-2018-flat101.pdf>.

GARCÍA DE LA TORRE, D. (2018). «Google actualiza a gran escala su algoritmo». Sixtrix [artículo en línea]. <https://www.sistrix.es/blog/google-actualiza-a-gran-escala-su-algoritmo/>.

GOOGLE SUPPORT (s.f.). «Solicitudes de reconsideración». Ayuda de Search Console. <https://support.google.com/webmasters/answer/35843?hl=es>.

HUMAN LEVEL (2016). «Cloaking o encubrimiento». Human Level [artículo en línea]. <https://www.humanlevel.com/diccionario-marketing-online/cloaking-o-encubrimiento>.

MEDIATIVE (s.f.). The evolución of Google search results pages & their effect on user behavior. Mediative.com [estudio en línea]. <https://mediative.my.salesforce.com/sfc/p/#30000000naQs/a/1B000000fy7x/bbQSzv5utjwNbYXI9Fqi3puS00w0OHuHJAyp3hBgsZk>.

NAVÍO, M. (2018). «Optimizar un texto para SEO: guía paso a paso». Communitools. [artículo en línea]. <https://communitools.com/optimizar-texto-seo-guia/>.

ROSENBERG, E. (2018). «How Google Makes Money». Investopedia [artículo en línea]. <https://www.investopedia.com/articles/investing/020515/business-google.asp>.

RUIZ. I (s.f). «Penalizaciones SEO: Por qué existen y cómo evitarlas». SEO Com [artículo en línea]. <http://www.seocom.es/blog/penalizaciones-seo>.

SISTRIX (s.f). «¿Qué tipos de penalizaciones existen en Google y cuáles son sus diferencias?». Sixtrix [artículo en línea]. <https://www.sistrix.es/preguntale-a-sistrix/penalizaciones-de-google/que-tipos-de-penalizaciones-existen-en-google-y-cuales-son-sus-diferencias/>.

VILLANUEVA, L. (2017). «Black Hat SEO». LuisMVillanueva.com [artículo en línea]. <https://luismvillanueva.com/que-es/que-esblack-hat-seo>.

Cita recomendada

NAVÍO NAVARRO, Mariché. Penalizaciones de Google: cómo destruir nuestro posicionamiento en buscadores. Oikonomics [en línea]. Mayo 2019, no. 11, pp. XX. ISSN: 2339-9546. DOI: https://doi.org/10.7238/o.n11.1905


ODS

ODS ODS 8

Sobre la autora