Empezaré este contenido diciendo esto: el cloaking es un hack que, de hecho, aún funciona; es ilegal, pero aún así lo utilizan. Un poco contradictorio, ¿no es cierto?

Esta práctica se considera una violación a de las directrices para webmasters de Google porque proporciona a los usuarios resultados diferentes de los que esperaban; por lo que no es digna de ser una opción para un buen SEO.

¿No queremos todos que nuestra website se clasifique en la primera página de resultados del motor de búsqueda? Para lograr esto, todo lo que tenemos que hacer es optimizar el sitio para que parezca digno de una buena clasificación.

Esto es un proceso gradual que no puede ser acelerado con prácticas consideradas penalizadas: Blacks Hats. Por lo tanto, van en contra de brindar un excelente customer experience.

En este contenido vamos a conversar sobre el cloaking, cómo puede ser detectado, sus técnicas y por qué no debes utilizarlo. 

¡Sigue leyendo!

Cloaking: ¿Qué es para el SEO?

El cloaking en SEO es un método que se usa para ofrecer a los usuarios contenido o información que es diferente de lo que se presenta a los rastreadores de motores de búsqueda —es decir, arañas o bots— para mejorar su rankeo, tráfico orgánico y presencia digital en ciertas palabras claves.

En la industria de la optimización de motores de búsqueda —SEO—, esta práctica es considerada una técnica “Black Hat” puesto que viola las políticas para webmasters de Google.

No demos muchas vueltas: ¡Es ilegal!

Es una actividad que, si bien sigue siendo utilizada en la actualidad, representa un acto vetado por Google que puede llegar a graves sanciones.

A ciencia cierta, ¿cómo podemos detectarlo?

Si estás acostumbrado a desactivar JavaScript y CSS para obtener una comprensión más profunda de cómo Googlebot podría experimentar una página, entonces deberías considerar lo siguiente en el “to-do-list” al realizar una auditoría:

Checar el SERP y la página en sí

Hay que revisar cómo aparece la página en el SERP y para qué se clasifica, esto puede darnos una pista de que algo está mal si no podemos encontrar ese contenido en el código o dentro de la misma website.

Por cierto, no siempre es fácil detectar el cloaking a simple vista. Alguna gente ni se entera de que su sitio tiene algún problema en ese sentido, a menos que vea una caída brutal en el posicionamiento o mensajes extraños en Google Search Console. En mi experiencia, conviene revisar las alertas y hacer comparaciones frecuentes entre lo que ve el bot y lo que se muestra realmente al usuario.

En ocasiones, los sitios grandes pueden caer en prácticas de cloaking sin siquiera ser plenamente conscientes. Un desarrollador implementa un parche temporal, se olvida y, de pronto, meses después, Google lo detecta y aplica una penalización automática. El desafío, entonces, es mantener procedimientos internos claros y asegurarse de que los equipos de tecnología y SEO realmente se comuniquen, aunque ya sé que eso suena más fácil de lo que suele ser.

Activar preservar inicio de sesión en Chrome DevTools

Debemos acostumbrarlos a ver las páginas con las herramientas de desarrollo de Chrome abiertas y en la pestaña red. Asegúrate de mantener marcado “preserve log” también.

Los redireccionamientos ocurren tan rápido que a menudo es difícil notarlo.

Cuando salimos de “conservar inicio de sesión”, podremos ver cuántos saltos de redireccionamiento ocurrieron. De lo contrario, el registro se borrará solo con cada URL posterior.

Ir a la página directamente y desde Google

Dirigirnos a una URL determinada directamente en lugar de ser referido desde Google.com puede cambiar cómo nos funciona.

Acá hay que probar una serie de rutas de entrada para garantizar la coherencia.

Hacer una serie de solicitudes de CURL

Puede haber una cantidad de cosas en nuestro navegador que una página o servidor pueden detectar para señalar que no somos un bot, por lo que se usa CURL para solicitar páginas desde la línea de comando.

Hay una serie de comandos que se usan para obtener respuestas sin procesar del servidor

6 técnicas que engloba el cloaking

Ahora entendamos cómo el cloaking entra en acción, esto lo hacen mediante el uso de estas 6 técnicas:

1. Detección de agente de usuario

Esta quizás es la versión menos sofisticada de cloaking en la que la página determina si el agente de usuario es o no Googlebot y devuelve una versión distinta del contenido. Esto es bastante fácil de identificar según la revisión manual

2. Detección de IP

Esta táctica es igual que la anterior, excepto que se basa en la dirección IP; dado que estas de Googlebot pueden ser un objetivo en movimiento, la página puede moverse para hacer una búsqueda inversa de DNS y devolver una versión diferente a la página de Googlebot.

3. Detección de referencia

En esta oportunidad, la página detecta si el usuario proviene o no del motor de búsqueda y muestra una experiencia distinta.

Esto también puede ser utilizado en contexto con las anteriores estrategias con la esperanza de asegurarse de que solo el motor de búsqueda vea la otra versión.

4. Bait and Switch

La versión más interesante del cloaking tiene que ver con impulsar a Googlebot a indexar una versión de la página con más contenido.

Una vez que está indexado, el servidor devuelve una respuesta 304 no modificada, y luego cambia la experiencia de contenido por completo para el usuario.

5. Sitios web basados en Flash

Sabemos que Flash no se recomienda según las mejores prácticas de SEO; pero algunos sitios web no pueden evitarlo.

Entonces, en lugar de rehacer toda la website en HTML simple, crean una página web ricas en contenido y se las proporcionan a los rastreadores de los motores de búsqueda y las páginas flash a los visitantes.

6. Reemplazo de Java Scripts

Aquí, se usa JavaScript para mostrar contenido a un usuario que no tenga habilitado JavaScript que coincida con la información textual dentro de un Flash u otro elemento multimedia.

¿Por qué no debes hacer uso del cloaking?

La principal razón por la que no debemos hacer uso del cloaking es que Google penaliza esta actividad.

El principal motor de búsqueda de la actualidad sigue actualizando su algoritmo con frecuencia y, si utilizamos este tipo de alternativas, tarde o temprano nos descubrirán y podrán prohibir permanentemente que la website sea indexada.

Te sorprenderá saber que Google puso en su “block list” a un fabricante de automóviles alemán muy reconocido: BMW; por infringir sus directrices en febrero de 2006.

Conclusión

En resumidas cuentas, el cloaking todavía está ocurriendo en los SERP. Incluso puede aparecer en los fragmentos destacados.

No es algo que vamos a necesitar para cada sitio web en el que trabajamos, pero identificarlo es una buena habilidad para tener un cinturón de herramientas preparado por si algo anda mal en los SERP.

Posts recentes