Teléfono:
+34 (865) 620 389
Visítanos en:
C/ Jardín de Murcia Nº6 Bajo, 30100. Murcia, España.
Teléfono:
+34 (865) 620 389
Visítanos en:
C/ Jardín de Murcia Nº6 Bajo, 30100. Murcia, España.
El lanzamiento de Penguin 2.0 el pasado 22 de Mayo de 2013 trajo consigo el revuelo habitual. Cada vez que uno de los animalitos de Google aparece por las páginas de resultados para retocar aquí y allá, webmasters y dueños de páginas web del mundo entero se ponen nerviosos preguntándose en qué consistirán los nuevos cambios y si afectarán a su web. Eso, si no han visto ya cómo sus páginas se hundían en el ranking.
Para dar respuesta a las consultas que hemos ido recibiendo al respecto elaboramos un primer artículo sobre Penguin 2.0. Pero en él ya advertíamos de la problemática habitual con todo lo concerniente a Google: el secretismo.
Nadie, salvo el equipo de Google, sabe qué hace exactamente el nuevo algoritmo. Y los que nos dedicamos al posicionamiento no tenemos más remedio que investigar y compartir información y experiencias con otros profesionales para hacernos un cuadro más detallado de cómo afecta, y cómo podemos ayudar a que las páginas afectadas se recuperen.
Lo bueno es que conforme pasan las semanas, vamos encontrando nuevas respuestas y vías de trabajo. Vamos a verlas.
Por lo que se apunta en algunos artículos, y coincidiendo con nuestra propia experiencia, parece que aquellas páginas que tienen la mayor parte de su contenido web generado por código corren un mayor riesgo de ser “penguinizadas”. Es el caso de muchas páginas de categoría en las tiendas online, por ejemplo.
El motivo parece ser que cuando Google compara en busca de contenido duplicado, no solo tiene en cuenta el contenido en sí mismo, sino la estructura general de la página.
La mejor solución para esto es incorporar nuevo contenido original a esas páginas. No sólo a aquellas que intentas posicionar, sino en toda la web, ya que Google también la interpreta en su conjunto.
Es probable que tras las últimas actualizaciones, Google sea capaz de reconocer arreglos o cambios temporales que se hagan exclusivamente con vistas al buscador, y no tanto a los usuarios. Por ejemplo, una página que haya estado posicionando para una determinada keyword, y la cambie varias veces sin que tengan una estrecha relación podría ver afectado su posicionamiento.
Por poner un ejemplo, una empresa cuya main page se hubiera posicionado para “zapatos online”, podría virar a “zapatos baratos online” sin mayores complicaciones, pero se toparía con el pingüino maléfico si esa misma main empezara a posicionarse de pronto para “bolsos online”.
De alguna manera, parece que Google le da menos autoridad a las webs que cambian de “foco”, o de concepto principal.
¿Cómo solucionarlo? Pues sumándote a las keywords en su baile. Si por ejemplo llevas un tiempo posicionando para una keyword, y deseas cambiarla por otra, deberías escoger otras URL o páginas diferentes para ello. Y si no tienes otra opción, o no deseas cambiar la URL, al menos habría que cambiar el contenido, generando uno nuevo y original relacionado con la nueva keyword a posicionar.
Pero si cambia la keyword, también lo que la acompaña debe cambiar de alguna manera.
Lo que sí resulta evidente, si analizamos la trayectoria y efectos de las actualizaciones Panda y Penguin al completo, es que Google no está parcheando. Está evolucionando. Lo perciben todos los profesionales del medio, y lo indican todos los cambios que tenemos que ir incorporando a las webs para que tengan buena posición en el ranking.
Google busca cada vez más:
Así que es importante trabajar en esta dirección, ya no por Penguin 2.0, sino por las actualizaciones que vendrán en el futuro, sin ninguna duda.
El tema de los enlaces es menos problemático porque, en esencia, significa trabajar el linkbuilding como siempre debe hacerse: sin trucos, bien, y tendiendo a la naturalidad, es decir, diferentes anchor text, diferentes PR en los backlinks, y crecimiento progresivo en vez de concentrado.
Si se hace así, los problemas que puedan generar nuevas actualizaciones simplemente necesitarán una “reparación”. Si una práctica lícita de repente es negativa porque Google así lo decide, sólo hay que detectarla y arreglarla, pero la base del trabajo podría mantenerse.
Pero aportar nuevos contenidos únicos es fundamental. Google desea que la página que le ha mostrado al usuario en tan buen lugar ofrezca el mejor contenido posible, algo único que te distinga de los demás. Y con esto no valen trucos: ni copiar contenido, ni reproducirlo con sinónimos que casi nunca vienen al caso (lo que se llama spinning) ni nada que se le parezca. Piensa, crea, escribe, y aporta valor a la comunidad. Incorpora nuevo contenido optimizado en todas las páginas de la web.
Es la manera más segura de que el posicionamiento de tu página conserve estabilidad ante las sucesivas actualizaciones del algoritmo de Google.
¿Realmente crees que el contenido generado por código es tan malo? 🤔🐧
¿Realmente afecta tanto el algoritmo de Google o es solo paranoia? Opiniones, por favor.