• martes, 5 de enero de 2010

    Actualizaciones de Google Panda y otros algoritmos

    A partir de febrero de 2011, Google lanzó una serie de actualizaciones que cambiaron las reglas del juego. Los nuevos algoritmos estarían diseñados para eliminar de los primeros resultados de consulta a los sitios web con contenido de baja calidad, especializados en técnicas de spam, malas prácticas de SEO y que contuvieran algún tipo de algoritmo hack para obtener un ranking de búsqueda que no merecían.



    Los sitios web que se vieron afectados fueron todos aquellos que ya habían obtenido los primeros puestos en el buscador y que dependían directamente de este para generar tráfico y cobrar por impactos publicitarios.

    Google Panda en la nube



    Lo lees en: 00:02:05



    La actualización de Google Panda ocupó los titulares de todas las revistas y medios de tecnología existentes en internet, su presencia en la nube y los efectos que tuvo en el tráfico, hundió en bancarrota a muchas webs que ya no obtenían la misma cantidad de tráfico y por ende no podían ofrecer un gran número de impactos publicitarios, llevándolos a replantear sus estrategias para el posicionamiento web.

    Según los voceros de Google, la actualización de Panda se lanzó con el fin de darle valor y funcionalidad a la red de internet a través de los buenos contenidos, dejando atrás esas páginas que sólo fueron creadas para vender publicidad y su último fin es brindar una buena experiencia de usuario, ya que tienen publicidad intrusiva e irrelevante, su estructura no está pensada para facilitar la navegabilidad y su información no le aporta nada al visitante.

    Aunque para la época Google hizo cambios en su algoritmo constantemente (aumentando sus actualizaciones a 500 o 600 por año), la mayoría, si no todos estos cambios tuvieron un impacto muy pequeño en el tráfico, en comparación con la actualización de febrero de 2011, la cual disminuyó significativamente el porcentaje de ingresos mensual en las empresas detrás de las webs con malas prácticas SEO.

    Después de esta primera actualización de Panda, Google continuó puliendo sus algoritmos, creándole más versiones a Panda, siendo Panda 4.0 la última versión, recientemente conocida en septiembre de 2016. También se anunció que Panda oficialmente se convertirá en parte del algoritmo de clasificación central de Google. Paralelo al anuncio público del Panda 4.0, Google lanzó otras actualizaciones en sus algoritmos de clasificación como lo son Google Penguin.

    Y después de haber hablado brevemente de la historia revolucionaria del SEO causada por una serie de actualizaciones, veamos con detalle qué son realmente estos cambios en los algoritmos, cómo afectan a los sitios web y qué significan para ti si eres director de SEO, propietario de un sitio web o un negocio en línea.

    Comprendiendo la evolución de los algoritmos de Google



    Lo lees en: 00:06:10



    Vimos cómo apareció Panda en Internet y, más específicamente hemos sido testigos de la manera en la que afecta el tráfico. Hablemos ahora sobre qué cambió Panda y cómo adaptarnos a estos cambios.

    Compartiremos una lista de factores identificados por profesionales, en estos nuevos cambios:

    Quality Raters y algoritmos de aprendizaje automático

    Durante algún tiempo Google contrató un equipo de personas al que llamó Quality Raters, eran las personas encargadas de revisar y calificar las webs a través de una serie de preguntas que definían la calidad, la autoridad y la confiabilidad de un sitio.

    Los resultados de todo el trabajo hecho por los Quality Raters se introdujeron en un algoritmo de aprendizaje automático (Inteligencia Artificial), el cual evolucionó y aprendió por si solo para implementar el trabajo hecho por los Quality Raters en Google Panda, aplicando el mismo sistema de evaluación de forma automática y de manera masiva a todas las páginas de la web.

    Análisis para el contenido de calidad

    Otra característica de Google Panda fue el uso de algoritmos para realizar un análisis profundo sobre el contenido de un sitio web, con parámetros más amplios y más avanzados para la calificación. Entonces, mientras que antes, Google solo relacionaba el contenido de una página con la información que se encontraba en las meta-etiquetas, ahora después de Panda, los algoritmos de modelado vienen equipados con la capacidad de distinguir la calidad entre los elementos del contenido como la legibilidad de una página, la presentación visual del contenido, qué tan sólido y original es el contenido y otros factores similares relacionados con el mismo.

    Clasificaciones del contenido copiado

    El plagio en internet lleva una penalización muy fuerte por parte del buscador, existen muchas situaciones en las que un contenido se considera como plagiado, echemos un vistazo a algunos de estos:

    Contenido duplicado en el interior de la web

    Esta es la situación más común de contenido duplicado. A simple vista pareciera no afectar en nada, ya que el contenido se encuentra copiado dentro de la misma página, pero para un usuario encontrar dos contenidos iguales en una misma web no es una buena experiencia y recordemos que Google tiene muy en cuenta la experiencia del usuario en la web,

    Si tienes el mismo contenido en secciones distintas, Google lo interpretará como una burla al algoritmo.

    Contenido duplicado desde el exterior de la web

    Dentro del escalafón de las clases de contenido copiado, este ocupa el segundo lugar, ya que es una situación que se presenta en el 70% de toda la web. El contenido duplicado desde el exterior de la web consiste en tomar texto de otras web y publicarlo en la propia.

    Google encontrará la similitud exacta entre ambos contenidos y penalizará con el posicionamiento a ambas páginas. Lo molesto de esta actualización es que si eres el productor original del texto copiado, las consecuencias también te van a afectar.

    Contenidos cuasi-duplicados en el interior de la web

    Como su nombre lo indica, se refiere a tener fragmentos de texto iguales dentro de una misma web, intentando generar un contenido más largo. Los algoritmos de Google interpretan esto como un engaño hacia el buscador, ya que todo su sistema priorizará los contenidos con buena carga de información, pero si el bot identifica fragmentos de texto iguales en secciones diferentes penalizará la web.

    Contenidos cuasi-duplicados desde el exterior de la web

    Esta situación es especialmente común cuando se intenta crear páginas de asociaciones en las cuales una organización reconocida representa a otras. Lo que sucede es que las páginas más pequeñas suelen tener pequeños fragmentos del contenido que se encuentra enla página de la organización principal.

    Si te das cuenta, en el ejemplo anterior no hay intenciones de engañar al buscador, pero igualmente los algoritmos lo interpretarán como un engaño y como contenido de pésima calidad que no vale la pena mostrar en la primera página de resultados.

    Páginas de búsqueda en sitios web

    Aunque esta clasificación afecta principalmente a sitios web de gran tamaño y sitios e-commerce, algunas webs de tamaño mediano pueden verse afectadas. El problema radica en que algunos sitios que cuentan con la función de búsqueda interna, a través de la cual los visitantes pueden realizar consultas para encontrar contenidos determinados como páginas de productos individuales, artículos específicos o páginas informativas, presentan sus páginas de resultado interno como un resultado natural en Google, un fenómeno que a los algoritmos no le gusta en absoluto. Y la causa del descontento del buscador es bastante simple: Como motor de búsqueda, está interesado en proporcionar acceso directo (a un clic) a páginas relevantes para los usuarios y no a otras páginas de resultados.

    La solución para este problema es bastante simple, aunque lleva un poco de tiempo: Debe orientar a los spiders a través un archivo robot.txt, indicándoles no indexar estas páginas y así evitar penalizaciones.

    Exceso de anuncios

    Aunque originalmente no era un problema con Google, se ha convertido en un importante indicador de lo que es un sitio web de baja calidad, ya que en su momento, existieron páginas web que se abastecieron tanto de publicidad que se asemejaban a los clasificados del periódico, brindando una mala experiencia de usuario.

    Es normal que el propietario de una web quiera monetizar su sitio para hacer autosostenible su existencia en la web, pero para el buscador más grande de internet hay una gran diferencia entre colocar uno o dos anuncios y colocar diez, en este último caso la publicidad obstruye el campo de interacción del usuario y recordemos una vez más que el camino hacia el corazón de Google es ahora la satisfacción de los internautas.

    Un viaje por la cronología de actualizaciones de Panda



    Lo lees en: 00:09:10



    En esta sección haremos un breve recorrido por las actualizaciones que ha tenido Panda desde su versión 1.0 y lo que cada una de sus nuevas versiones afectó. Si esto te suena más aburrido que escuchar una conferencia religiosa te recomendamos seguir con la siguiente sección.

    Febrero de 2011 – Se lanza Panda 1.0

    El primer Panda actúa como un asesino de sitios web con baja calidad de contenidos, en su mayoría calificados así por los usuarios del buscador.

    Abril de 2011 – Se lanza Panda 2.0

    Panda 2.0 amplía el rango de impacto de la actualización anterior, la cual sólo afectaba las búsquedas en inglés hechas en EE. UU. Es decir que con Panda 2.0 las búsquedas en inglés de todo el mundo se vieron afectadas.

    Mayo y junio de 2011 - Aparecen Panda 2.1 y Panda 2.2

    Ambas actualizaciones agregan pequeños ajustes a la actualización anterior y tienen un impacto menor en el porcentaje de búsquedas. Panda 2.2 se desarrolló para penalizar el plagio de contenidos desde una web externa. Sin embargo, Google no está satisfecho con el resultado.

    Julio de 2011: se implementa Panda 2.3

    Según Google, Panda 2.3 integra señales nuevas y efectivas para discriminar entre sitios web de alta y baja calidad. Los cambios fueron notables, ya que después de la actualización algunos sitios web comenzaron a tener un rango más alto.

    Agosto de 2011 - Panda 2.4

    Panda 2.4 se desarrolló para hacer que los algoritmos anteriores sean igual de efectivos con los resultados de búsqueda en varios idiomas.

    Septiembre de 2011 - Se despliega Panda 2.5

    Panda 2.5 da como resultado cambios significativos en los resultados de búsqueda que incluyen contenido de los grandes sitios web: FoxNews, Facebook y Android.com son algunos de los sitios web que suben de posición con la nueva actualización.

    Noviembre de 2011 - Panda 3.1

    Fue una actualización bastante pequeña que influye apenas en el 1% de la actividad de búsqueda a nivel mundial.

    Enero de 2012: se presenta el Pack

    El pack es como un cóctel de pequeños retoques hechos aquí y allá para mejorar la experiencia general del usuario con el motor de búsqueda.

    Enero de 2012 - Se lanza Search + Your World

    Google permite la personalización de los resultados con base en la actividad de búsqueda, agregando datos y vinculando los perfiles sociales de Google+.

    Enero de 2012: se implementa Panda 3.2

    Se lanza Panda 3.2 pero Google dice que este no hace cambios en el algoritmo. Nadie entiende el propósito de esta actualización en particular.

    Abril de 2012 - nace Penguin

    La actualización está diseñada para penalizar las páginas con spam como estrategia de optimización extrema. El algoritmo identifica el exceso de palabras clave y textos de anclaje abusivos.

    Mayo de 2012 - se lanza Penguin 1.1

    Google describe esta actualización como unos “cambios en los algoritmos, diseñados para penalizar sitios web que no cumplen con los estándares de calidad y violan activamente las políticas del buscador”.

    Junio de 2012 - nace Panda 3.7

    Panda 3.7 se desarrolló para optimizar los procesos de Penguin algunos de los grandes directores de SEO en el mundo dicen que Google subestima las cifras al afirmas que solo el 1% de los sitios en los EE. UU. Y en todo el mundo se vieron afectados.

    Junio de 2012: Panda 3.8 se despliega silenciosamente

    Panda 3.8 es una actualización de datos sin cambios en el algoritmo. El impacto es mínimo.

    Julio de 2012: se implementa Panda 3.9

    Las clasificaciones parecieron fluctuar durante 6 días, pero Google afirmó que sólo afectó al 1% de los sitios web en el mundo.

    Agosto de 2012 - 7 Cambios en SERPs y acción de DMCA

    Google anuncia cambios importantes en el mes de agosto: En primer lugar, la primera página de resultados solo contendrá siete resultados en lugar de diez, como se venía menjando. En segundo lugar, Google penalizará activamente a los sitios web que fueron infractores en lo que respecta a la violación de derechos de autor, utilizando la estrategia de eliminación de DMCA como herramienta.

    Octubre de 2012 - Penguin 3 rueda en silencio

    Penguin 3 fue una actualización menor y tuvo un impacto en el 0.3% de la actividad de búsqueda en inglés.

    Noviembre de 2012: despliegue de Panda 21 y Panda 22

    Panda 21 afectó alrededor del 1.2% de la actividad de búsqueda basada en inglés. Panda 22 fue una actualización de solo información.

    Diciembre de 2012 - Panda 23 rueda alrededor de Navidad

    Con un impacto mayor que las anteriores actualizaciones, Panda 23 impactó el 1.3 y el 1.4% de la actividad de búsqueda en inglés. Aunque Google mantuvo en silencio que era simplemente una actualización.

    Enero de 2013 – nace Panda 24

    Panda 24 es anunciado oficialmente por Google e inmediatamente afecta aproximadamente el 1.2% de las consultas de búsqueda según las fuentes oficiales del propio motor de búsqueda.

    Marzo de 2013 - se lanza Panda 25

    Panda 25 se considera una actualización muy pequeña. Para este momento, los críticos y la comunidad de internet en general, han comenzado a perder la paciencia con el aparentemente interminable séquito de actualizaciones de Google, del cual siempre tienen que estar pendientes.

    Mayo de 2013 - Se ve la actualización del algoritmo 'Fantasma'

    Sin detalles exactos y con muy poca información por parte de Google sobre lo que conllevan los cambios en el algoritmo, una cantidad considerable de sitios web informan pérdidas de tráfico a gran escala, en el momento en el que se lanza el algoritmo Phantom.

    Finales de mayo de 2013: Penguin 2.0 o Penguin 4 se despliega en la web

    Aunque se habló mucho sobre el nuevo Penguin antes de salir, una vez que lo hace, el impacto es bastante modesto. Los detalles precisos de los cambios provocados por Penguin no son claros, pero hay algunas pruebas que sugieren que estaba centrado en el nivel de página.

    Mayo de 2014 - Panda 26 (o 4.0) se pone en marcha

    Panda 4.0 se convierte en la actualización más impactante en la historia de Google, esta actualización afecta el 7.5% de las consultas de búsqueda según cifras oficiales.

    Julio de 2014 - The Pigeon toma vuelo

    Google lanza lo que llama la actualización de Pigeon, que tiene como objetivo proporcionar una mejor experiencia de resultados de búsqueda local mediante la construcción de una conexión con Google Maps. Masivamente tiene un efecto positivo en los negocios

    Septiembre de 2014 - Panda 4.1 (o Panda 27) lamentablemente se lanza

    Según el gigante motor de búsqueda, esta es una actualización importante con un fuerte cambio algorítmico. El rango de impacto aproximado pronosticado por Google fue del 3 al 5% de las consultas de búsqueda.

    Según Google, esta actualización será la última de Panda durante un tiempo tiempo y está diseñada para crear una mayor diversidad de resultados ayudando a sitios web de pequeño y mediano tamaño con alta calidad de contenido a lograr una mejor visibilidad.

    Diciembre de 2014 - Expansión de “palomas”

    La actualización de “Palomas” comienza a extenderse desde los EE. UU. A otros países de habla inglesa, incluido el Reino Unido, Canadá y Australia.

    Abril de 2015 - Actualización móvil

    Por primera vez, los rankings móviles se diferenciarán de los rankings de escritorio, y los sitios con diseño móvil tendrán mejor calificación.

    Octubre de 2015 – RankBrain

    Google anunció que el aprendizaje automático es una parte importante del algoritmo y uno de los factores más influyentes para clasificar los sitios web.

    Febrero de 2016: reorganización de AdWords

    Esta actualización afectó principalmente los resultados pautados. Google eliminó por completo los anuncios de la columna derecha y lanzó bloques superiores de 4 anuncios en las búsquedas comerciales. Aunque la actualización apuntó a los anuncios, también afectó los resultados orgánicos.

    Mayo de 2016 - Mobile-friendly

    Esta es otra actualización que favorece a los sitios amigables para dispositivos móviles.

    Septiembre de 2016 - Imagen / Lanzamiento universal y anuncio de Penguin 4.0

    Google anunció que Penguin ahora es parte del algoritmo principal. También se reveló que Penguin 4.0 tendrá varias fases ya que los cambios se realizan lentamente. En esta primera fase el algoritmo devalúa los enlaces incorrectos en lugar de penalizar a todo el sitio web.

    Octubre de 2016 - Penguin 4.0, fase 2

    La segunda fase de esta actualización tenía como objetivo revertir todas las penalizaciones previas de Penguin.

    La mayoría de los expertos en SEO opinan que la última actualización de Panda es la más suave, empática y es la muestra de que Google aprende de las lecciones, las actualizaciones anteriores y toma en serio las quejas y comentarios de los webmasters, bloggers y propietarios de sitios.

    Ahora vayamos hacia la última parte de este módulo, en donde analizaremos todo el caos hecho por Panda y otras actualizaciones, ¿qué significado tiene para los webmasters, bloggers, propietario de negocio o directores de SEO?

    Avanzar en el mundo de Internet después de Panda



    Lo lees en: 00:02:05



    El mundo del SEO sigue cambiando y si no estás pendiente del juego no solo perderás; sino que es posible que no puedas volver a jugar.

    Breve lección para un entorno SEO radicalmente cambiante

    Para empezar, debes saber que si eres un webmasters, bloggers o propietario de sitio web, Panda quiere que centres el trabajo del posicionamiento a través de las excelentes experiencias con el usuario, con una buena navegabilidad y contenido de calidad. Es decir que para tener “buenas relaciones” con los buscadores, debes buscar tener buenas relaciones con los usuarios, brindándoles buenas experiencias con tu sitio.

    Cambia el paradigma en el trabajo y la filosofía del diseño para entretener, informar, servir y proporcionar comodidad en la experiencia, ya que los usuarios satisfechos son la mejor señal que puede enviar al motor de búsqueda. Las cargas de palabras clave inteligentes y la construcción de enlaces ya no son suficientes, los buscadores ahora buscan usuarios felices.

    Y bueno, no podemos terminar esta sección sin decir que como director de SEO o webmaster, ahora eres responsable de:

    • Del diseño receptivo de la web
    • La experiencia del usuario
    • El contenido de alta calidad
    • La métricas relacionadas con el usuario
    • Construcción de comunidad
    • La interacción con los usuarios
    • Vínculos con otros sitios web / blogs


    Entonces, en ese sentido, eres más un estratega web que alguien que busca tendencias de búsqueda en internet o alguien que se dedica a convencer a otros de colocar un link hacia su página. Los horizontes de SEO se han ampliado inmensamente y en términos cualitativos.

    Y para finalizar debemos decir que para prosperar en el SEO se debe dejar de pensar en los buscadores como robots hechos con grandes cantidades de código a los cuales se les debe hackear para subir fácilmente en las posiciones. Realmente el SEO es muy fácil si piensa en crear una web con estructura y contenido que enriquezca el mundo de internet.

    0 comentarios:

    Publicar un comentario