• domingo, 3 de enero de 2010

    Herramientas para webmasters

    Mientras que la comunidad digital participa significativamente a través del desarrollo y la innovación de más y más herramientas para el uso profesional del SEO, los motores de búsqueda proporcionan una gran variedad de servicios para facilitar y orientar a los webmaster en el posicionamiento de sus webs.




    Google, tiene una amplia gama de herramientas, que brindan análisis y métricas para directores de SEO, que buscan mejorar sus relaciones con el gigante de los motores de búsqueda y optimizar sus sitios web de acuerdo a sus recomendaciones. Después de todo, ¿quién entiende la optimización para motores de búsqueda mejor que los mismos motores de búsqueda?

    Protocolos del motor de búsqueda



    Lo lees en: 00:06:15



    Veamos una lista detallada de los protocolos de los motores de búsqueda:

    El protocolo de exclusión de robots

    Este protocolo funciona a través del archivo “robots.txt”, que generalmente se encuentra en el directorio raíz de un sitio web (por ejemplo, www.facebook.com/robots.txt).



    Proporciona información y orientación a los spiders rastreadores de la web en problemas o situaciones importantes que pueden no ser muy evidentes, como por ejemplo, guiar a los bots hacia el lugar de la web en dónde pueden encontrar el Sitemap, o indicarles qué secciones de la web no se pueden rastrear, ni indexar en los resultados.

    Pero este protocolo va mucho más allá de eso y como viniste a aprender, aquí te compartimos una lista de comandos que se pueden usar para instruir a los robots:

    • Rechazar: Impide que los robots se acerquen a secciones especificas o carpetas en un sitio web
    • Tiempo de rastreo: Indica la velocidad (en milisegundos) en la que los robots deben rastrear las páginas de un servidor
    • Mapa del sitio o Sitemap: Le indica a los robots en donde pueden encontrar secciones especificas del sitio y archivos relacionados con él


    Importante: A pesar de que el archivo robots.txt indica a los spiders el funcionamiento que tienen permitido en nuestra web, algunos están programados para desobedecer dichas indicaciones. Tales robots pueden ser utilizados para robar información y acceder a contenido privado. Para evitarlo bastará con eliminar las URL de secciones administrativas o áreas privadas del sitio web en su archivo robots.txt.

    Alternativamente, la meta-etiqueta “robots” se puede implementar para indicar a los motores de búsqueda que no deben indexar, ni rastrear estas páginas.

    SiteMap

    El SiteMap se puede considerar como el mapa que indica a los motores de búsqueda cómo rastrear un sitio web. Es decir que el SiteMap es una ayuda para los motores de búsqueda a la hora de localizar y clasificar el contenido de un sitio.

    Si te estás preguntando cómo puedes hacer el SiteMap de una web sin matarte la cabeza, existe una herramienta llamada xml-Sitemaps.com que los crea de manera muy sencilla, bastará con colocar la URL del sitio y violá, tienes tu SiteMap.



    Hasta el día de hoy, existen tres formatos en los que se desarrollan los mapas de sitio, estos son:

    • RSS: Existe un debate algo divertido sobre si RSS debería significar Really Simple Syndication o Rich Site Summary. Es un dialecto XML, bastante conveniente en términos de mantenimiento, ya que pueden codificarse para tener propiedades de actualización automatizadas con la adición de nuevas secciones. Sin embargo, una desventaja del RSS es que su gestión es difícil en comparación con otros formatos, debido a sus cualidades de actualización automática
    • XML: XML significa Lenguaje de marcado extensible. Este es el formato recomendado por la mayoría de los motores de búsqueda y gurús del diseño de webs y no es coincidencia que también sea el formato más utilizado. Al ser el más aceptado por los motores de búsqueda, existen una gran cantidad de postales web que lo generan. Sin embargo, la desventaja de este formato es que los los archivos suelen pesar mucho en comparación con otros formatos
    • Archivo .TXT: El formato .txt es afortunadamente fácil de usar, usa una URL para cada línea y soporta 50.000 líneas. Lamentablemente, no permite la adición de meta elementos a las páginas


    Meta-etiqueta robots

    Como lo mencionamos anteriormente, la meta-etiqueta “robots” proporciona instrucciones para los robots de los motores de búsqueda. Dicha etiqueta se ubica dentro del tag del archivo HTML, aquí hay un ejemplo:

    <html>

    <head>

    <title> Una colección de los mejores videos de Cheetah </title>

    <meta name = "ROBOTS" content = "NOINDEX, NOFOLLOW">

    </ head>

    <body>

    <h1> Bienvenido Cheetah Lovers </ h1>

    </ body>

    </ html>

    En el ejemplo anterior, la etiqueta está indicando a los spiders y otros bots, no seguir ni indexar la página. Si quieres obtener más información sobre las propiedades de esta etiqueta, lee la lección "Los meta-tags" del módulo 4.

    El atributo “NoFollow”

    En una sección anterior hablamos sobre las propiedades y los efectos en SEO de este tributo, pero si quisiéramos resumir todo ello en un párrafo diríamos que los enlaces “nofollow” permiten vincular a una página sin brindar puntajes en el posicionamiento, es decir, los buscadores no tomarán dicho enlace como una vinculación relevante.

    La etiqueta canónica

    No siempre pasa, pero es posible terminar con cualquier número de URL´s diferentes que conducen a la misma página. Y aunque esto pueda parecer poco importante, la verdad es que tiene repercusiones negativas en la autoridad de dominio y el SEO. Por ejemplo, para los buscadores estas son cuatro páginas totalmente diferentes con el mismo contenido:

    • http://www.notarealwebsite.com
    • http://notarealwebsite.com
    • http://www.notarealwebsite.com/default.asp
    • http://notarealwebsite.com/default.asp


    La etiqueta canónica se usa para informar a los motores de búsqueda sobre cuál de todas las URL´s existentes se debe identificar como la 'original o autorizada' para los resultados. Logrando que el motor de búsqueda entienda que todas las direcciones son versiones de la misma página y que solo se debe contar una URL para la clasificación de resultados.

    Mitos y leyendas sobre el SEO



    Lo lees en: 00:03:40



    En el mundo del posicionamiento web aún existen muchas especulaciones sobre las estrategias más certeras para alcanzar los primeros puestos en los buscadores en la menor cantidad de tiempo posible. En esta lección te compartiremos algunos de los conceptos y estrategias más errados a la hora de posicionar una página en internet.

    Explotar las palabras clave

    Esta es una de las estrategias más antiguas y persistentes en el SEO. Quizás, si hechas un poco de cabeza recuerdes páginas con textos muy similares a este:

    "Bienvenido a Amazing Spicy Chicken de McSmith, en donde encontrarás el mejor pollo picante que jamás hayas probado. Si te gusta Amazing Spicy Chicken de McSmith's, entonces Amazing Spicy Chicken es el único lugar para que disfrutes de Amazing Spicy Chicken. McSmith's - Amazing Spicy Chicken siempre será para toda la familia "

    Este tipo de texto, lleno de palabras clave de principio a fin, no solo nos hace perder el apetito sino que también nos quita las ganas de saber más sobre Amazing Spicy Chicken. El mito detrás de esta técnica de SEO es simple: implementar excesivamente las palabras clave en la página, su título, su texto de anclaje y su contenido destacado, para obtener las mejores clasificaciones en los motores de búsqueda cuando los usuarios consulten con dichas palabras. Afortunadamente existen herramientas de SEO que enfatizan en la importancia de la densidad de palabras clave y su uso por los algoritmos de los motores de búsqueda, desmintiendo este mito.

    A decir verdad los algoritmos de los motores de búsqueda valoran las páginas con palabras clave implementadas inteligentemente, con moderación y relevancia. Es mejor no perder el tiempo contando palabras clave, que lo único que se logra es molestar a los visitantes y parecer un spammer.

    Mejorar los resultados orgánicos con SEM

    Y de los mismos creadores de “rellenar una página con palabras clave como si fuera la lechona de diciembre”, llega “Pautar en los buscadores para alcanzar los primeros puestos de manera orgánica”. Lamentablemente las empresas invierten millones de pesos en publicidad SEM creyendo que esto los apalancará hacia los primeros puestos, cuando en realidad, después de que la campaña agote su presupuesto, la página volverá a estar en el puesto en el que merece estar.

    Google, Yahoo!, Bing y todos los buscadores en general separan los resultados orgánicos de los resultados pagos para conservar la legitimidad de su servicio como buscadores de internet. Si un director de SEO te dice que puede ayudarte a realizar este 'milagrito', muévete lentamente hacia la salida más cercana y corre muy lejos.

    Los mitos de las meta-etiquetas

    Bien, admitiremos que las meta-etiquetas de “description”, “keywords”, “título” y todas las demás, tienen relevancia en la estrategia SEO que se le realiza a una web, pero hoy en día no son la acción más relevante, es decir, hasta hace un par de años los buscadores tenían muy en cuenta todo el contenido que se incluyera en los tags que acabamos de mencionar, pero todo cambió gracias a un hecho en especial:

    Los mismos falsos estrategas que crearon el mito número uno de esta lista, utilizaron las meta-etiquetas de “description”, “keywords” y “título” para explotarlas, repitiendo las palabras clave, tantas veces como les fuera posible y los motores de búsqueda no tardaron en tomar cartas en el asunto, eliminando este método de posicionamiento de sus algoritmos.

    Medición y seguimiento del éxito



    Lo lees en: 00:05:05



    Las ciencias administrativas tienen una regla: todo lo que se pueda medir, se puede cambiar, esta regla se aplica en gran medida al campo de la optimización de motores de búsqueda. Se sabe que los directores de SEO exitosos practican una sólida medición de sus webs, a través del seguimiento y así crear mejores estrategias que alcancen objetivos.

    Algunos de los datos que se deben medir en una web son las aiguientes:

    1. Reparto del tráfico del motor de búsqueda

    Es crucial tener en cuenta la fuente del tráfico, es decir, aquellos sitios que han contribuido al tráfico en nuestra web. Estas fuentes generalmente se clasifican en cuatro grupos según el origen del tráfico:

    • Tráfico directo: Hace referencia a personas que simplemente ingresaron la URL de la web y aterrizaron en el home, personas que mantuvieron la web en sus marcadores o llegaron a la página a través de un enlace por chat o mail. Estos últimos no se pueden rastrear.
    • Tráfico de referencia: Hace referencia a los visitantes que han llegado a través de algunos contenidos promocionales, alguna campaña o a través de enlaces que se encuentran en toda la web. Estos son rastreables.
    • Tráfico del motor de búsqueda (también llamado alcance orgánico): Este es el tráfico que viene de los motores de búsqueda, como resultado de las consultas que se realizan diariamente en internet.
    • Tráfico social: Hace parte del tráfico que se origina en las redes sociales y permite medir los resultados de las estrategias de social media.


    Los datos que nos arrojan las fuentes de tráfico dan una luz sobre cuáles son las estrategias que están funcionando perfectamente y qué estrategias debemos reforzar o crear para mejorar el rendimiento de la web.

    2. Referencias debido a ciertas palabras clave o frases en particular

    Es esencial conocer cuáles son esas palabras clave que hacen la magia de aumentar el tráfico a la web y cuales definitivamente no funcionan, ya que esta información nos permitirá optimizar la estrategia SEO, reforzando tanto las palabras que funcionan al pelo y las que no. Por ejemplo, si el sitio web es el de un cantante, lo ideal sería que el grupo de palabras clave estuvieran compuestas por las canciones más populares, esas que todo el mundo recuerda. Pero para llegar a este tipo de conclusiones tan exactas, se debe realizar un seguimiento a las palabras que han servido de fuente de tráfico, afortunadamente existen muchas herramientas que generan métricas sobre palabras clave que sirven para un website.

    3. Referencias por motores de búsqueda específicos

    Además conocer las fuentes de tráfico y las palabras mágicas que nos aumentan el tráfico en la web, debemos saber cómo está nuestra web con relación a los motores de búsqueda, ya que como lo mencionamos en otra lección, estos son la pista de aterrizaje en internet y tener buena relación con ellos nos puede servir para aumentar nuestro tráfico. Así que echemos un vistazo sobre algunas razones por las cuales se necesita realizar este tipo de seguimiento:

    • Comparar la participación del mercado con el rendimiento: Es decir que permite analizar la contribución en tráfico de los motores de búsqueda, con su participación en el mercado, ya que cada uno de los motores de búsqueda tiene su fuerte en un área o campo especifico. Por ejemplo, la mayoría de usuarios de Google son personas jóvenes, por ende, las páginas que mayor visibilidad tendrán con él son las relacionadas con la tecnología.
    • Comprender los datos en gráficos de visibilidad: En el caso de tener un retroceso en el tráfico de búsqueda, si el webmaster ha mantenido separadas las métricas de las contribuciones relativas de las métricas exactas y a su vez, ha separado las métricas de cada motor de búsqueda, estará en la capacidad de solucionar un problema en la caída del tráfico. Por ejemplo, si las métricas arrojan una disminución en el tráfico de todos los motores de búsqueda, entonces el problema probablemente sea de acceso y no de penalización. Por el contrario, si es una penalización, habría mayor disminución en el tráfico proveniente de Google, que los demás.
    • Explorando el valor estratégico: Debido a que los diferentes motores de búsqueda responden de manera diferente a los esfuerzos de optimización, es más fácil tener una estrategia efectiva si se identifican las técnicas que funcionan de manera efectiva en cada buscador. Por ejemplo, los métodos centrados en las palabras clave ofrecen resultados más significativos en Google y Bing, en comparación con Yahoo! Por lo tanto, ya se sabe qué acciones tomar para atraer tráfico de calidad en estos buscadores.




    ¿Qué herramientas SEO existen?



    Lo lees en: 00:03:00



    Además de las herramientas que hemos mencionado anteriormente, existen otras herramientas que vale la pena mencionar en este curso, ya que pueden ser de gran ayuda con diferentes acciones estratégicas en SEO, así como también servirán al momento de medir el éxito de las acciones.

    Las herramientas más importantes son Google Search Console (Bing ha desarrollado una herramienta similar para webmasters interesados en optimizar sitios web para este buscador) y Google Analytics.

    Los principales beneficios de estas herramientas incluyen:

    • Son gratuitos para cualquier persona con una cuenta de correo electrónico en GMail
    • Son intuitivos, incluso si eres un principiante, no tendrás problemas para usarlos.
    • Sus datos se enfocan en mejorar la usabilidad del sitio web.
    • Se complementan con otros servicios de Google, como Google AdWords, para crear informes completos con el fin de optimizar el rendimiento de la estrategia.


    Google Search Console

    Es una herramienta imprescindible para todos los webmasters, ya que permite rastrear y analizar el rendimiento general del sitio web, en sus informes arroja errores de rastreo, datos estructurados, enlaces internos, enlaces rotos, etc. Después de acceder a la herramienta con la cuenta de correo, se deberá demostrar la posibilidad de tener control sobre el dominio para poder obtener datos.

    Esta herramienta proporciona sugerencias sobre cómo mejorar el sitio web en su estructura HTML, como por ejemplo mejoras en:

    • Meta-etiqueta description
    • Meta-etiqueta description duplicada
    • Meta-etiqueta description demasiado larga o demasiado corta
    • Falta la etiqueta del título
    • Etiqueta de título duplicada
    • Etiqueta de título demasiado larga o demasiado corta
    • Contenido no indexable




    Google Analytics

    Esta herramienta rastrea el rendimiento del sitio web, el comportamiento de los visitantes, las fuentes de tráfico, etc. Google Analytics ofrece una gran cantidad de datos que ayudan a conocer el tipo de tráfico que reciben las web (audiencia), la forma en la que este llega (adquisición) y cómo interactúan los usuarios en la web (comportamiento). Google Analytics también arroja información en tiempo real.



    Información de PageSpeed

    Dado que el tiempo de carga del sitio web es un factor importante que afecta el posicionamiento, es necesario conocer la velocidad con la que carga el website e intentar mejorar este aspecto. Para conocer los elementos que hacen lenta a una página se implementa el PageSpeed Insights de Google.

    Al realizar un análisis, la herramienta mostrará sugerencias relacionadas con la optimización de diferentes partes de la página, que afectan la velocidad de carga. Dichas sugerencias pueden ser:

    • Optimización de imágenes
    • Tiempo de respuesta del servidor
    • Eliminación de JavaScript o CSS que bloquea el renderizado
    • Evitar redireccionamientos
    • Permitir compresiones
    • Priorizar el contenido visible


    Y como si fuera poco, esta herramienta también proporciona sugerencias sobre cómo solucionar estos elementos.



    0 comentarios:

    Publicar un comentario