fbpx
Wikipedia

Posicionamiento en buscadores

El posicionamiento en buscadores, optimización en motores de búsqueda o SEO (del inglés search engine optimization), es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio web en la lista de resultados de Google, Bing, u otros buscadores de internet.[1]​ El SEO trabaja aspectos técnicos como la optimización de la estructura y los metadatos de una web, pero también se aplica a nivel de contenidos, con el objetivo de volverlos más útiles y relevantes para los usuarios.

Historia

Los administradores de páginas web y proveedores de contenido comenzaron a optimizar sitios web en los motores de búsqueda a mediados de la década de 1990, tan pronto los motores de búsqueda comenzaban a catalogar la primera Internet. En un principio, sitios como Yahoo! ofrecían la inclusión a los sitios que solicitasen motu proprio su indexación, que era manual.

Al comienzo, todo lo que los administradores de páginas web tenían que hacer era enviar la dirección de una página web, o URL, a los diferentes motores, los cuales enviarían una araña web o rastreador web para inspeccionar ese sitio, extraer los vínculos hacia otras páginas que tenía esa web y devolver la información recogida para ser indexada. El proceso involucra a un araña web perteneciente al motor de búsqueda, que descarga una página y la almacena en los servidores de la empresa, donde un segundo programa, conocido como indexador, extrae información sobre la página. Entre ella, las palabras que contiene y dónde están localizadas, la relevancia de palabras específicas y todos los vínculos que contiene la página, los cuales se almacenan para ser rastreados posteriormente por la araña web.

Los dueños de sitios web comenzaron a reconocer el valor de tener sus páginas bien posicionadas y visibles para los motores de búsqueda, lo que creó una oportunidad para los usuarios de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). De acuerdo con los análisis del experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a usarse en agosto 1997, [2]​ por John Audette y su compañía, Multimedia Marketing Group, documentado en una página del sitio web de la compañía.

Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por los administradores de las páginas web, como las palabras clave de las metaetiquetas, o ficheros indexados en motores como ALIWEB. Las metaetiquetas ofrecen una guía para el contenido de cada página. Usar metadatos para indexar una página fue un método no demasiado preciso, ya que las palabras provistas por el administrador de sitio web en las metaetiquetas podía ser una representación no precisa del contenido real de la página web. Unos datos imprecisos, incompletos e inconsistentes en las metaetiquetas podían causar, y causaron, que ciertas páginas se posicionaran muy alto para búsquedas irrelevantes.[3]​ Los proveedores de contenido web también manipulaban una serie de atributos en el código fuente HTML de sus páginas en un intento de posicionarlas bien en los motores de búsqueda.[4]​ Otros sitios, como Altavista, admitían pagos por aparecer en los primeros lugares o daban más importancia a los sitios más antiguos.

Debido a la importancia de factores como la densidad de palabras clave, la cual dependía totalmente del administrador de la página web, los primeros motores de búsqueda sufrieron el abuso y la manipulación de las clasificaciones. Para proveer de mejores resultados para sus usuarios, los motores de búsqueda tenían que adaptarse para asegurar que sus páginas de resultados mostraran las búsquedas más relevantes en vez de páginas no relacionadas, llenas de palabras clave por administradores de páginas web sin escrúpulos. Contando con que el éxito y popularidad de un motor de búsqueda están condicionados por su capacidad de producir los resultados más relevantes para cualquier búsqueda, permitir que los resultados fueran falsos haría que los usuarios optaran por otros motores de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos para clasificar sitios web, tomando en cuenta factores adicionales para que fueran más difíciles de manipular por los administradores web.

Los estudiantes graduados en la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron Backrub, un motor de búsqueda que se basaba en un algoritmo matemático que puntuaba la relevancia de páginas web. PageRank fue el nombre del número calculado por el algoritmo, una función que cuenta con la cantidad y fuerza de vínculos entrantes. PageRank estima la posibilidad de que una página web sea vista por un usuario web que navega aleatoriamente por la web, y sigue vínculos de una página a otra. Realmente, esto significa que algunos vínculos son más fuertes que otros, por lo que una página con PageRank más alto tiene más posibilidad de ser visitada por un usuario aleatorio.

Page y Brin fundaron Google en 1998. Google atrajo a seguidores fieles entre el creciente número de usuarios de Internet, a los cuales les gustó su diseño sencillo, motivado por el hecho de que los fundadores no sabían HTML y se limitaron a colocar un cuadro de búsqueda y el logotipo de la empresa.

Se consideraron factores externos a la página (PageRank y análisis de vínculos) a la par que factores internos (frecuencia de palabra clave, etiquetas meta, cabeceras, vínculos y estructura del sitio web, velocidad de carga de la página), para permitir a Google evitar el tipo de manipulación vista en motores de búsqueda que solo consideraban factores internos de la página para las clasificaciones.

 
Ejemplo de PageRank Toolbar mostrando PR8

En el año 2000 Google lanzó la Google Toolbar, una barra de herramientas que entre otras cosas mostraba la métrica pública del PageRank. El PageRank de la barra de Google va de 0 a 10, siendo 10 el máximo, una valoración alcanzada por muy pocas webs. El PageRank público se fue actualizando periódicamente hasta diciembre de 2013, cuando tuvo lugar la última actualización hasta la fecha.

Aunque el PageRank era más difícil de manipular, los administradores de páginas webs ya habían desarrollado herramientas de creación de vínculos y planes para influenciar el motor de búsqueda Inktomi, y estos métodos también fueron eficaces para manipular el PageRank. Mucho sitios se centraron en intercambiar, comprar y vender vínculos, a menudo a gran escala. Algunos de estos sistemas, o granjas de vínculos, incluían la creación de miles de sitios con el único propósito de crear vínculos basura (técnicas de linkbuilding).

En 2004, los motores de búsqueda habían incorporado un amplio número de factores sin publicar en sus algoritmos de clasificación para reducir el impacto de la manipulación de vínculos. En junio de 2007, Hansell, del New York Times, declaró que los motores de búsqueda estaban usando más de 200 factores. Los principales motores de búsqueda, Google, Bing y Yahoo, no publican los algoritmos que usan para posicionar páginas web. Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimización de los motores de búsqueda, y han compartido sus opiniones. Patentes relacionadas con los motores de búsqueda pueden proveer información para entender mejor a los motores de búsqueda.

En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario, dependiendo de su historial en búsquedas previas, Google ofrecía resultados personalizados para usuarios registrados. En 2008, Bruce Clay dijo “el posicionamiento está muerto” debido a la búsqueda personalizada. Opinaba que resultaría irrelevante discutir como un sitio web se posiciona, puesto que su posición variaría en función de cada usuario, de cada búsqueda.

En 2005, Google también anunció una campaña en contra de la compra de enlaces con el fin de mejorar posiciones en el buscador [5]​ y sugirió un nuevo atributo a añadir a estos enlaces comerciales, era rel="nofollow" (ejemplo de uso <a href="https://otrodominio.com" rel="nofollow">Visita esta web</a>). El atributo "nofollow" ofrece a los webmasters un modo de indicar a los motores de búsqueda "No seguir los enlaces de esta página" o "No seguir este enlace concreto"[6]

En 2007 Matt Cutts afirmó que el uso de este atributo en los enlaces internos de una web también sería válido y efectivo para evitar transmitir PageRank hacia páginas internas de la propia web.[7]​ El resultado fue que hubo un uso generalizado de este atributo en los enlaces internos de los sites para alterar la distribución interna del PageRank.

Dado la generalización de esta técnica por parte de los webmasters, en 2009 Google publicó que había tomado medidas para cambiar la manera en que valora y contabiliza estos enlaces nofollow a la hora de repartir el PageRank, y que ahora sí se tendrían en cuenta a la hora de distribuir PageRank, aunque no traspasase valor a la url de destino si se diluía el PageRank entre estos enlaces.[8]​ Con esto intentaba no fomentar que se usara este atributo nofollow con el único fin de modificar la distribución del PageRank a través de los enlaces internos de una web.

Para poder seguir evitando la distribución de PageRank entre urls poco de una web, algunos SEOs y webmasters desarrollaron distintas técnicas alternativas que cambian los enlaces nofollow, que antes era válido, por otras etiquetas HTML (como < span > o < div >) que Google no contabiliza como enlaces, pero que para los usuarios se comportan de la misma manera que un enlace. Para ello se hace uso de Javascript y ofuscado la url con una codificación en Base64 [9]​, permitiendo controlar de esta manera la distribución de PageRank sin tener que usar el "polémico" atributo nofollow.

En diciembre de 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para elaborar los resultados de búsqueda.

Google Instant, búsqueda en tiempo real, fue introducido a finales de 2010 en un intento de hacer los resultados de búsqueda más relevantes y recientes. Históricamente, administradores de web han gastado meses o incluso años en optimizar un sitio web para mejorar su posicionamiento. Con el aumento en popularidad de las redes sociales y blogs, los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rápidamente en los resultados de búsqueda. En febrero de 2011, Google anunció la actualización “Panda”, la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes. Históricamente las páginas web han copiado contenido de otras beneficiándose en la clasificación de los motores de búsqueda aplicando esta técnica, sin embargo Google implementó un nuevo sistema en el que penaliza a las páginas web cuyo contenido no es único.

En abril del 2012, Google anunció la actualización “Penguin” cuyo objetivo era penalizar a aquellos sitios que usaban técnicas manipuladoras para mejorar sus rankings. (Spam SEO o Spam Web).

En septiembre de 2013, Google anunció la actualización “Colibrí“, un cambio en el algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de páginas web. (eficiencia del HTML5).

Posicionamiento natural u orgánico

El posicionamiento natural u orgánico es el que consigue una web de forma espontánea, sin que medie una campaña publicitaria.[10]​ Se basa en la indización o indexación que realizan unas aplicaciones denominadas arañas web para los motores de búsqueda. En esta indización, las arañas web recorren las páginas web y almacenan las palabras clave relevantes en base de datos.[11]

El interés del webmaster es optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de linkbuilding, linkbaiting o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones. El objetivo es aparecer en las posiciones más altas posibles de los resultados de búsqueda orgánica para una o varias palabras claves concretas.

La optimización se realiza en dos sentidos:

  • Interna / On-page SEO: Mediante mejoras en el contenido. Mejoras técnicas en el código. Accesibilidad. Test A/B, etc.
  • Externa / Off-page SEO: Se busca mejorar la notoriedad de la web mediante referencias a ella. Esto se logra fundamentalmente a través de enlaces naturales (tráfico de referencia) y redes sociales.

Los buscadores suelen mostrar resultados orgánicos o naturales en un área[cita requerida], a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago de ciertos servicios especiales, como Google Ads o Microsoft Ad Center, y se conoce como marketing en motores de búsqueda (en inglés, search engine marketing, frecuentemente abreviado SEM).

El servicio de Google Ads se puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clics (número de veces que además de salir impreso nuestro anuncio, será visitado o clicado por el cliente).

En la siguiente imagen puede apreciarse de forma gráfica la diferencia entre el posicionamiento orgánico y pagado. En ella se señalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads, que también son conocidos como SEM (Search Engine Marketing).

Técnicas para mejorar el posicionamiento

Las actividades a desarrollarse involucran tanto cambios de programación, diseño y contenidos, las mismas alineadas a las directrices emitidas por los buscadores como buenas prácticas. Buscadores como Google[12]​ y Bing[13]​ han emitido lineamientos al respecto.

Se divide en posicionamiento interno y externo:

Posicionamiento interno

Son mejoras que el desarrollador web puede aplicar sobre el sitio en cuanto al contenido, apariencia, accesibilidad, etc.

  • Diseño web responsivo. Desde abril de 2015, en un nuevo cambio de algoritmo, se corre la voz[cita requerida] de que Google penalizará con un descenso considerable de posición en las SERP (Search Engine Results Page, páginas de resultados de búsqueda) a aquellos sitios web que carecen de adaptabilidad a dispositivos móviles.[14]​ Moz asegura que no es exactamente así y que aunque una web no sea responsive, de momento, no tiene por qué descender en el ranking.[cita requerida]
  • Que la web pueda ser fácilmente rastreada por las arañas de los buscadores es el primer paso. Los ordenadores de los buscadores tienen que tener acceso a la página web para poder procesarla y mostrarla en los buscadores. Por esa razón, el crawl budget o crawl rate influye directamente en el posicionamiento: cuanto mayor es la frecuencia de rastreo de una web y más páginas rastrea, mejor es su posicionamiento. Este punto englobaría puntos en los que se especifica más abajo, como pueden ser dejar las páginas más accesibles, eliminar contenido duplicado, reparar errores 4xx, 5xx, 7xx, hacer las webs lo más ligeras posible para que el rastreador consuma menos recursos.
  • Crear contenidos de calidad. Es común el dicho de: "el contenido es rey". Desde 2015, Google asigna cada vez más importancia a la llamada "experiencia web del usuario", siendo capaz de medirla en términos estadísticos siempre y cuando dicha web en concreto haya sido indexada por este buscador. La experiencia del usuario tiene relación, sobre todo, con la adaptabilidad a dispositivos móviles, el contenido, mencionado antes, la usabilidad y la velocidad del tiempo de carga, entre otros factores. Igualmente, la estructura de enlaces internos es clave para la usabilidad y la experiencia de usuario (UX, User eXperience).
  • Realizar la estructuración y el diseño de una página web pensando en el posicionamiento, significa prestar atención a que sea funcional, fácil de acceder y que capte la atención del usuario.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página. Cada página es una tarjeta de presentación para el buscador. Los títulos y descripciones son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores. Las mejores prácticas recomiendan escribir títulos de entre 60 y 70 caracteres.
  • Hacer la web lo más accesible posible: limitar contenido en Flash, frames o JavaScript. Este tipo de contenido no permite el rastreo o seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio plano por el cual no se puede navegar.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara. Un «mapa del sitio web» en el código (tanto el de Google como uno presente en el sitio) permitirá dar paso al buscador por las diferentes secciones del sitio en forma ordenada, mejorando su visibilidad. Incluidos los archivos RSS que también pueden ser utilizados como sitemaps.
  • Mejorar la experiencia del usuario con mejoras del diseño y disminución de las tasas de rebote.
  • Alojar la web en un servidor fiable.
  • Optimizar las URL, colocamos las palabras claves más importantes y significativas para la búsqueda. URL amigable o friendly URL.
  • Instalar un certificado SSL y utilizar enlaces HTTPS en toda la página para enlaces internos y externos.[15]
  • Crear un diseño web limpio en publicidad y que entregue el contenido relevante en la mitad superior del sitio web[16]
  • Actualizar la página con contenido original de calidad.
  • Optimizar el tiempo de carga de una web para conseguir la reducción del ancho de banda, aumentar la tasa de conversión y mejorar la experiencia de usuario. (Web Performance Optimization o WPO)
  • Utilizar un correcto etiquetado del sitio web:
    • Utilizar negrita o cursiva en los contenidos para las palabras clave que se pretenden posicionar.
    • Utilizar las etiquetas “meta” (description y title) con las palabras claves, elegidas estratégicamente con anterioridad. La etiqueta “meta title” es el factor on-page más importante para el posicionamiento, después del contenido general. La etiqueta “meta description” ofrece una explicación breve del contenido de una página y es normalmente utilizada por los buscadores para mostrar un breve resumen del contenido de la página en los resultados de búsqueda.
    • Utilizar las cabeceras h1, h2, h3, etc. para destacar términos importantes, o títulos. Se deberían usar palabras claves en las cabeceras.
  • Utilización de HTML5 y sus diferentes secciones (encabezado, cuerpo), así como XHTML5, etc.
  • Densidad de palabras claves: El número de veces que una palabra clave se repite dentro del texto debe estar entre el 1% y el 4%. Utilizar sinónimos para esas palabras claves, y hacerlo de forma natural.
  • Utilización de CDN (redes de distribución de contenidos), tanto para la velocidad de carga como para la mejora de la experiencia de usuario en diferentes lugares del mundo.
  • Etiquetas y migas de pan, por ejemplo, a través de un CMS.

Posicionamiento externo

Son aquellas técnicas que se emplean para mejorar la notoriedad de la web en los medios en línea. Por norma general, se busca conseguir menciones en la red, en forma de enlace, de la web a optimizar.

  • Conseguir que otras webs de temática relacionada enlacen con tu web. Para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a tu web y estudiar cuáles de ellos tienen un contenido complementario. Si por ejemplo quieres posicionarte por el término "peluquería Madrid" puede ser interesante intentar conseguir backlinks de peluquerías de otras ciudades.
  • Ahora mismo hay cientos de redes sociales, por ejemplo Hi5, Facebook y, Orkut, en las cuales poder participar y obtener visitas de nuestros nuevos «amigos». Para Google, la red social que mayor impacto tiene en el SEO es Google Plus, que ha tomado el lugar en importancia de Twitter y Facebook.[cita requerida]
  • Darse de alta en directorios importantes como Dmoz y Yahoo!. Los directorios han perdido mucho interés en los buscadores pero siguen siendo un buen punto de partida para conseguir enlaces o un primer rastreo de tu web por los buscadores.[cita requerida] Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las web añadidas, pero también ralentiza y dificulta su inclusión.
  • Registrarse y participar en foros, de preferencia en foros temáticos relacionados con la actividad de su página web. La frecuente participación tiene que ir acompañado de aporte real y valioso como para ser tomado en cuenta como un usuario calificado, el detalle del éxito para conseguir visitas y aumentar el posicionamiento es el enlace hacia su página web presentado en su firma.[cita requerida]
  • Escribir artículos en otros sitios web. Los artículos son un método muy poderoso para mejorar el posicionamiento y conseguir atraer visitas. Si puedes escribir unos artículos de un curso, de los trucos del día, la utilidad del producto de tu web.[cita requerida]
  • Intercambiar contenido.
  • Nombre del dominio, sin determinar a qué nivel de influencia sobre el posicionamiento.

Rasgos de los algoritmos de búsqueda

Rasgos públicos: Entiéndase por estos a los que son de índole declarada por los administradores o creadores de dicho algoritmo, por ejemplo podemos saber que el algoritmo de Google tienes ciertos aspectos técnicos que penalizan ciertos accionares de los administradores web o redactores de contenido. Un ejemplo práctico es Google Panda, que tiene como principal objetivo eliminar contenido copiado, duplicado o irrelevante por ser considerado Spam Web también llamado Spam SEO. Google Penguin en cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etc. También vé un factor humano importante para el Seo como es porcentaje de rebote de una página web.

Rasgos privados: Son aquellos que son mantenidos en secretos por los creadores o administradores de dicho contenido, esto es para que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web.

Rasgos sospechados: Son aquellos rasgos secretos discernidos en la práctica misma de la actividad, los mismos no son de carácter oficial, pero al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por ejemplo se ha descubierto que a pesar de todo lo dicho por los creadores lo más importante para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.

Linkbuilding

 
Diagrama que representa el linkbuilding

Linkbuilding o construcción de enlaces, es una técnica de SEO que consiste en conseguir que otras páginas web enlacen a la página que interesa que los buscadores consideren relevante y la posicionen mejor en sus rankings. La técnica puede hacerse de manera natural, cuando otras webs enlazan sin previo acuerdo por algún hecho o dicho, o bien de manera artificial, cuando se simula que los enlaces se han conseguido de manera natural.

Conseguir enlaces de forma artificial (linkbuilding) es una técnica que infringe las directrices para webmasters de Google. Está considerada una práctica "blackhat" y puede conllevar la pérdida de posiciones de una web por penalización por enlaces.

Esta se basa en el concepto de que uno de los factores que se incluyen dentro de la evaluación del ranking de una página es la cantidad de enlaces entrantes que tiene una página, concepto basado en el hecho de que el número de enlaces entrantes constituía uno de los factores evaluados en PageRank en 1999 por Google[17]

Las ventajas son:

  • Posibilidad de medir la demanda y cantidad de personas que están buscando a través de una palabra clave
  • Efectividad del posicionamiento
  • Posicionamiento de la marca o branding

Técnicas

  • Alta en directorios: consiste en dar de alta la web en diferentes directorios, ya sean generales o temáticos. Significa introducir los enlaces en directorios relevantes y escoger la categoría que mejor se adapte a la página. Desde 2013, Google no toma en cuenta los directorios[cita requerida], lo que ha inutilizado esta estrategia.
  • Directorios de artículos: consiste en escribir artículos para publicarlos en directorios que, a cambio del contenido, permiten incluir enlaces hacia una web.
  • Bookmarking: se trata de guardar aquello que interesa posicionar en los buscadores en los diferentes webs de bookmarking.[aclaración requerida]
  • Link baiting: es una de las técnicas más valorada por los buscadores pero una de las más difíciles de conseguir, ya que solo se consiguen cientos de enlaces a un artículo si este realmente aporta valor.
  • Intercambio de enlaces: una buena forma de conseguir enlaces y una de las primeras que se empezaron a utilizar. También hay muchos tipos de intercambios y servicios.
  • Compra de enlaces: Más efectiva que el intercambio de enlaces pero también más cara. Según la política oficial de Google esta forma de conseguir enlaces es penalizable.[cita requerida]
  • Enlaces desde foros: Otra forma para construir enlaces es de foros, agregando el enlace (o link) desde la firma del foro.
  • Otras técnicas: envío de enlaces a blogs, a redes sociales, escribir revisiones, notas de prensa, entre otros.

Tiempo

En promedio 1.5 horas[cita requerida] se utiliza para realizar linkbuilding. Sin embargo, esto depende de la capacidad del proyecto, en todo caso se[¿quién?] recomienda siempre tener un comportamiento natural ya que el buscador/es pueden sospechar de estrategias black hat SEO utilizadas para obtener mayor cantidad de enlaces no-naturales en menor tiempo, lo que conlleva a una penalización por parte del buscador hacia la web que realiza estas técnicas.

Comentarios en artículos: otra forma, no menos importante, es la de generar backlinks desde comentarios de artículos, es también una de las formas más fáciles de conseguir enlaces. Google da prioridad a los enlaces que hay en los comentarios de alguna entrada,[cita requerida] y los reconoce como un backlink válido.[cita requerida] Los comentarios en artículos siempre son aprobados o rechazados por un webmaster.

Compra de enlaces: los enlaces de pago o bolsa de enlaces, son utilizados por gran cantidad de expertos en SEO y webmaster con el fin de ahorrarse tiempo buscando ellos mismos los enlaces hacia sus sitios. Muchos sitios en línea se dedican a la venta de enlaces con alto PageRank. Google por su parte considera esta técnica como black hat SEO también y por ende penaliza a quienes lo hacen.[cita requerida]

Tipos de enlaces

Tipos de linkbuilding:

  • Comentarios en blogs
  • Firmas de perfil en foros
  • Conseguir un enlace desde otro blog
  • Intercambio de enlaces entre webmasters
  • Compra de enlaces

Posicionamiento y la evolución de los resultados de búsqueda

Algunas de estas nuevas tecnologías son:

Búsquedas universales
Desde mayo de 2017[18]​ las páginas de resultados de búsquedas muestran resultados combinando búsquedas orgánicas con imágenes, vídeos, blogs, resultados locales, comunicados de prensa, libros o productos. Esto es especialmente importante para el contenido vertical de un sitio web en un tema específico
Búsquedas personalizadas
Los distintos motores de búsqueda como Google, Yahoo, Yandex o Baidu, han lanzado varias características que permite a los buscadores la facilidad de mostrar contenido relacionado con las acciones anteriores del usuario en el buscador. Cada usuario con el tiempo irá mejorando su perfil de búsqueda personalizada, donde los enlaces y páginas visitados irán adquiriendo más importancia que los no visitados.
Esto en cierta manera, dificulta el posicionamiento tradicional, ya que es muy complicado predecir los gustos personales de cada usuario y dificulta el averiguar que está viendo realmente el usuario en su pantalla.
Los resultados también vienen condicionados por la localización de la búsqueda, es común encontrárselo por su término inglés, geotargeting, enfocado a las búsquedas locales o nacionales, que son una parte muy significativa del tráfico. Su función es ofrecer resultados específicos del país o de la ciudad del usuario.
Búsquedas en tiempo real
Esta característica provee la facilidad de enlazar los resultados de una búsqueda con sitios web que proveen contenido en tiempo real, desde Twitter, Myspace o Facebook. Es probable que la lista que provea los contenidos de tiempo real crezca con el tiempo a medida que se incorporen diferente fuentes y acuerdos.
Los buscadores, permiten seleccionar el contenido creado en función de su fecha, con lo que el más reciente, dependiendo del tema, puede generar más tráfico.
Búsquedas sociales
Aparece en las búsquedas finales del 2009 y provee en las páginas de resultados de búsqueda contenido proveniente de las redes sociales que han sido suscritos en el perfil de usuario. Estos contenidos solo son obtenidos de la red de contactos que un usuario posee en la red social relevantes con las palabras claves usadas en la búsqueda. Actualmente Google lo incorpora como Google+, y su vinculación más importante con el SEO es Google Authorship.
Búsquedas locales
El posicionamiento se busca a través de referencias sólidas tanto locales como nacionales, que permitan a los diferentes buscadores, determinar la localización exacta de esa web, para que estos puedan ofrecer los resultados locales correctos los usuarios locales o nacionales.
Sobre este punto cabe destacar las recomendaciones de Google en relación a la internacionalización de las páginas web.[19]

Posicionamiento en Google

A medida que avanza la comprensión de los que los usuarios desean encontrar en el buscador y lo que los webmasters ofrecen, Google ha ido actualizando[20]​ su algoritmo a lo largo del tiempo, lo que a su vez ha podido afectar al posicionamiento de todos los sitios en Internet sea cual sea su temática o sector.

2013

Google ha llevado a cabo algunos cambios en la documentación de ayuda para los webmasters, especialmente en lo que a ranking se refiere. Hasta el 27 de mayo de 2013 decía:

In general, webmasters can improve the rank of their sites by increasing the number of high-quality sites that link to their pages.
En general, los webmasters pueden mejorar el ranking de sus sitios aumentando el número de sitios de alta calidad que enlazan en sus páginas.

Tras los cambios, pasó a decir:

In general, webmasters can improve the rank of their sites by creating high-quality sites that users will want to use and share.
En general, los webmasters pueden mejorar el ranking de sus sitios creando sitios de alta calidad que los usuarios quieran utilizar y compartir.[21]

Este cambio es consistente con lo que Google quiere de los administradores de sitios web: menos linkbuilding y más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. Dentro de estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se realizan en la página, y las veces que se comparten en las redes sociales. Cabe mencionar las herramientas proporcionadas por Google y Bing, etc. como Herramientas de Webmaster de Google y Google Analytics (gratuita y de pago).

2014

El 20 de mayo de 2014 Google actualizó el algoritmo de su buscador, específicamente el «Panda» a Panda 4.0[22]​ con lo que empresas reconocidas del sector como: PRWeb.com, BusinessWire.com, etc. vieron reducidas sus posiciones en el buscador debido a la actualización mencionada.

2016

En 2016 Google incorpora el proyecto AMP [23]​ o páginas aceleradas móviles. Es una iniciativa open source con objetivo de que el usuario acceda al contenido de una manera más rápida y sencilla, de manera casi instantánea, evitando demoras en la carga de los sitios web. Implementar AMP en un portal tiene un impacto positivo en el posicionamiento web para búsquedas móviles.[24]​ El 4 de noviembre de 2016 Google mediante un comunicado oficial indicó que indexaría los contenidos dando prioridad a las webs para móviles frente a las desktop, por lo que la utilización de AMP también afecta los resultados para las búsquedas en desktop [25]

Véase también

Referencias

  1. Knöbl, Esteban. «Guía de SEO para negocios B2B». Consultado el 10 de septiembre de 2018. 
  2. Danny Sullivan (14 de junio de 2004). (en inglés). Search Engine Watch. Archivado desde el original el 23 de abril de 2010. Consultado el 14 de mayo de 2007. 
  3. Cory Doctorow (26 de agosto de 2001). . e-LearningGuru. Archivado desde el original el 9 de abril de 2007. Consultado el 8 de mayo de 2007. 
  4. Pringle, G., Allison, L., and Dowe, D. (abril de 1998). «What is a tall poppy among web pages?». Proc. 7th Int. World Wide Web Conference. Consultado el 8 de mayo de 2007. 
  5. «Text links and PageRank». 
  6. «Cómo usar rel="nofollow" para enlaces específicos». Consultado el 10 de febrero de 2019. 
  7. «Google recommend the use of nofollow internally as a positive method for controlling the flow of internal link». 
  8. «Google (Maybe) Changes How the PageRank Algorithm Handles Nofollow». 
  9. «Ofuscando enlaces con JavaScript / Base64 para mejorar Link Juice». 8 de marzo de 2017. Consultado el 10 de febrero de 2019. 
  10. Cavaller, Víctor; Pedraza, Rafael; Codina, Lluís; Sánchez-Añón, Silvia (27 de junio de 2014). Estrategias y gestión de la comunicación online y offline. Editorial UOC. p. 71. ISBN 9788490642931. 
  11. Aubry, Christophe (2011). WordPress 3: un CMS para crear tu propio web. Ediciones ENI. p. 338. ISBN 9782746068490. 
  12. Google. «Guía para webmasters de Google». 
  13. «Webmaster Guidelines - Bing Webmaster Tools». www.bing.com. Consultado el 1 de septiembre de 2015. 
  14. «Finding more mobile-friendly search results». Consultado el 31 de enero de 2016. 
  15. «¿Ayudan los certificados SSL a la posición de una página en motores de búsqueda?». Posicionamiento. Consultado el 12 de febrero de 2016. 
  16. «What Is Link Building & Why Is It Important? - Beginner's Guide to Link Building». Consultado el 1 de septiembre de 2015. 
  17. Marissa Mayer. «Búsqueda universal: la mejor respuesta sigue siendo la mejor respuesta». Consultado el 20 de febrero de 2018. 
  18. Google Webmaster. «Internacionalización». Consultado el 18 de enero de 2013. 
  19. norfiPC. «Fechas de los últimos cambios en el algoritmo de búsquedas de Google». Consultado el 31 de octubre de 2016. 
  20. Google Changes Ranking Advice, Says Build Quality Sites Not Links. Consultado el 7 de marzo de 2016.
  21. Sitios de prensa afectados por Panda 4.0, artículo de Search Engine Land, 29 de mayo de 2014.
  22. «Sitio de AMP Project». AMP Project (en inglés). 
  23. «Qué es AMP y cómo afecta al SEO». Softalian. Consultado el 12 de enero de 2017. 
  24. «Mobile-first Indexing». Official Google Webmaster Central Blog (en inglés estadounidense). Consultado el 17 de agosto de 2018. 

Enlaces externos

  • Guía para principiantes sobre optimización para motores de búsqueda de Google en PDF
  • Guía de Google para optimización de sitios web para dispositivos móviles
  • Directrices para webmasters de Google
  • Directrices para webmasters de Bing (en inglés)
  • Yahoo! Directrices de contenido de calidad de Yahoo! (en inglés)
  • Sitios de calidad baja según Yandex (en inglés)
  • Blog Central de Google para Webmasters (en Inglés)
  • Blog para Webmasters (en Español)


  •   Datos: Q180711
  •   Multimedia: SEO

posicionamiento, buscadores, este, artículo, sobre, comunicaciones, detectaron, varios, problemas, favor, edítalo, para, mejorarlo, tiene, redacción, neutral, favor, discute, este, problema, discusión, necesita, referencias, adicionales, para, verificación, es. En este articulo sobre comunicaciones se detectaron varios problemas Por favor editalo para mejorarlo No tiene una redaccion neutral Por favor discute este problema en la discusion Necesita referencias adicionales para su verificacion Este aviso fue puesto el 19 de abril de 2017 Para otros usos de este termino vease seo El posicionamiento en buscadores optimizacion en motores de busqueda o SEO del ingles search engine optimization es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio web en la lista de resultados de Google Bing u otros buscadores de internet 1 El SEO trabaja aspectos tecnicos como la optimizacion de la estructura y los metadatos de una web pero tambien se aplica a nivel de contenidos con el objetivo de volverlos mas utiles y relevantes para los usuarios Indice 1 Historia 2 Posicionamiento natural u organico 3 Tecnicas para mejorar el posicionamiento 3 1 Posicionamiento interno 3 2 Posicionamiento externo 4 Rasgos de los algoritmos de busqueda 5 Linkbuilding 5 1 Tecnicas 5 2 Tiempo 5 3 Tipos de enlaces 6 Posicionamiento y la evolucion de los resultados de busqueda 7 Posicionamiento en Google 7 1 2013 7 2 2014 7 3 2016 8 Vease tambien 9 Referencias 10 Enlaces externosHistoriaLos administradores de paginas web y proveedores de contenido comenzaron a optimizar sitios web en los motores de busqueda a mediados de la decada de 1990 tan pronto los motores de busqueda comenzaban a catalogar la primera Internet En un principio sitios como Yahoo ofrecian la inclusion a los sitios que solicitasen motu proprio su indexacion que era manual Al comienzo todo lo que los administradores de paginas web tenian que hacer era enviar la direccion de una pagina web o URL a los diferentes motores los cuales enviarian una arana web o rastreador web para inspeccionar ese sitio extraer los vinculos hacia otras paginas que tenia esa web y devolver la informacion recogida para ser indexada El proceso involucra a un arana web perteneciente al motor de busqueda que descarga una pagina y la almacena en los servidores de la empresa donde un segundo programa conocido como indexador extrae informacion sobre la pagina Entre ella las palabras que contiene y donde estan localizadas la relevancia de palabras especificas y todos los vinculos que contiene la pagina los cuales se almacenan para ser rastreados posteriormente por la arana web Los duenos de sitios web comenzaron a reconocer el valor de tener sus paginas bien posicionadas y visibles para los motores de busqueda lo que creo una oportunidad para los usuarios de tecnicas SEO de sombrero blanco y sombrero negro white hat y black hat De acuerdo con los analisis del experto Danny Sullivan el termino optimizacion de motores de busqueda comenzo a usarse en agosto 1997 2 por John Audette y su compania Multimedia Marketing Group documentado en una pagina del sitio web de la compania Las primeras versiones de los algoritmos de busqueda se basaban en la informacion proporcionada por los administradores de las paginas web como las palabras clave de las metaetiquetas o ficheros indexados en motores como ALIWEB Las metaetiquetas ofrecen una guia para el contenido de cada pagina Usar metadatos para indexar una pagina fue un metodo no demasiado preciso ya que las palabras provistas por el administrador de sitio web en las metaetiquetas podia ser una representacion no precisa del contenido real de la pagina web Unos datos imprecisos incompletos e inconsistentes en las metaetiquetas podian causar y causaron que ciertas paginas se posicionaran muy alto para busquedas irrelevantes 3 Los proveedores de contenido web tambien manipulaban una serie de atributos en el codigo fuente HTML de sus paginas en un intento de posicionarlas bien en los motores de busqueda 4 Otros sitios como Altavista admitian pagos por aparecer en los primeros lugares o daban mas importancia a los sitios mas antiguos Debido a la importancia de factores como la densidad de palabras clave la cual dependia totalmente del administrador de la pagina web los primeros motores de busqueda sufrieron el abuso y la manipulacion de las clasificaciones Para proveer de mejores resultados para sus usuarios los motores de busqueda tenian que adaptarse para asegurar que sus paginas de resultados mostraran las busquedas mas relevantes en vez de paginas no relacionadas llenas de palabras clave por administradores de paginas web sin escrupulos Contando con que el exito y popularidad de un motor de busqueda estan condicionados por su capacidad de producir los resultados mas relevantes para cualquier busqueda permitir que los resultados fueran falsos haria que los usuarios optaran por otros motores de busqueda Los motores de busqueda respondieron desarrollando algoritmos de clasificacion mas complejos para clasificar sitios web tomando en cuenta factores adicionales para que fueran mas dificiles de manipular por los administradores web Los estudiantes graduados en la Universidad de Stanford Larry Page y Sergey Brin desarrollaron Backrub un motor de busqueda que se basaba en un algoritmo matematico que puntuaba la relevancia de paginas web PageRank fue el nombre del numero calculado por el algoritmo una funcion que cuenta con la cantidad y fuerza de vinculos entrantes PageRank estima la posibilidad de que una pagina web sea vista por un usuario web que navega aleatoriamente por la web y sigue vinculos de una pagina a otra Realmente esto significa que algunos vinculos son mas fuertes que otros por lo que una pagina con PageRank mas alto tiene mas posibilidad de ser visitada por un usuario aleatorio Page y Brin fundaron Google en 1998 Google atrajo a seguidores fieles entre el creciente numero de usuarios de Internet a los cuales les gusto su diseno sencillo motivado por el hecho de que los fundadores no sabian HTML y se limitaron a colocar un cuadro de busqueda y el logotipo de la empresa Se consideraron factores externos a la pagina PageRank y analisis de vinculos a la par que factores internos frecuencia de palabra clave etiquetas meta cabeceras vinculos y estructura del sitio web velocidad de carga de la pagina para permitir a Google evitar el tipo de manipulacion vista en motores de busqueda que solo consideraban factores internos de la pagina para las clasificaciones Ejemplo de PageRank Toolbar mostrando PR8 En el ano 2000 Google lanzo la Google Toolbar una barra de herramientas que entre otras cosas mostraba la metrica publica del PageRank El PageRank de la barra de Google va de 0 a 10 siendo 10 el maximo una valoracion alcanzada por muy pocas webs El PageRank publico se fue actualizando periodicamente hasta diciembre de 2013 cuando tuvo lugar la ultima actualizacion hasta la fecha Aunque el PageRank era mas dificil de manipular los administradores de paginas webs ya habian desarrollado herramientas de creacion de vinculos y planes para influenciar el motor de busqueda Inktomi y estos metodos tambien fueron eficaces para manipular el PageRank Mucho sitios se centraron en intercambiar comprar y vender vinculos a menudo a gran escala Algunos de estos sistemas o granjas de vinculos incluian la creacion de miles de sitios con el unico proposito de crear vinculos basura tecnicas de linkbuilding En 2004 los motores de busqueda habian incorporado un amplio numero de factores sin publicar en sus algoritmos de clasificacion para reducir el impacto de la manipulacion de vinculos En junio de 2007 Hansell del New York Times declaro que los motores de busqueda estaban usando mas de 200 factores Los principales motores de busqueda Google Bing y Yahoo no publican los algoritmos que usan para posicionar paginas web Algunos posicionadores o SEO han estudiado distintas maneras de tratar la optimizacion de los motores de busqueda y han compartido sus opiniones Patentes relacionadas con los motores de busqueda pueden proveer informacion para entender mejor a los motores de busqueda En 2005 Google comenzo a personalizar los resultados de busqueda para cada usuario dependiendo de su historial en busquedas previas Google ofrecia resultados personalizados para usuarios registrados En 2008 Bruce Clay dijo el posicionamiento esta muerto debido a la busqueda personalizada Opinaba que resultaria irrelevante discutir como un sitio web se posiciona puesto que su posicion variaria en funcion de cada usuario de cada busqueda En 2005 Google tambien anuncio una campana en contra de la compra de enlaces con el fin de mejorar posiciones en el buscador 5 y sugirio un nuevo atributo a anadir a estos enlaces comerciales era rel nofollow ejemplo de uso lt a href https otrodominio com rel nofollow gt Visita esta web lt a gt El atributo nofollow ofrece a los webmasters un modo de indicar a los motores de busqueda No seguir los enlaces de esta pagina o No seguir este enlace concreto 6 En 2007 Matt Cutts afirmo que el uso de este atributo en los enlaces internos de una web tambien seria valido y efectivo para evitar transmitir PageRank hacia paginas internas de la propia web 7 El resultado fue que hubo un uso generalizado de este atributo en los enlaces internos de los sites para alterar la distribucion interna del PageRank Dado la generalizacion de esta tecnica por parte de los webmasters en 2009 Google publico que habia tomado medidas para cambiar la manera en que valora y contabiliza estos enlaces nofollow a la hora de repartir el PageRank y que ahora si se tendrian en cuenta a la hora de distribuir PageRank aunque no traspasase valor a la url de destino si se diluia el PageRank entre estos enlaces 8 Con esto intentaba no fomentar que se usara este atributo nofollow con el unico fin de modificar la distribucion del PageRank a traves de los enlaces internos de una web Para poder seguir evitando la distribucion de PageRank entre urls poco de una web algunos SEOs y webmasters desarrollaron distintas tecnicas alternativas que cambian los enlaces nofollow que antes era valido por otras etiquetas HTML como lt span gt o lt div gt que Google no contabiliza como enlaces pero que para los usuarios se comportan de la misma manera que un enlace Para ello se hace uso de Javascript y ofuscado la url con una codificacion en Base64 9 permitiendo controlar de esta manera la distribucion de PageRank sin tener que usar el polemico atributo nofollow En diciembre de 2009 Google anuncio que usaria el historial de busqueda de todos los usuarios para elaborar los resultados de busqueda Google Instant busqueda en tiempo real fue introducido a finales de 2010 en un intento de hacer los resultados de busqueda mas relevantes y recientes Historicamente administradores de web han gastado meses o incluso anos en optimizar un sitio web para mejorar su posicionamiento Con el aumento en popularidad de las redes sociales y blogs los principales motores hicieron cambios en sus algoritmos para permitir contenido fresco y posicionar rapidamente en los resultados de busqueda En febrero de 2011 Google anuncio la actualizacion Panda la cual penaliza sitios web que contengan contenido duplicado de otros sitios y fuentes Historicamente las paginas web han copiado contenido de otras beneficiandose en la clasificacion de los motores de busqueda aplicando esta tecnica sin embargo Google implemento un nuevo sistema en el que penaliza a las paginas web cuyo contenido no es unico En abril del 2012 Google anuncio la actualizacion Penguin cuyo objetivo era penalizar a aquellos sitios que usaban tecnicas manipuladoras para mejorar sus rankings Spam SEO o Spam Web En septiembre de 2013 Google anuncio la actualizacion Colibri un cambio en el algoritmo disenado para mejorar el procesamiento del lenguaje natural de Google y la comprension semantica de paginas web eficiencia del HTML5 Posicionamiento natural u organicoEl posicionamiento natural u organico es el que consigue una web de forma espontanea sin que medie una campana publicitaria 10 Se basa en la indizacion o indexacion que realizan unas aplicaciones denominadas aranas web para los motores de busqueda En esta indizacion las aranas web recorren las paginas web y almacenan las palabras clave relevantes en base de datos 11 El interes del webmaster es optimizar la estructura de una web y el contenido de la misma asi como la utilizacion de diversas tecnicas de linkbuilding linkbaiting o contenidos virales aumentando la notoriedad de la web debido al aumento de menciones El objetivo es aparecer en las posiciones mas altas posibles de los resultados de busqueda organica para una o varias palabras claves concretas La optimizacion se realiza en dos sentidos Interna On page SEO Mediante mejoras en el contenido Mejoras tecnicas en el codigo Accesibilidad Test A B etc Externa Off page SEO Se busca mejorar la notoriedad de la web mediante referencias a ella Esto se logra fundamentalmente a traves de enlaces naturales trafico de referencia y redes sociales Los buscadores suelen mostrar resultados organicos o naturales en un area cita requerida a la par de resultados de pago El posicionamiento en estas areas de pago requiere del pago de ciertos servicios especiales como Google Ads o Microsoft Ad Center y se conoce como marketing en motores de busqueda en ingles search engine marketing frecuentemente abreviado SEM El servicio de Google Ads se puede contratar por impresiones numero de veces que aparecera nuestro anuncio para una determinada palabra clave o por clics numero de veces que ademas de salir impreso nuestro anuncio sera visitado o clicado por el cliente En la siguiente imagen puede apreciarse de forma grafica la diferencia entre el posicionamiento organico y pagado En ella se senalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads que tambien son conocidos como SEM Search Engine Marketing Tecnicas para mejorar el posicionamientoLas actividades a desarrollarse involucran tanto cambios de programacion diseno y contenidos las mismas alineadas a las directrices emitidas por los buscadores como buenas practicas Buscadores como Google 12 y Bing 13 han emitido lineamientos al respecto Se divide en posicionamiento interno y externo Posicionamiento interno Son mejoras que el desarrollador web puede aplicar sobre el sitio en cuanto al contenido apariencia accesibilidad etc Diseno web responsivo Desde abril de 2015 en un nuevo cambio de algoritmo se corre la voz cita requerida de que Google penalizara con un descenso considerable de posicion en las SERP Search Engine Results Page paginas de resultados de busqueda a aquellos sitios web que carecen de adaptabilidad a dispositivos moviles 14 Moz asegura que no es exactamente asi y que aunque una web no sea responsive de momento no tiene por que descender en el ranking cita requerida Que la web pueda ser facilmente rastreada por las aranas de los buscadores es el primer paso Los ordenadores de los buscadores tienen que tener acceso a la pagina web para poder procesarla y mostrarla en los buscadores Por esa razon el crawl budget o crawl rate influye directamente en el posicionamiento cuanto mayor es la frecuencia de rastreo de una web y mas paginas rastrea mejor es su posicionamiento Este punto englobaria puntos en los que se especifica mas abajo como pueden ser dejar las paginas mas accesibles eliminar contenido duplicado reparar errores 4xx 5xx 7xx hacer las webs lo mas ligeras posible para que el rastreador consuma menos recursos Crear contenidos de calidad Es comun el dicho de el contenido es rey Desde 2015 Google asigna cada vez mas importancia a la llamada experiencia web del usuario siendo capaz de medirla en terminos estadisticos siempre y cuando dicha web en concreto haya sido indexada por este buscador La experiencia del usuario tiene relacion sobre todo con la adaptabilidad a dispositivos moviles el contenido mencionado antes la usabilidad y la velocidad del tiempo de carga entre otros factores Igualmente la estructura de enlaces internos es clave para la usabilidad y la experiencia de usuario UX User eXperience Realizar la estructuracion y el diseno de una pagina web pensando en el posicionamiento significa prestar atencion a que sea funcional facil de acceder y que capte la atencion del usuario Crear titulos unicos y descripciones pertinentes del contenido de cada pagina Cada pagina es una tarjeta de presentacion para el buscador Los titulos y descripciones son puntos de partida para la identificacion de los terminos relevantes a lo largo de la web por los buscadores Las mejores practicas recomiendan escribir titulos de entre 60 y 70 caracteres Hacer la web lo mas accesible posible limitar contenido en Flash frames o JavaScript Este tipo de contenido no permite el rastreo o seguimiento de la informacion por parte del robot en las diferentes paginas o secciones Para ellos son un espacio plano por el cual no se puede navegar Enlazar internamente las paginas de nuestro sitio de manera ordenada y clara Un mapa del sitio web en el codigo tanto el de Google como uno presente en el sitio permitira dar paso al buscador por las diferentes secciones del sitio en forma ordenada mejorando su visibilidad Incluidos los archivos RSS que tambien pueden ser utilizados como sitemaps Mejorar la experiencia del usuario con mejoras del diseno y disminucion de las tasas de rebote Alojar la web en un servidor fiable Optimizar las URL colocamos las palabras claves mas importantes y significativas para la busqueda URL amigable o friendly URL Instalar un certificado SSL y utilizar enlaces HTTPS en toda la pagina para enlaces internos y externos 15 Crear un diseno web limpio en publicidad y que entregue el contenido relevante en la mitad superior del sitio web 16 Actualizar la pagina con contenido original de calidad Optimizar el tiempo de carga de una web para conseguir la reduccion del ancho de banda aumentar la tasa de conversion y mejorar la experiencia de usuario Web Performance Optimization o WPO Utilizar un correcto etiquetado del sitio web Utilizar negrita o cursiva en los contenidos para las palabras clave que se pretenden posicionar Utilizar las etiquetas meta description y title con las palabras claves elegidas estrategicamente con anterioridad La etiqueta meta title es el factor on page mas importante para el posicionamiento despues del contenido general La etiqueta meta description ofrece una explicacion breve del contenido de una pagina y es normalmente utilizada por los buscadores para mostrar un breve resumen del contenido de la pagina en los resultados de busqueda Utilizar las cabeceras h1 h2 h3 etc para destacar terminos importantes o titulos Se deberian usar palabras claves en las cabeceras Utilizacion de HTML5 y sus diferentes secciones encabezado cuerpo asi como XHTML5 etc Densidad de palabras claves El numero de veces que una palabra clave se repite dentro del texto debe estar entre el 1 y el 4 Utilizar sinonimos para esas palabras claves y hacerlo de forma natural Utilizacion de CDN redes de distribucion de contenidos tanto para la velocidad de carga como para la mejora de la experiencia de usuario en diferentes lugares del mundo Etiquetas y migas de pan por ejemplo a traves de un CMS Posicionamiento externo Son aquellas tecnicas que se emplean para mejorar la notoriedad de la web en los medios en linea Por norma general se busca conseguir menciones en la red en forma de enlace de la web a optimizar Conseguir que otras webs de tematica relacionada enlacen con tu web Para ello es interesante realizar una busqueda para aquellos terminos que consideras deberian llevar trafico a tu web y estudiar cuales de ellos tienen un contenido complementario Si por ejemplo quieres posicionarte por el termino peluqueria Madrid puede ser interesante intentar conseguir backlinks de peluquerias de otras ciudades Ahora mismo hay cientos de redes sociales por ejemplo Hi5 Facebook y Orkut en las cuales poder participar y obtener visitas de nuestros nuevos amigos Para Google la red social que mayor impacto tiene en el SEO es Google Plus que ha tomado el lugar en importancia de Twitter y Facebook cita requerida Darse de alta en directorios importantes como Dmoz y Yahoo Los directorios han perdido mucho interes en los buscadores pero siguen siendo un buen punto de partida para conseguir enlaces o un primer rastreo de tu web por los buscadores cita requerida Ambas requieren de un filtro humano para su inclusion lo que asegura la calidad de las web anadidas pero tambien ralentiza y dificulta su inclusion Registrarse y participar en foros de preferencia en foros tematicos relacionados con la actividad de su pagina web La frecuente participacion tiene que ir acompanado de aporte real y valioso como para ser tomado en cuenta como un usuario calificado el detalle del exito para conseguir visitas y aumentar el posicionamiento es el enlace hacia su pagina web presentado en su firma cita requerida Escribir articulos en otros sitios web Los articulos son un metodo muy poderoso para mejorar el posicionamiento y conseguir atraer visitas Si puedes escribir unos articulos de un curso de los trucos del dia la utilidad del producto de tu web cita requerida Intercambiar contenido Nombre del dominio sin determinar a que nivel de influencia sobre el posicionamiento Rasgos de los algoritmos de busquedaRasgos publicos Entiendase por estos a los que son de indole declarada por los administradores o creadores de dicho algoritmo por ejemplo podemos saber que el algoritmo de Google tienes ciertos aspectos tecnicos que penalizan ciertos accionares de los administradores web o redactores de contenido Un ejemplo practico es Google Panda que tiene como principal objetivo eliminar contenido copiado duplicado o irrelevante por ser considerado Spam Web tambien llamado Spam SEO Google Penguin en cambio busca las caracteristicas tecnicas de las paginas web como por ejemplo tiempos de carga optimizacion de imagenes enlaces danados etc Tambien ve un factor humano importante para el Seo como es porcentaje de rebote de una pagina web Rasgos privados Son aquellos que son mantenidos en secretos por los creadores o administradores de dicho contenido esto es para que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web Rasgos sospechados Son aquellos rasgos secretos discernidos en la practica misma de la actividad los mismos no son de caracter oficial pero al hacer la practica de optimizacion de una pagina web para motores de busqueda se ven ciertas caracteristicas de estos algoritmos por ejemplo se ha descubierto que a pesar de todo lo dicho por los creadores lo mas importante para los algoritmos de busqueda es la creacion de contenido relevante fresco y necesario Linkbuilding Diagrama que representa el linkbuilding Linkbuilding o construccion de enlaces es una tecnica de SEO que consiste en conseguir que otras paginas web enlacen a la pagina que interesa que los buscadores consideren relevante y la posicionen mejor en sus rankings La tecnica puede hacerse de manera natural cuando otras webs enlazan sin previo acuerdo por algun hecho o dicho o bien de manera artificial cuando se simula que los enlaces se han conseguido de manera natural Conseguir enlaces de forma artificial linkbuilding es una tecnica que infringe las directrices para webmasters de Google Esta considerada una practica blackhat y puede conllevar la perdida de posiciones de una web por penalizacion por enlaces Esta se basa en el concepto de que uno de los factores que se incluyen dentro de la evaluacion del ranking de una pagina es la cantidad de enlaces entrantes que tiene una pagina concepto basado en el hecho de que el numero de enlaces entrantes constituia uno de los factores evaluados en PageRank en 1999 por Google 17 Las ventajas son Posibilidad de medir la demanda y cantidad de personas que estan buscando a traves de una palabra clave Efectividad del posicionamiento Posicionamiento de la marca o brandingTecnicas Alta en directorios consiste en dar de alta la web en diferentes directorios ya sean generales o tematicos Significa introducir los enlaces en directorios relevantes y escoger la categoria que mejor se adapte a la pagina Desde 2013 Google no toma en cuenta los directorios cita requerida lo que ha inutilizado esta estrategia Directorios de articulos consiste en escribir articulos para publicarlos en directorios que a cambio del contenido permiten incluir enlaces hacia una web Bookmarking se trata de guardar aquello que interesa posicionar en los buscadores en los diferentes webs de bookmarking aclaracion requerida Link baiting es una de las tecnicas mas valorada por los buscadores pero una de las mas dificiles de conseguir ya que solo se consiguen cientos de enlaces a un articulo si este realmente aporta valor Intercambio de enlaces una buena forma de conseguir enlaces y una de las primeras que se empezaron a utilizar Tambien hay muchos tipos de intercambios y servicios Compra de enlaces Mas efectiva que el intercambio de enlaces pero tambien mas cara Segun la politica oficial de Google esta forma de conseguir enlaces es penalizable cita requerida Enlaces desde foros Otra forma para construir enlaces es de foros agregando el enlace o link desde la firma del foro Otras tecnicas envio de enlaces a blogs a redes sociales escribir revisiones notas de prensa entre otros Tiempo En promedio 1 5 horas cita requerida se utiliza para realizar linkbuilding Sin embargo esto depende de la capacidad del proyecto en todo caso se quien recomienda siempre tener un comportamiento natural ya que el buscador es pueden sospechar de estrategias black hat SEO utilizadas para obtener mayor cantidad de enlaces no naturales en menor tiempo lo que conlleva a una penalizacion por parte del buscador hacia la web que realiza estas tecnicas Comentarios en articulos otra forma no menos importante es la de generar backlinks desde comentarios de articulos es tambien una de las formas mas faciles de conseguir enlaces Google da prioridad a los enlaces que hay en los comentarios de alguna entrada cita requerida y los reconoce como un backlink valido cita requerida Los comentarios en articulos siempre son aprobados o rechazados por un webmaster Compra de enlaces los enlaces de pago o bolsa de enlaces son utilizados por gran cantidad de expertos en SEO y webmaster con el fin de ahorrarse tiempo buscando ellos mismos los enlaces hacia sus sitios Muchos sitios en linea se dedican a la venta de enlaces con alto PageRank Google por su parte considera esta tecnica como black hat SEO tambien y por ende penaliza a quienes lo hacen cita requerida Tipos de enlaces Tipos de linkbuilding Comentarios en blogs Firmas de perfil en foros Conseguir un enlace desde otro blog Intercambio de enlaces entre webmasters Compra de enlacesPosicionamiento y la evolucion de los resultados de busquedaAlgunas de estas nuevas tecnologias son Busquedas universales Desde mayo de 2017 18 las paginas de resultados de busquedas muestran resultados combinando busquedas organicas con imagenes videos blogs resultados locales comunicados de prensa libros o productos Esto es especialmente importante para el contenido vertical de un sitio web en un tema especificoBusquedas personalizadasLos distintos motores de busqueda como Google Yahoo Yandex o Baidu han lanzado varias caracteristicas que permite a los buscadores la facilidad de mostrar contenido relacionado con las acciones anteriores del usuario en el buscador Cada usuario con el tiempo ira mejorando su perfil de busqueda personalizada donde los enlaces y paginas visitados iran adquiriendo mas importancia que los no visitados Esto en cierta manera dificulta el posicionamiento tradicional ya que es muy complicado predecir los gustos personales de cada usuario y dificulta el averiguar que esta viendo realmente el usuario en su pantalla Los resultados tambien vienen condicionados por la localizacion de la busqueda es comun encontrarselo por su termino ingles geotargeting enfocado a las busquedas locales o nacionales que son una parte muy significativa del trafico Su funcion es ofrecer resultados especificos del pais o de la ciudad del usuario Busquedas en tiempo real Esta caracteristica provee la facilidad de enlazar los resultados de una busqueda con sitios web que proveen contenido en tiempo real desde Twitter Myspace o Facebook Es probable que la lista que provea los contenidos de tiempo real crezca con el tiempo a medida que se incorporen diferente fuentes y acuerdos Los buscadores permiten seleccionar el contenido creado en funcion de su fecha con lo que el mas reciente dependiendo del tema puede generar mas trafico Busquedas sociales Aparece en las busquedas finales del 2009 y provee en las paginas de resultados de busqueda contenido proveniente de las redes sociales que han sido suscritos en el perfil de usuario Estos contenidos solo son obtenidos de la red de contactos que un usuario posee en la red social relevantes con las palabras claves usadas en la busqueda Actualmente Google lo incorpora como Google y su vinculacion mas importante con el SEO es Google Authorship Busquedas locales El posicionamiento se busca a traves de referencias solidas tanto locales como nacionales que permitan a los diferentes buscadores determinar la localizacion exacta de esa web para que estos puedan ofrecer los resultados locales correctos los usuarios locales o nacionales Sobre este punto cabe destacar las recomendaciones de Google en relacion a la internacionalizacion de las paginas web 19 Posicionamiento en GoogleA medida que avanza la comprension de los que los usuarios desean encontrar en el buscador y lo que los webmasters ofrecen Google ha ido actualizando 20 su algoritmo a lo largo del tiempo lo que a su vez ha podido afectar al posicionamiento de todos los sitios en Internet sea cual sea su tematica o sector 2013 Google ha llevado a cabo algunos cambios en la documentacion de ayuda para los webmasters especialmente en lo que a ranking se refiere Hasta el 27 de mayo de 2013 decia In general webmasters can improve the rank of their sites by increasing the number of high quality sites that link to their pages En general los webmasters pueden mejorar el ranking de sus sitios aumentando el numero de sitios de alta calidad que enlazan en sus paginas Tras los cambios paso a decir In general webmasters can improve the rank of their sites by creating high quality sites that users will want to use and share En general los webmasters pueden mejorar el ranking de sus sitios creando sitios de alta calidad que los usuarios quieran utilizar y compartir 21 Este cambio es consistente con lo que Google quiere de los administradores de sitios web menos linkbuilding y mas calidad y toma en cuenta el factor de interaccion de las personas con el contenido propio de cada pagina Dentro de estos factores destacan el tiempo de permanencia en el sitio web el porcentaje de rebote los comentarios que se realizan en la pagina y las veces que se comparten en las redes sociales Cabe mencionar las herramientas proporcionadas por Google y Bing etc como Herramientas de Webmaster de Google y Google Analytics gratuita y de pago 2014 El 20 de mayo de 2014 Google actualizo el algoritmo de su buscador especificamente el Panda a Panda 4 0 22 con lo que empresas reconocidas del sector como PRWeb com BusinessWire com etc vieron reducidas sus posiciones en el buscador debido a la actualizacion mencionada 2016 En 2016 Google incorpora el proyecto AMP 23 o paginas aceleradas moviles Es una iniciativa open source con objetivo de que el usuario acceda al contenido de una manera mas rapida y sencilla de manera casi instantanea evitando demoras en la carga de los sitios web Implementar AMP en un portal tiene un impacto positivo en el posicionamiento web para busquedas moviles 24 El 4 de noviembre de 2016 Google mediante un comunicado oficial indico que indexaria los contenidos dando prioridad a las webs para moviles frente a las desktop por lo que la utilizacion de AMP tambien afecta los resultados para las busquedas en desktop 25 Vease tambienBuscador vertical Mercadotecnia en Internet Pagina de resultados del buscador Pago por clic Penalizacion en motores de busqueda Publicidad en Internet Publicidad contextual Rich snippets Wikimarketing Palabra clave motor de busqueda Referencias Knobl Esteban Guia de SEO para negocios B2B Consultado el 10 de septiembre de 2018 Danny Sullivan 14 de junio de 2004 Who Invented the Term Search Engine Optimization en ingles Search Engine Watch Archivado desde el original el 23 de abril de 2010 Consultado el 14 de mayo de 2007 Cory Doctorow 26 de agosto de 2001 Metacrap Putting the torch to seven straw men of the meta utopia e LearningGuru Archivado desde el original el 9 de abril de 2007 Consultado el 8 de mayo de 2007 Pringle G Allison L and Dowe D abril de 1998 What is a tall poppy among web pages Proc 7th Int World Wide Web Conference Consultado el 8 de mayo de 2007 Text links and PageRank Como usar rel nofollow para enlaces especificos Consultado el 10 de febrero de 2019 Google recommend the use of nofollow internally as a positive method for controlling the flow of internal link Google Maybe Changes How the PageRank Algorithm Handles Nofollow Ofuscando enlaces con JavaScript Base64 para mejorar Link Juice 8 de marzo de 2017 Consultado el 10 de febrero de 2019 Cavaller Victor Pedraza Rafael Codina Lluis Sanchez Anon Silvia 27 de junio de 2014 Estrategias y gestion de la comunicacion online y offline Editorial UOC p 71 ISBN 9788490642931 Aubry Christophe 2011 WordPress 3 un CMS para crear tu propio web Ediciones ENI p 338 ISBN 9782746068490 Google Guia para webmasters de Google Webmaster Guidelines Bing Webmaster Tools www bing com Consultado el 1 de septiembre de 2015 Finding more mobile friendly search results Consultado el 31 de enero de 2016 Ayudan los certificados SSL a la posicion de una pagina en motores de busqueda Posicionamiento Consultado el 12 de febrero de 2016 Cambio en el algoritmo de Google What Is Link Building amp Why Is It Important Beginner s Guide to Link Building Consultado el 1 de septiembre de 2015 Marissa Mayer Busqueda universal la mejor respuesta sigue siendo la mejor respuesta Consultado el 20 de febrero de 2018 Google Webmaster Internacionalizacion Consultado el 18 de enero de 2013 norfiPC Fechas de los ultimos cambios en el algoritmo de busquedas de Google Consultado el 31 de octubre de 2016 Google Changes Ranking Advice Says Build Quality Sites Not Links Consultado el 7 de marzo de 2016 Sitios de prensa afectados por Panda 4 0 articulo de Search Engine Land 29 de mayo de 2014 Sitio de AMP Project AMP Project en ingles Que es AMP y como afecta al SEO Softalian Consultado el 12 de enero de 2017 Mobile first Indexing Official Google Webmaster Central Blog en ingles estadounidense Consultado el 17 de agosto de 2018 Enlaces externosGuia para principiantes sobre optimizacion para motores de busqueda de Google en PDF Guia de Google para optimizacion de sitios web para dispositivos moviles Directrices para webmasters de Google Directrices para webmasters de Bing en ingles Yahoo Directrices de contenido de calidad de Yahoo en ingles Sitios de calidad baja segun Yandex en ingles Blog Central de Google para Webmasters en Ingles Blog para Webmasters en Espanol Datos Q180711 Multimedia SEOObtenido de https es wikipedia org w index php title Posicionamiento en buscadores amp oldid 137145220, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos