Toda la información
Posicionamiento Web/SEO
El posicionamiento web/SEO es conseguir que una web aparezca en los primeros resultados de los buscadores web cuando alguien realiza una búsqueda de algo relacionado con dicha web.
Para conseguir ese posicionamiento web/SEO hay que centrarse básicamente en dos pilares fundamentales:
- Un buen contenido.
- Enlaces externos o backlinks de calidad apuntando hacia la web que se quiere posicionar.
Para la creación o redacción de buen contenido le aconsejamos que siga estas instrucciones:
En cuanto a la construcción de enlaces externos hacia su web, estamos aquí para ser el aliado de una buena estrategia de Link Building, y así pueda obtener backlinks de calidad al mejor precio:
El posicionamiento web en motores de búsqueda es el proceso de mejorar la visibilidad de un sitio web en los resultados orgánicos de los diferentes buscadores. También es frecuente nombrarlo por su título inglés, SEO (Search Engine Optimization):
Información completa sobre el Link Building:
Posicionamiento web/SEO por zonas:
¿Qué es el posicionamiento web/SEO de una página?
El objetivo de cada sitio de Internet o de una página web es aparecer entre los primeros resultados de búsqueda de forma orgánica/natural y gratuita.
Estos resultados se activan mediante el registro o la «indexación» y el rastreo que realizan las robots de Google, Bing o Yahoo. Al recorrer billones de opciones, buscan resolver la necesidad del usuario. Este usuario o prospecto, es quien teclea unas palabras clave en el campo de búsqueda, da un clic y espera las respuestas a sus dudas.
Las respuestas más relevantes son las que aparecen en los primeros lugares gracias a su posicionamiento web.
- ¿Qué es SEO o Posicionamiento Orgánico?
- ¿Cómo posicionan una web los buscadores?
- Posicionamiento web de pago: SEM
- ¿Por qué debes hacer SEO?
- Herramientas para medir el SEO
- ¿Qué es el posicionamiento SEO?
- Tipos de posicionamiento web: SEO on-page y SEO off-page
- ¿Qué factores de SEO on page tiene en cuenta Google?
- ¿Cómo funciona el posicionamiento en buscadores?
- ¿Por qué es tan importante el SEO para una página web?
- 9 claves para mejorar el posicionamiento SEO de una web
- ¿Por qué es importante mejorar el posicionamiento SEO?
- Posicionamiento web: SEO on-page y SEO off-page
- 16 claves de posicionamiento web
- Herramientas para impulsar tu posicionamiento SEO
- ¿Qué es el posicionamiento SEO en marketing digital?
- ¿Cómo funciona el posicionamiento SEO?
- ¿Cuáles son las ventajas del SEO?
- Técnicas de Optimización Web
¿Cómo mejorar tu posicionamiento web?
Conoce a tus usuarios
Lo primero es saber a quién te diriges. Cada público consume la información de forma diferente.
Para saber qué busca la gente puedes apoyarte en de las herramientas de búsquedas de Google, Google Keyword Tool y Google Trends.
No todo te lo da una sola herramienta. Tus contenidos resuelven necesidades, busca cuáles son, de qué formas pueden expresarse. Crea contenido específico que explique cómo resolver estas necesidades.
En concreto: Descubre qué necesidades satisfaces, cómo las buscan, qué competencia tienes. Conviértete en la marca que querrían ver los usuarios para resolver sus dudas.
Puedes ayudarte creando personas o tus clientes ideales para que sea más sencillo personalizar el contenido. Crea perfiles para los diferentes tipos de usuarios que puedas tener y que visiten tu sitio.
Escribe sobre lo que buscan tus lectores en el buscador
Esta es una de las prácticas más relevantes dentro del SEO correcto, y se trata de poner en marcha una buena estrategia de contenido. Consiste en escribir sobre lo que hablan/buscan los usuarios a los que quieres llegar en Google. Ello no garantiza aparecer antes en los resultados y llegar a las personas adecuadas. Sin embargo, es la base de toda estrategia de SEO para obtener un buen posicionamiento web.
Intención de búsqueda y el posicionamiento web
Este punto está relacionado con fijarte en la intención de búsqueda del usuario. Sin embargo, no solo es importante ofrecer aquello que el lector está buscando, sino que las respuestas sean de calidad.
Es importante en dos sentidos: primero que cuando Google te rastree identifique que tu contenido es relevante, original e interesante. En segundo término, que sea lo que tu público objetivo está buscando.
De este modo, el usuario se sentirá agradecido de haberte encontrado en su búsqueda y leerá tu contenido. Esto también hará que pase tiempo en tu web e interactúe con ella realizando alguna acción como solicitar más información. Este, al fin y al cabo, debe ser el objetivo de dicho contenido web. Por ello es importante aparecer en las primeras posiciones.
Además, un buen contenido te ayudará a que se comparta en redes sociales y conseguir backlinks de calidad hacia tu web.
Incentiva a los usuarios a interactuar con tu página
¿Cómo consigues esto? La clave para que los usuarios interactúen con tu página es ofrecer aquel contenido que ellos están buscando. Además, que sea de calidad, les aporte valor y aprendizaje. Este concepto lo enfatizo mucho porque es la base de la democratización que promueve Google.
Si consigues esto, incentivas a los usuarios a que puedan resolver aquellas dudas que tengan y comentar sobre el contenido. Haz que el usuario se siente partícipe y tendrá más motivos para aportar su granito de arena.
Opiniones o comentarios
La sección de opiniones, reseñas o el clásico “deja un comentario” pueden convertirse en el escenario que propicie el debate. ¡Ideal para compartir ideas con tu público objetivo!
Si nadie comenta, puedes ser tú mismo el que inicie la conversación, provocando a la participación de los lectores. Eso sí, para ello debes avisar a lo largo del post o al final que puedan compartir sus impresiones con total libertad. De lo contrario, esta sección podría pasar desapercibida.
Otra forma de incentivar esta interacción es concluir con una pregunta abierta, que sea ligeramente polémica. Así, cualquier usuario puede sentir el interés de responder con facilidad.
Recuerda que si el comentario es o no de tu agrado, no debes borrarlo. Al contrario, responde con amabilidad y agradece la participación.
De este modo, harás sentir a tus lectores parte de la comunidad.
Utiliza tu Blog para tu posicionamiento web
Tu Blog es una herramienta genial para crear contenido que atraiga a Google. Además de esto te brinda otras ventajas como:
Generar enlaces
Si generas un contenido fácil de compartir, los usuarios lo compartirán, links incluidos, lo que beneficiará tu dominio. No todo es que el contenido sea bueno. También ayuda que tu Blog sea una fuente fiable y respetada.
Crear relaciones
Es tan sencillo como enlazar a páginas de terceros. Millones de personas están generando contenido valioso sobre diferentes temas. Seguramente alguno de ellos ha creado un recurso que complementa tu post a la perfección: Enlázalo. Luego, si es posible, menciónalo en Twitter, para que sepan que hablas de ellos y te enlacen de regreso.
Reforzar tu marca
Cuida el aspecto estético de tu Blog para que refuerce la identidad de tu empresa o la tuya propia. Utiliza los laterales, el header y el footer para cumplir tus objetivos de Branding o marca.
Cuida aspectos como la paleta de colores, las imágenes y que todos los elementos estén traducidos.
Profundiza en Redes Sociales
El posicionamiento web natural depende en gran parte de la repercusión que obtengas en redes sociales. Esto principalmente porque te permite establecer relaciones que son un factor de posicionamiento web en sí mismo. Estas confirman el perfil de los links y te da visibilidad y construye marca.
No vas a conseguir links si nadie sabe de ti y si tu contenido no tiene una marca a la que sea seguro enlazar.
Y no te quedes en Instagram, Twitter o Facebook: redes como LinkedIn o TikTok pueden ser muy útiles, depende para qué sectores y qué marcas. Incluso los Blogs y foros de nicho pueden ser herramientas estupendas, aunque requieran más investigación.
Te generarán visibilidad en tu target específico y serán fundamentales para captar tus primeros seguidores. No te olvides de ellos.
Además, no olvides los botones de CTA en el interior de tus publicaciones para incentivar la descarga de ebooks relacionados con el tema. También crea enlaces a otros artículos relacionados al final de cada artículo publicado.
Solo indexa lo que quieras posicionar
Un error muy común de todos los sitios web es tener por defecto en el index de Google con el mismo «Desricption Tag«. (la metaetiqueta que permite a Google indexar nuestro contenido)
Tienes que poner todo lo que no quieres rankear en los buscadores en no index. De ese modo, evitas que Googlebot (el robot de Google) pierda el tiempo en páginas que no son de interés.
Estas páginas en no index tradicionalmente deben ser las típicas de «Contacto» o «Política de privacidad».
Porque… ¿crees que alguien va a llegar a tu web desde Google introduciendo esas palabras?
Para cada término que deseas posicionar en tu sitio web, debes crear una página.
¿Qué es el SEO?
El posicionamiento web en motores de búsqueda es el proceso de mejorar la visibilidad de un sitio web en los resultados orgánicos de los diferentes buscadores. También es frecuente nombrarlo por su título inglés, SEO (Search Engine Optimization).
La optimización de motores de búsqueda (SEO) es el proceso de mejorar la calidad y la cantidad del tráfico del sitio web a un sitio web o una página web desde los motores de búsqueda. El SEO se enfoca en el tráfico no pagado (conocido como resultados «naturales» u «orgánicos») en lugar del tráfico directo o el tráfico pagado. El tráfico no pagado puede originarse en diferentes tipos de búsquedas, incluida la búsqueda de imágenes, la búsqueda de videos, la búsqueda académica, la búsqueda de noticias y los motores de búsqueda verticales específicos de la industria.
Como estrategia de marketing en Internet, el SEO considera cómo funcionan los motores de búsqueda, los algoritmos programados por computadora que dictan el comportamiento del motor de búsqueda, lo que buscan las personas, los términos de búsqueda reales o las palabras clave ingresadas en los motores de búsqueda y qué motores de búsqueda son los preferidos por su público objetivo. El SEO se realiza porque un sitio web recibirá más visitantes de un motor de búsqueda cuando los sitios web obtengan una clasificación más alta en la página de resultados del motor de búsqueda (SERP). Estos visitantes pueden convertirse potencialmente en clientes.
Historia del SEO
Los webmasters y los proveedores de contenido comenzaron a optimizar los sitios web para los motores de búsqueda a mediados de la década de 1990, cuando los primeros motores de búsqueda catalogaban la Web inicial. Inicialmente, todos los webmasters solo necesitaban enviar la dirección de una página, o URL, a los diversos motores, que enviaban un rastreador web para rastrear esa página, extraer enlaces a otras páginas y devolver la información encontrada en la página para ser indexado. El proceso implica que una araña del motor de búsqueda descargue una página y la almacene en el propio servidor del motor de búsqueda. Un segundo programa, conocido como indexador, extrae información sobre la página, como las palabras que contiene, dónde se encuentran y el peso de palabras específicas, así como todos los enlaces que contiene la página. Luego, toda esta información se coloca en un programador para rastrearla en una fecha posterior.
Los propietarios de sitios web reconocieron el valor de una alta clasificación y visibilidad en los resultados de los motores de búsqueda, creando una oportunidad tanto para los practicantes de SEO de sombrero blanco como de sombrero negro. Según el analista de la industria Danny Sullivan, la frase «optimización de motores de búsqueda» probablemente comenzó a usarse en 1997. Sullivan acredita a Bruce Clay como una de las primeras personas en popularizar el término.
Las primeras versiones de los algoritmos de búsqueda se basaban en la información proporcionada por el webmaster, como la metaetiqueta de palabras clave o los archivos de índice en motores como ALIWEB. Las metaetiquetas proporcionan una guía para el contenido de cada página. Sin embargo, se encontró que el uso de metadatos para indexar páginas no era confiable, ya que la elección de palabras clave por parte del webmaster en la etiqueta meta podría ser una representación inexacta del contenido real del sitio. Los datos defectuosos en las metaetiquetas, como aquellos que no eran precisos, completos o con atributos falsos, crearon la posibilidad de que las páginas se caracterizaran erróneamente en búsquedas irrelevantes. Los proveedores de contenido web también manipularon algunos atributos dentro del HTML fuente de una página en un intento de posicionarse bien en los motores de búsqueda. En 1997, los diseñadores de motores de búsqueda reconocieron que los webmasters se esforzaban por posicionarse bien en su motor de búsqueda y que algunos webmasters incluso manipulaban sus clasificaciones en los resultados de búsqueda llenando las páginas con palabras clave excesivas o irrelevantes. Los primeros motores de búsqueda, como Altavista e Infoseek, ajustaron sus algoritmos para evitar que los webmasters manipularan las clasificaciones.
Al depender en gran medida de factores como la densidad de palabras clave, que estaban exclusivamente bajo el control de un webmaster, los primeros motores de búsqueda sufrieron abusos y manipulación de clasificación. Para proporcionar mejores resultados a sus usuarios, los motores de búsqueda tuvieron que adaptarse para garantizar que sus páginas de resultados mostraran los resultados de búsqueda más relevantes, en lugar de páginas no relacionadas llenas de numerosas palabras clave por webmasters sin escrúpulos. Esto significó alejarse de la fuerte dependencia de la densidad de términos a un proceso más holístico para calificar las señales semánticas.[11] Dado que el éxito y la popularidad de un motor de búsqueda están determinados por su capacidad para producir los resultados más relevantes para cualquier búsqueda determinada, los resultados de búsqueda irrelevantes o de baja calidad pueden llevar a los usuarios a buscar otras fuentes de búsqueda. Los motores de búsqueda respondieron desarrollando algoritmos de clasificación más complejos, teniendo en cuenta factores adicionales que eran más difíciles de manipular para los webmasters.
Las empresas que emplean técnicas demasiado agresivas pueden hacer que los sitios web de sus clientes sean excluidos de los resultados de búsqueda. En 2005, el Wall Street Journal informó sobre una empresa, Traffic Power, que presuntamente utilizó técnicas de alto riesgo y no reveló esos riesgos a sus clientes. La revista Wired informó que la misma empresa demandó al bloguero y SEO Aaron Wall por escribir sobre la prohibición. Matt Cutts de Google confirmó más tarde que Google, de hecho, prohibió Traffic Power y algunos de sus clientes.
Algunos motores de búsqueda también se han acercado a la industria de SEO y son patrocinadores e invitados frecuentes en conferencias, chats web y seminarios de SEO. Los principales motores de búsqueda brindan información y pautas para ayudar con la optimización del sitio web. Google tiene un programa Sitemaps para ayudar a los webmasters a saber si Google tiene problemas para indexar su sitio web y también proporciona datos sobre el tráfico de Google al sitio web. Las Herramientas para webmasters de Bing proporcionan una manera para que los webmasters envíen un mapa del sitio y fuentes web, permite a los usuarios determinar la «frecuencia de rastreo» y realizar un seguimiento del estado del índice de las páginas web.
En 2015, se informó que Google estaba desarrollando y promocionando la búsqueda móvil como una característica clave dentro de los productos futuros. En respuesta, muchas marcas comenzaron a adoptar un enfoque diferente en sus estrategias de marketing en Internet.
Relación con Google
En 1998, dos estudiantes graduados de la Universidad de Stanford, Larry Page y Sergey Brin, desarrollaron «Backrub», un motor de búsqueda que se basaba en un algoritmo matemático para calificar la prominencia de las páginas web. El número calculado por el algoritmo, PageRank, es una función de la cantidad y la fuerza de los enlaces entrantes. PageRank estima la probabilidad de que un usuario de la web llegue a una página determinada que navegue aleatoriamente por la web y sigue enlaces de una página a otra. En efecto, esto significa que algunos enlaces son más fuertes que otros, ya que es más probable que un internauta aleatorio llegue a una página de mayor PageRank.
Page y Brin fundaron Google en 1998. Google atrajo seguidores leales entre el creciente número de usuarios de Internet, a quienes les gustó su diseño simple. Se consideraron los factores fuera de la página (como el PageRank y el análisis de hipervínculos), así como los factores dentro de la página (como la frecuencia de las palabras clave, las metaetiquetas, los encabezados, los enlaces y la estructura del sitio) para permitir que Google evite el tipo de manipulación que se ve en los motores de búsqueda. que solo consideraba factores en la página para sus clasificaciones. Aunque PageRank era más difícil de jugar, los webmasters ya habían desarrollado herramientas y esquemas de creación de enlaces para influir en el motor de búsqueda Inktomi, y estos métodos demostraron ser igualmente aplicables a los juegos de PageRank. Muchos sitios se enfocan en intercambiar, comprar y vender enlaces, a menudo a gran escala. Algunos de estos esquemas, o granjas de enlaces, involucraron la creación de miles de sitios con el único propósito de enviar spam de enlaces.
Para 2004, los motores de búsqueda habían incorporado una amplia gama de factores no revelados en sus algoritmos de clasificación para reducir el impacto de la manipulación de enlaces. En junio de 2007, Saul Hansell de The New York Times declaró que Google clasifica los sitios utilizando más de 200 señales diferentes. Los principales motores de búsqueda, Google, Bing y Yahoo, no revelan los algoritmos que utilizan para clasificar las páginas. Algunos profesionales de SEO han estudiado diferentes enfoques para la optimización de motores de búsqueda y han compartido sus opiniones personales. Las patentes relacionadas con los motores de búsqueda pueden proporcionar información para comprender mejor los motores de búsqueda. En 2005, Google comenzó a personalizar los resultados de búsqueda para cada usuario. Dependiendo de su historial de búsquedas anteriores, Google elaboró resultados para los usuarios registrados.
En 2007, Google anunció una campaña contra los enlaces pagos que transfieren PageRank. El 15 de junio de 2009, Google reveló que había tomado medidas para mitigar los efectos de la escultura de PageRank mediante el uso del atributo nofollow en los enlaces. Matt Cutts, un conocido ingeniero de software de Google, anunció que Google Bot ya no trataría los enlaces sin seguimiento de la misma manera, para evitar que los proveedores de servicios de SEO utilicen nofollow para esculpir el PageRank. Como resultado de este cambio, el uso de nofollow condujo a la evaporación de PageRank. Para evitar lo anterior, los ingenieros de SEO desarrollaron técnicas alternativas que reemplazan las etiquetas nofollowed con JavaScript ofuscado y, por lo tanto, permiten esculpir PageRank. Además, se han sugerido varias soluciones que incluyen el uso de iframes, Flash y JavaScript.
En diciembre de 2009, Google anunció que utilizaría el historial de búsqueda web de todos sus usuarios para completar los resultados de búsqueda. El 8 de junio de 2010 se anunció un nuevo sistema de indexación web llamado Google Caffeine. Diseñado para permitir a los usuarios encontrar resultados de noticias, publicaciones en foros y otro contenido mucho antes después de la publicación, Google Caffeine fue un cambio en la forma en que Google actualizó su índice para que las cosas aparecieran más rápido que antes en Google. Según Carrie Grimes, la ingeniera de software que anunció Caffeine para Google, «Caffeine proporciona resultados un 50 % más actualizados para las búsquedas web que nuestro último índice…»Google Instant, búsqueda en tiempo real, se introdujo a finales de 2010 en un intento de hacer que los resultados de la búsqueda sean más oportunos y relevantes. Históricamente, los administradores de sitios han pasado meses o incluso años optimizando un sitio web para aumentar las clasificaciones de búsqueda. Con el aumento de la popularidad de los sitios de redes sociales y los blogs, los motores líderes realizaron cambios en sus algoritmos para permitir que el contenido nuevo se clasificara rápidamente en los resultados de búsqueda.
En febrero de 2011, Google anunció la actualización Panda, que penaliza los sitios web que contienen contenido duplicado de otros sitios web y fuentes. Históricamente, los sitios web han copiado contenido unos de otros y se han beneficiado en las clasificaciones de los motores de búsqueda al participar en esta práctica. Sin embargo, Google implementó un nuevo sistema que castiga a los sitios cuyo contenido no es único. El Google Penguin de 2012 intentó penalizar a los sitios web que usaban técnicas de manipulación para mejorar su clasificación en el motor de búsqueda. Aunque Google Penguin se ha presentado como un algoritmo destinado a combatir el spam web, en realidad se centra en los enlaces de spam midiendo la calidad de los sitios de los que provienen los enlaces. La actualización de Google Hummingbird de 2013 presentó un cambio de algoritmo diseñado para mejorar el procesamiento del lenguaje natural de Google y la comprensión semántica de las páginas web. El sistema de procesamiento de lenguaje de Hummingbird se incluye en el término recientemente reconocido de «búsqueda conversacional», donde el sistema presta más atención a cada palabra de la consulta para hacer coincidir mejor las páginas con el significado de la consulta en lugar de unas pocas palabras. Con respecto a los cambios realizados en la optimización de motores de búsqueda, para editores y escritores de contenido, Hummingbird tiene como objetivo resolver problemas al obtener deshacerse del contenido irrelevante y el spam, lo que permite a Google producir contenido de alta calidad y depender de ellos como autores «de confianza».
En octubre de 2019, Google anunció que comenzaría a aplicar modelos BERT para consultas de búsqueda en inglés en EE. UU. Las representaciones de codificador bidireccional de Transformers (BERT) fueron otro intento de Google de mejorar su procesamiento de lenguaje natural, pero esta vez para comprender mejor las consultas de búsqueda de sus usuarios. En términos de optimización de motores de búsqueda, BERT pretendía conectar a los usuarios más fácilmente con contenido relevante y aumentar la calidad del tráfico que llega a los sitios web que se clasifican en la página de resultados del motor de búsqueda.
Métodos de SEO
Ser indexado
Los principales motores de búsqueda, como Google, Bing y Yahoo!, utilizan rastreadores para encontrar páginas para sus resultados de búsqueda algorítmicos. Las páginas que están vinculadas desde otras páginas indexadas en motores de búsqueda no necesitan enviarse porque se encuentran automáticamente. ¡Yahoo! Directory y DMOZ, dos directorios importantes que cerraron en 2014 y 2017 respectivamente, requerían presentación manual y revisión editorial humana. Google ofrece Google Search Console, para el cual se puede crear y enviar un feed XML Sitemap de forma gratuita para garantizar que se encuentren todas las páginas, especialmente las páginas que no se pueden encontrar siguiendo enlaces automáticamente además de su consola de envío de URL. Yahoo! anteriormente operaba un servicio de envío pagado que garantizaba el rastreo por un costo por clic; sin embargo, esta práctica se suspendió en 2009.
Los rastreadores de los motores de búsqueda pueden observar una serie de factores diferentes al rastrear un sitio. No todas las páginas están indexadas por los motores de búsqueda. La distancia de las páginas desde el directorio raíz de un sitio también puede ser un factor en si las páginas se rastrean o no.
Hoy en día, la mayoría de las personas realizan búsquedas en Google mediante un dispositivo móvil. En noviembre de 2016, Google anunció un cambio importante en la forma en que rastrea los sitios web y comenzó a hacer que su índice sea primero móvil, lo que significa que la versión móvil de un sitio web determinado se convierte en el punto de partida de lo que Google incluye en su índice. En mayo de 2019, Google actualizó el motor de renderizado de su rastreador a la última versión de Chromium (74 en el momento del anuncio). Google indicó que actualizaría regularmente el motor de renderizado Chromium a la última versión. En diciembre de 2019, Google comenzó a actualizar la cadena User-Agent de su rastreador para reflejar la última versión de Chrome utilizada por su servicio de representación. El retraso fue para permitir que los webmasters tuvieran tiempo de actualizar su código que respondía a determinadas cadenas de User-Agent de bot. Google realizó evaluaciones y confiaba en que el impacto sería menor.
Prevención del rastreo
Para evitar contenido no deseado en los índices de búsqueda, los webmasters pueden indicar a las arañas que no rastreen ciertos archivos o directorios a través del archivo robots.txt estándar en el directorio raíz del dominio. Además, una página se puede excluir explícitamente de la base de datos de un motor de búsqueda mediante el uso de una etiqueta meta específica para robots (generalmente <meta name=»robots» content=»noindex»> ). Cuando un motor de búsqueda visita un sitio, el archivo robots.txt ubicado en el directorio raíz es el primer archivo rastreado. Luego, el archivo robots.txt se analiza e indicará al robot qué páginas no se deben rastrear. Dado que el rastreador de un motor de búsqueda puede mantener una copia en caché de este archivo, en ocasiones puede rastrear páginas que un webmaster no desea rastrear. Las páginas que generalmente se impiden rastrear incluyen páginas específicas de inicio de sesión, como carritos de compras y contenido específico del usuario, como resultados de búsqueda de búsquedas internas. En marzo de 2007, Google advirtió a los webmasters que deberían evitar la indexación de los resultados de búsqueda internos porque esas páginas se consideran spam de búsqueda.[47] En 2020, Google eliminó el estándar (y abrió su código) y ahora lo trata como una sugerencia, no como una directiva. Para garantizar adecuadamente que las páginas no se indexen, se debe incluir una metaetiqueta de robot a nivel de página.
Protagonismo creciente
Una variedad de métodos pueden aumentar la prominencia de una página web dentro de los resultados de búsqueda. Los enlaces cruzados entre páginas del mismo sitio web para proporcionar más enlaces a páginas importantes pueden mejorar su visibilidad. El diseño de la página hace que los usuarios confíen en un sitio y quieran quedarse una vez que lo encuentran. Cuando las personas rebotan en un sitio, cuenta en contra del sitio y afecta su credibilidad. Escribir contenido que incluya frases de palabras clave buscadas con frecuencia para que sea relevante para una amplia variedad de consultas de búsqueda tenderá a aumentar el tráfico. Actualizar el contenido para que los motores de búsqueda vuelvan a rastrear con frecuencia puede dar peso adicional a un sitio. Agregar palabras clave relevantes a los metadatos de una página web, incluida la etiqueta del título y la meta descripción, tenderá a mejorar la relevancia de las listas de búsqueda de un sitio, aumentando así el tráfico. La canonicalización de URL de páginas web accesibles a través de varias URL, utilizando el elemento de enlace canónico o mediante redireccionamientos 301 puede ayudar a garantizar que los enlaces a diferentes versiones de la URL cuenten para el puntaje de popularidad de enlaces de la página. Estos se conocen como enlaces entrantes, que apuntan a la URL y pueden contar para el puntaje de popularidad del enlace de la página, lo que afecta la credibilidad de un sitio web.
Además, en los últimos tiempos, Google está dando más prioridad a los siguientes elementos para SERP (Posición en el ranking del motor de búsqueda).
Versión HTTPS (Sitio Seguro)
Velocidad de página
Datos estructurados
Compatibilidad móvil
AMP (Páginas móviles aceleradas)
BERT
Técnicas de sombrero blanco versus sombrero negro
Las técnicas de SEO se pueden clasificar en dos amplias categorías: técnicas que las empresas de motores de búsqueda recomiendan como parte del buen diseño («sombrero blanco»), y aquellas técnicas que los motores de búsqueda no aprueban («sombrero negro»). Los motores de búsqueda intentan minimizar el efecto de estos últimos, entre ellos el spamdexing. Los comentaristas de la industria han clasificado estos métodos y los profesionales que los emplean como SEO de sombrero blanco o SEO de sombrero negro. Los sombreros blancos tienden a producir resultados que duran mucho tiempo, mientras que los sombreros negros anticipan que sus sitios pueden ser prohibidos de manera temporal o permanente una vez que los motores de búsqueda descubren lo que están haciendo.
Una técnica de SEO se considera un sombrero blanco si se ajusta a las directrices de los motores de búsqueda y no implica engaños. Dado que las directrices del motor de búsqueda no están escritas como una serie de reglas o mandamientos, esta es una distinción importante a tener en cuenta. White hat SEO no se trata solo de seguir las pautas, sino de garantizar que el contenido que indexa un motor de búsqueda y, posteriormente, clasifica, es el mismo contenido que verá un usuario. Los consejos de sombrero blanco generalmente se resumen en la creación de contenido para los usuarios, no para los motores de búsqueda, y luego hacer que ese contenido sea fácilmente accesible para los algoritmos de «araña» en línea, en lugar de intentar engañar al algoritmo para que no cumpla su propósito. White hat SEO es similar en muchos aspectos al desarrollo web que promueve la accesibilidad, aunque los dos no son idénticos.
Black hat SEO intenta mejorar las clasificaciones de maneras que los motores de búsqueda desaprueban o implican engaño. Una técnica de sombrero negro utiliza texto oculto, ya sea como texto de color similar al fondo, en un div invisible o colocado fuera de la pantalla. Otro método ofrece una página diferente dependiendo de si la página la solicita un visitante humano o un motor de búsqueda, una técnica conocida como encubrimiento. Otra categoría que se utiliza a veces es el SEO de sombrero gris. Esto se encuentra entre los enfoques de sombrero negro y sombrero blanco, donde los métodos empleados evitan que el sitio sea penalizado pero no actúan para producir el mejor contenido para los usuarios. Grey hat SEO está completamente enfocado en mejorar la clasificación de los motores de búsqueda.
Los motores de búsqueda pueden penalizar los sitios que descubren utilizando métodos de sombrero negro o gris, ya sea reduciendo su clasificación o eliminando sus listados de sus bases de datos por completo. Tales penalizaciones pueden ser aplicadas automáticamente por los algoritmos de los motores de búsqueda o por una revisión manual del sitio. Un ejemplo fue la eliminación por parte de Google de BMW Alemania y Ricoh Alemania en febrero de 2006 por el uso de prácticas engañosas. Sin embargo, ambas empresas se disculparon rápidamente, arreglaron las páginas infractoras y fueron restauradas a la página de resultados del motor de búsqueda de Google.
El SEO como estrategia de marketing
El SEO no es una estrategia adecuada para todos los sitios web, y otras estrategias de marketing en Internet pueden ser más efectivas, como la publicidad paga a través de campañas de pago por clic (PPC), según los objetivos del operador del sitio. El marketing de motores de búsqueda (SEM) es la práctica de diseñar, ejecutar y optimizar campañas publicitarias de motores de búsqueda. Su diferencia con el SEO se representa más simplemente como la diferencia entre la clasificación de prioridad paga y no paga en los resultados de búsqueda. SEM se enfoca en la prominencia más que en la relevancia; Los desarrolladores de sitios web deben considerar SEM con la máxima importancia teniendo en cuenta la visibilidad, ya que la mayoría navega a los listados principales de su búsqueda. Una campaña de marketing en Internet exitosa también puede depender de la creación de páginas web de alta calidad para atraer y persuadir a los usuarios de Internet, establecer programas de análisis para permitir que los propietarios de sitios midan los resultados y mejorar la tasa de conversión de un sitio. En noviembre de 2015, Google lanzó al público una versión completa de 160 páginas de sus Pautas de calificación de calidad de búsqueda,[60] que reveló un cambio en su enfoque hacia la «utilidad» y la búsqueda local móvil. En los últimos años, el mercado móvil se ha disparado, superando el uso de computadoras de escritorio, como lo muestra StatCounter en octubre de 2016, donde analizaron 2,5 millones de sitios web y encontraron que el 51,3% de las páginas fueron cargadas por un dispositivo móvil. Google ha sido una de las empresas que está aprovechando la popularidad del uso de dispositivos móviles al animar a los sitios web a utilizar su consola de búsqueda de Google, la prueba de compatibilidad con dispositivos móviles, que permite a las empresas comparar su sitio web con los resultados del motor de búsqueda y determinar qué tan fácil de usar es. sus sitios web son. Cuanto más cerca estén las palabras clave, su clasificación mejorará en función de los términos clave.
El SEO puede generar un adecuado retorno de la inversión. Sin embargo, a los motores de búsqueda no se les paga por el tráfico de búsqueda orgánico, sus algoritmos cambian y no hay garantías de referencias continuas. Debido a esta falta de garantía e incertidumbre, una empresa que depende en gran medida del tráfico de los motores de búsqueda puede sufrir grandes pérdidas si los motores de búsqueda dejan de enviar visitantes. Los motores de búsqueda pueden cambiar sus algoritmos, lo que afecta la clasificación del motor de búsqueda de un sitio web, lo que posiblemente resulte en una pérdida grave de tráfico. Según el CEO de Google, Eric Schmidt, en 2010, Google realizó más de 500 cambios de algoritmo, casi 1,5 por día. Se considera una práctica empresarial sabia que los operadores de sitios web se liberen de la dependencia del tráfico de los motores de búsqueda. Además de la accesibilidad en términos de rastreadores web (tratados anteriormente), la accesibilidad web del usuario se ha vuelto cada vez más importante para el SEO.
El SEO en los mercados internacionales
Las técnicas de optimización están muy adaptadas a los motores de búsqueda dominantes en el mercado objetivo. Las cuotas de mercado de los motores de búsqueda varían de un mercado a otro, al igual que la competencia. En 2003, Danny Sullivan afirmó que Google representaba alrededor del 75 % de todas las búsquedas. En los mercados fuera de los Estados Unidos, la participación de Google suele ser mayor y Google sigue siendo el motor de búsqueda dominante en todo el mundo a partir de 2007. En 2006, Google tenía una cuota de mercado del 85 al 90 % en Alemania. Si bien había cientos de empresas de SEO en los EE. UU. en ese momento, solo había unas cinco en Alemania. En junio de 2008, la cuota de mercado de Google en el Reino Unido era cercana al 90% según Hitwise. Esa cuota de mercado se logra en varios países.
A partir de 2009, solo hay unos pocos mercados grandes en los que Google no es el motor de búsqueda líder. En la mayoría de los casos, cuando Google no lidera un mercado determinado, se está quedando atrás de un actor local. Los mercados de ejemplo más notables son China, Japón, Corea del Sur, Rusia y la República Checa, donde, respectivamente, Baidu, Yahoo! Japón, Naver, Yandex y Seznam son líderes del mercado.
La optimización de búsqueda exitosa para los mercados internacionales puede requerir la traducción profesional de páginas web, el registro de un nombre de dominio con un dominio de nivel superior en el mercado de destino y alojamiento web que proporcione una dirección IP local. De lo contrario, los elementos fundamentales de la optimización de búsqueda son esencialmente los mismos, independientemente del idioma.
Precedentes legales
El 17 de octubre de 2002, SearchKing presentó una demanda en el Tribunal de Distrito de los Estados Unidos, Distrito Oeste de Oklahoma, contra el motor de búsqueda Google. La afirmación de SearchKing fue que las tácticas de Google para evitar el spamdexing constituían una interferencia ilícita con las relaciones contractuales. El 27 de mayo de 2003, el tribunal concedió la moción de Google para desestimar la denuncia porque SearchKing «no presentó un reclamo sobre el cual se puede otorgar reparación».
En marzo de 2006, KinderStart presentó una demanda contra Google por la clasificación en los motores de búsqueda. El sitio web de KinderStart se eliminó del índice de Google antes de la demanda y la cantidad de tráfico al sitio se redujo en un 70%. El 16 de marzo de 2007, el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California (División de San José) desestimó la demanda de KinderStart sin permiso para enmendarla y concedió parcialmente la moción de Google de imponer sanciones conforme a la Norma 11 contra el abogado de KinderStart, exigiéndole que pague parte de los gastos legales de Google. gastos.