¿Por qué Google no crea una lista blanca para sitios web de calidad?

Google es cada vez más un buscador poco justo. ¿Una lista blanca podría ayudar para evitar la penalización sitios con buenos contenidos?

Desde los inicios de los buscadores existe un juego de policía y ladrón. Muchos webmasters hacen trampas consiguiendo ganar posicionar en los rankings siempre temiendo el momento si Google les pilla o no. Probablemente esto nunca cambiará porque la gracia está en el juego de encontrar un agujero en el algoritmo casi perfecto para sacar provecho de ello.

Lista BlancaDerechos de foto de Fotolia

Google es una diva injusta

Google ha desarrollado una habilidad extraordinaria en los últimos años en penalizar sitios. Primero los sube a lo más alto y cuando cambia de opinión los deja caer de la palma de sus manos como una patata caliente. Desde fuera da la sensación que el enfoque de su algoritmo está centrado en detectar trampas en vez de premiar a los que están haciendo las cosas realmente bien.

  • Se penalizan cada vez mejor sitios que definitivamente hacen trampa sin aportar buen contenido y merecen sin duda perder posiciones.
  • Surgen cada vez más daños colaterales de sitios con buenos contenidos que han sufrido alguna penalización sin hacer SEO (contenido duplicado interno, enlaces entre webs propias con la misma IP, ataques de SEO negativo, etc.).
  • Siguen sin penalización muchos sitios que hacen trampa pero que aprovechan los agujeros del algoritmo que siempre existirán.
  • Se penalizan tiendas online que han hecho pequeñas o mayores trampas pero que sin duda son 100% relevantes para lo que el usuario busca. Del día a la mañana Google es capaz de cerrar un negocio que da trabajo a potencialmente muchas personas.
  • Para muchísimas búsquedas te encuentras con sitios en el top 10 que no tienen una relevancia especial desde el punto de vista del lector pero a pesar de ello el algoritmo ha encontrado algo que le ha gustado.

Google al final no deja de ser una diva injusta que cambia de opinión cada 2 por 3. A pesar de aplicar mayoritariamente penalizaciones automatizadas existe una lista de excepciones. No es lo mismo que una lista blanca porque el funcionamiento es diferente. Sitios que tienen la palabra “sex” en la URL no suman necesariamente puntos. Excepciones surgen cuando se trata p.ej. de un sitio relacionado con la ciudad “Essex” que contiene el termino prohibido. Cuando yo hablo de lista blanca (o white list en inglés) me refiero a otra cosa.

La lista de blanca para reducir el grado de injusticia

Para bloggers y webmasters principiantes con contenidos extraordinarios es cada vez más complicado obtener visibilidad en los resultados de Google. Tienen talento para crear textos que aportan valor pero generalmente no tienen ni idea de SEO. Compiten con marketers que a veces no tienen ni idea de redactar buenos contenidos pero conocen los agujeros del algoritmo para estar en lo más alto. Consideran que Google no es justo por lo que no hay que jugar a sus reglas y definir las propias. Lo malo es que en cierta manera tienen razón.

¿Y si Google fuese más justo? Ya lo sé, es una utopía lo que estoy planteando pero nunca se sabe de lo que puede surgir de una semilla que se planta en la cabeza de alguien. Podrían crear un especie de lista blanca para favorecer sitios con buenos contenidos y relevancia para el lector independientemente de los 200 factores que potencialmente tienen en cuenta para posicionar una web. Podría una especie de directorio tipo Dmoz interno de Google. Habría únicamente entradas manuales. Eso si, como primer filtro podría haber un algoritmo automático que detecte buenos contenidos. Ni idea como hay que hacerlo pero para algo tendrán ahí miles de mentes brillantes sentadas que trabajan para ellos.

Lo siento Google, pero no es posible tener un buscador excelente a medio y largo plazo sin darle más peso al filtro humano y modificar la estrategia poniendo más énfasis en el premio y menos en la penalización. Si no hay un cambio radical, probablemente llegará alguien que lo hará y os quitará del trono igual que vosotros lo habéis hecho en su día con Yahoo!.

Seamos también un poco justos. Si durante tanto tiempo ningún buscador ha conseguido estar a la altura de Google es que están haciendo también muchas cosas bien o menos mal que los demás. La labor es increíblemente compleja y nunca se puede obtener un resultado que satisfaga a todo el mundo. Una lista blanca probablemente no soluciona todos los problemas pero podría evitar la penalización de sitios que durante años están jugando limpio. También podría aportar ventajas a la hora de posicionar un web en el top 10 de los resultados.

CATEGORIES
TAGS
Share This

COMMENTS

Wordpress (8)
  • comment-avatar
    Bucan 9 años

    No cabe duda de que Google ha de mejorar mucho. Te encuentras muchas veces en primeros lugares a webs o blogs que son auténtica chorrada o incluso sin apenas contenido sobre el tema que se trata. Pero si se mete mucho la mano humana en vez de un robot con algoritmo lo que puede pasar es que comiencen a situarse en primeros lugares los que paguen, los que sean amiguetes, los que gusten al seleccionador, etc. (Aunque me da que algo de esto ya hay).

  • comment-avatar

    En realidad premiar a los que lo hacen bien o penalizar a los que lo hacen mal, son dos caras de la misma moneda. Puedes hacer una cosa o la otra, pero no las dos a la vez porque estarías “puntuando” doble.

    Por hacer un símil con la economía, el Estado puede grabar los impuestos en la compra o en la venta de un producto, pero no en los dos conceptos a la vez. Si lo hiciera, estaría cobrando impuestos dos veces por una única transacción.

    Aún así, creo que Google sí tiene una lista blanca. Por ejemplo, la Wikipedia creo que está dentro de esa lista porque, si no tengo mal entendido, un artículo de un blog que ponga un link hacia la wikipedia, tiene más “credibilidad” a los ojos de Google porque se esfuerza en proporcionar información cualitativa y dar valor al lector.

  • comment-avatar

    Mi opinión es que Google no es justo con sus algorítmos, es difícil acertar siempre con una fórmula para la ingesta cantidad de variables que se encuentra.

    Yo que he sufrido una de esas penalizaciones … – http://www.unmixdemarketing.com/2014/07/detectat-salir-penalizacion-google.html

    – … Se que las trampas son subjetivas muchas veces.

    Aún así no creo en una lista blanca…¿Cuántos entran? Para que keywords está en el top ten por pertenecer a esa lista? Seria tb justo para el que empieza y haciéndolo muy bien no puede entrar por no estar en “la lista”?

  • comment-avatar

    El 70% de los datos no tienen formato. Es un hecho. “Formato” como por ejemplo lo tiene un tuit, un vídeo, un artículo con código ANCII o WordPress: unidades detectables, medibles y enlazables. Solo el 30% de lo que contiene Internet puede ser enlazable, y ese porcentaje se reduce cada día un poco más. De ahí que se parta con un problema enorme a la hora de redactar las rutinas que harán que aparezca una u otra cosa en tu buscador.

    Creo que Google es el que mejor lo hace a día de hoy, pero como mercenario que soy me cambiaré a la primera, en cuanto salga uno mejor.

    El primero que sintetice una IA para administrar su buscador ganará, porque existe un fenómeno de Subdución Informática (http://pensamientolateral.org/subducion-informatica/) que amenaza con hundir la información “antigua” en lo más profundo de Internet (http://www.lapiedradesisifo.com/2014/06/16/la-profundidad-de-internet/)

    Hasta el momento por mi parte mediría factores como la compartibilidad de los artículos, los “+1”, “fav”, enlaces,…

  • comment-avatar

    Es que la calidad es algo subjetivo.

    Todos pensamos que lo que hacemos y creamos tiene calidad.

    Saludos,
    @francoEscribe

  • comment-avatar

    Si, una gran utopía pero en verdad que sería genial. Esto es justo lo que pasa en el mundo, se prioriza castigar a los que hacen el mal pero muy poco se hace para premiar a los que hacen el bien.

  • comment-avatar

    Yo creo que podría manejar varios criterios a la vez, posiblemente ya lo hace, para promediar o exaltar la calidad de los sitios aunque siempre pesarán algunos criterios que de manera especializada afectarán a algunos. Consideremos los filtros que aplica actualmente por región y gustos particulares. Un sitio nuevo y de primerísima calidad pesa menos actualmente que uno ya establecido no tan bueno a la vista del usuario.

  • comment-avatar
    Denis 9 años

    ¿Que criterios de evaluación debería tener un buscador “perfecto” para posicionar algo más relevante una a que otra cosa?

    Porque a mi esto del SEO por backlinks relacionista con términos cláves ya se me hace que no funciona. Ántes, era sencillo encontrar contenido de calídad a lo que se le preguntaba a google. Ahora, es una competencia entre diferentes SEOs con sitios web llenos de banners, batallando en guerras épicas.

    Reflexión Cuasi-Filosófica:
    Internet se degrada cada día más y más. El 50% del tráfico son bots escarvando y buscando vulnerabilidades en IP, generando contenido y demás. Y el otro 50% del tráfico de “alta densidad” en su grán parte son videos de Youtube sin valor, Facebook (chusmerio), Twitter (catársis de cosas innecesarias) y porno.
    … de todo lo anterior, rescato Wikipedia.

    “Internet-basura” en grán parte, porque Google la provee de esa manera. Algún día habrá que cambiar por el bién de la humanidad.

  • Disqus ( )