Google e il nuovo algoritmo del 2011

Come cambia il pagerank col nuovo algoritmo in arrivo da Mountain View? Quali pro e contro riscontrerà la rete? Chi ne trarrà dei benefici e chi verrà spinto dietro le quinte?

Google ha dichiarato ufficialmente che i suoi ingegneri sono all'opera per migliorare ancora l'algoritmo di ricerca: lo scopo? Ripulire la rete da spam e pagine prive di contenuti di qualità.

Un semplice aggiornamento dei meccanismi di indicizzazione o una vera e propria rivoluzione nell'ordine del web?

Chi sarà colpito e chi invece ne trarrà benefici?

Spaventa non solo la declassazione ma anche una perdita consistente di entrate per chi guadagna con Google AdSense

Poichè l'algoritmo è stato potenziato per fare unaprecisa scissione fra siti web di bassa qualità
e siti web di alta qualità, coloro che faranno un
grosso capitombolo saranno, ovviamente, siti web
con contenuti copiati o riscritti sommariamente e, quindi, privi di innovazione comunicativa: spammer, cloni, fake.

Siti web da contenuti brevi, originali e poco ripetitivi ne trarranno invece beneficio.

Stesso discorso vale per i blogger più quotati: attenzione ai vostri contenuti!

Perchè il Web necessita di una "ripulita"?

Se è vero che spammer e amanti della clonazione di interi siti web hanno gettato un po' nel caos l'indicizzazione di siti web di qualità, negli ultimi anni anche l'entrata di social network come Facebook e Twitter ha contribuito ad aumentare il "rumore" e, dunque, ad una indicizzazione "sballata" e sommaria, calando la posizione nelle serp di contenuti originali e di alta qualità.

Il nuovo algoritmo consentirà dunque una semplificazione nell'attività di ricerca degli utenti ed una maggiore precisione nei risultati rispetto alla long tail cercata.

Un miglioramento o qualcosa da temere?

null

L' algoritmo non tiene conto della qualità grafica di un sito web ma solo dei contenuti presenti in esso. Non spaventatevi troppo.

A quanto pare, da alcune ricerche risulta che note piattaforme di pubblicazione come Ezinearticles Squidoo non sono ancora state colpite dal nuovo algoritmo.

Di sicuro non grazie alla qualità dei contenuti inseriti quanto all'utilizzo di link ipertestuali, strumenti essenziali per l'indicizzazione.

Non è importante la qualità grafica quanto la semplicità dei contenuti e, soprattutto, la loro autenticità. Pagine con contenuti clonati e/o ripetitivi, perderanno punti!

Risulta pertanto che la presenza di link ipertestuali coerenti all'interno di una pagina, aiuta a superare positivamente le ispezioni del nuovo algoritmo. Per ora.

Share this on

Share |

On same topics

Commenti

comments powered by Disqus