From the monthly archives:

novembre 2011

Come l’anno scorso, anche quest’anno SearchBrain sarà presente al Convegno GT, il 17 e 18 dicembre 2011 a Riccione, con più di un contributo.

Logo del Convegno GTMaurizio Petrone e Piersante Paneghel parteciperanno in qualità di ospiti e potranno fornire spunti e approfondimenti sui diversi argomenti presentati dai relatori, grazie ad una novità didattica introdotta quest’anno, quella degli “appunti degli esperti“.

Disciplina in parte empirica, la SEO si presta ad essere discussa sopratutto sulla base delle diverse esperienze di coloro che la praticano. Condividendo conoscenze e casi realmente vissuti, Piersante e Maurizio avranno l’opportunità di arricchire ulteriormente i contenuti degli interventi dei relatori.

Enrico Altavilla presenterà invece un intervento in coppia con il collega (esterno a SearchBrain) e amico Cesarino Morellato. L’intero contributo è stato volutamente ammantato di mistero per svelare il meno possibile sulle sorprese che attenderanno gli iscritti all’evento. Dei contenuti, le uniche informazioni trapelate sono un titolo inconsueto e una descrizione fumosa, che riportiamo di seguito.

Duello a sorpresa tra Cesarino Morellato ed Enrico Altavilla

Enrico Altavilla e Cesarino Morellato si daranno battaglia sulle differenze di approccio nella gestione dei fattori SEO esterni. Due punti di vista assoluti e contrapposti, dai quali imparare osservando le diversità e ragionando su tutte le sfumature di grigio che esistono tra gli estremi del bianco e del nero. E tu da che parte starai?

Ogni anno il Convegno GT si rivela un’occasione per apprendere e per confrontarsi con i tanti operatori del settore che si danno appuntamento all’evento. L’appuntamento, e il nostro arrivederci a chi vorrà partecipare, è a Riccione il diciotto e diciannove dicembre.

{ 0 comments }

e-Commerce: 4 domande 4 risposte

by Piersante Paneghel on 4 novembre 2011

All’evento Madri appena concluso (ringrazio tutti i partecipanti per i feedback) Giovanni Cappellotto mi ha regalato un libro.

È un buon libro, molto utile per chi si appresta a lanciarsi nell’avventura di aprire un sito di e-commerce.

E-commerce. Progettare e realizzare un negozio online di successo
di Daniele Vietri, Giovanni Cappellotto HOEPLI

Dentro vi troverete strategie, tecniche, esperienze e anche una mia intervista, che risponde a 4 domande. Queste.

Quali sono i concetti importanti da avere in mente quando si pensa alla costruzione di un ecommerce?

 

Più o meno gli stessi che si dovrebbero avere per l’apertura di un normale negozio: È il settore giusto? I clienti mi troveranno? Useranno razionalmente gli spazi/reparti? Cosa intendo fare per la loro soddisfazione? Proporrò prezzi ragionevoli in base ai servizi offerti? Come si muovono i miei competitori? Cosa devo fare per farmi conoscere?
Domande normali insomma, ma che non sempre vengono poste. Il fatto è che aprire uno shopping on-line è tecnicamente abbastanza banale: un CMS open-source, feed xml di prodotti aggregati (il web ne è pieno) e pochi giorni di lavoro. Voilà, ecco l’ennesimo clone di kelkoo che probabilmente avrà vita grama per quello che riguarda il traffico organico da motori di ricerca.
In realtà le domande principali dovrebbero essere poste guardandosi bene allo specchio: cosa posso giocare io che gli altri non abbiano ancora giocato? Quale è o dovrebbe essere il mio punto di forza? Il prezzo? La copertura della domanda? La consegna gratuita? La velocità? Quali benefit posso offrire senza rimetterci?
Insomma: come costruisco una relazione onesta (e tendenzialmente win-win) con il mio target?

 

Un ecommerce richiede una cura ed un’attenzione particolare?

In un ecommerce si dà per scontato che la qualità SEO delle pagine debba essere impeccabile e automatica. Il CMS deve generare pagine HTML di qualità e con un allineamento SEO nativo incentrato sulla parola chiave scelta per la pagina. Ma non è quasi mai questo il problema principale.
Tipicamente un ecommerce ha un traffico incentrato sulle foglie/prodotto (presenti in molti altri ecommerce con descrizioni standard), grandi flussi di prodotti che entrano ed escono dagli scaffali ed in genere una struttura che dovrebbe favorire la scoperta rapida e l’indicizzazione delle nuove risorse.
È questo ultimo di solito il lato debole: la velocità di scoperta e indicizzazione dei nuovi prodotti.
Chi scala per primo le SERP di Google per quel determinato prodotto avrà più visite e quindi più commenti, diversificherà prima, a meno costi e meglio la scheda prodotti con i contenuti generati dagli utenti, e solidificherà così il posizionamento. Ma per arrivare prima degli altri bisogna essere scoperti prima dal bot. Quindi la velocità di discovery è (quasi) tutto e a questa va dedicata una attenzione maniacale.

 

Quali sono gli errori più diffusi, oppure le opinioni errate, rispetto alla capacità del SEO di ottenere risultati?

L’errore di gran lunga più diffuso è trascurare il nesso tra assorbimento/indicizzazione e alberatura dei contenuti.
Si nota spesso l’assenza di ausili alla navigazione per gli spider e le stesse mappe HTML, così diffuse un tempo, sembrano passate di moda.
In pratica si commette l’errore di demandare la fase fondamentale di scoperta delle nuove risorse al sitemap.xml, che altro non è se non un bulk add-url, anche se più sofisticato perchè fornisce un feedback sugli errori.
Per garantire la piena visibilità del sito invece bisogna di ragionare come se il sitemap.xml e i feed non esistessero.
Può Googlebot scoprire rapidamente tutti i miei prodotti, spendendo non più di 4 click dalla HomePage, e ignorando totalmente sitemap.xml e feed?
Se la risposta è si il sito ha una alberatura minima accettabile, viceversa bisogna costruirla assolutamente.
Alberature scadenti portano alla scoperta da parte dei bot di pagine foglia prive del ramo e quindi di PageRank, o con rami pletorici a rischio duplicazione.
Altro errore diffuso è affidarsi solo ai Google Webmaster Tools, e attendere la segnalazione degli errori di scansione per intervenire. I GWT hanno alcuni giorni di ritardo nella segnalazione degli errori riscontrati. Questo delay, tollerabile in un sito normale, potrebbe essere devastante in un ecommerce che ha decine o centinaia di migliaia di visite al giorno da parte dei bot. In due giorni un parametro indesiderato in pagine di listing può mandare in duplicazione interi settori del sito.
Quindi un ecommerce dovrebbe avere strumenti di controllo (e alert) automatici, con funzioni di monitoraggio dei log (le risposte date ai bot), che permettano di intervenire immediatamente al manifestarsi di un problema.

 

Si possono garantire risultati ed alti tassi di conversione?

“Garantire” è una parola impegnativa e sarebbe preferibile non usarla.
Il SEO è una sorta di avvocato del web che deve persuadere un giudice a volte lunatico (Google e i gli altri MdR), della bontà degli argomenti del proprio cliente, in modo da assicurargli una posizione elevata nei risultati di ricerca. Così come nessun avvocato serio si sognerebbe di garantire su quale sarà la sentenza del giudice, nessun SEO serio può garantire un risultato certo in Google.
Quello che si dovrebbe invece garantire è che il caso verrà seguito al meglio delle proprie capacità, con tempi di attenzione congrui e in “scienza e coscienza”. Ovvero con standard SEO adeguati e non facendo mai nulla che possa danneggiare il proprio cliente.

 

Piersante

{ 4 comments }