Cuprins
Atunci când dezvoltăm un site web, folosim adesea JavaScript, deoarece este ideal pentru crearea de site-uri web inovatoare cu mai multe funcționalități din partea clientului. Una dintre cele mai utilizate tehnologii este AJAX.Prin cadre Ce Jquery, Prototype, Mootools și altele, care permit efectuarea de cereri către server, primirea rezultatului și activarea încărcării anumitor conținuturi pe pagină fără a reîmprospăta webul și complet transparent pentru utilizator.
În prezent, majoritatea paginilor web prezintă o puternică dependență de JavaScript pentru a crea efecte secundare și funcționalități ale clientului, ceea ce aduce cu sine riscuri bine cunoscute în ceea ce privește SEO, probleme sau incompatibilități de legături, defecțiuni tehnice, viteza de descărcare etc.
Vom vedea în acest tutorial câteva strategii pentru dezvoltarea site-urilor web și a aplicațiilor AJAX evitând să aveți probleme în ramura SEO.
Avantajele și dezavantajele utilizării AJAX
Avantajele în ceea ce privește experiența utilizatorului sunt clare: pagini rapide, mai puține cheltuieli generale pentru serverul care procesează numai comanda și returnează conținutul necesar utilizatorului. Multe funcționalități web de nouă generație nu sunt ușor de realizat fără utilizarea JavaScript sau Jquery, deoarece oferă necesitatea ca utilizatorul să facă clic pe un element al web-ului și ca browserul să nu actualizeze întreaga pagină, ci doar un bloc de conținut și chiar afișați informații diferite pentru diferiți utilizatori.
Dezavantajul este că conținutul returnat ar putea să nu fie vizibil pentru motoarele de căutare și botul nu va analiza adesea codul Jquery sau Ajax. O problemă este că conținutul unei pagini este vizibil doar pentru browser, dar nu pe server, modul de urmărire al roboților îi poate face să nu vadă un anumit conținut sau că unele linkuri eșuează, deoarece robotul nu poate înțelege JavaScript care sunt foarte complexe. .
Google a dezvoltat continuu capacitățile de crawling Ajax și Javascript ale roboților săi, în timp ce Bing și Yahoo nu au evoluat prea mult.
Chiar și motoarele de căutare nu pot reprezenta cu exactitate cel mai relevant conținut pentru o interogare de căutare, astfel încât utilizarea excesivă a acestei tehnologii poate duce la o poziționare slabă în rezultatele căutării.
Exemple de elemente html și blocuri care îmbunătățesc SEO
Dacă trebuie să creăm un bloc, să aplicăm nume semantice claselor, adică cu un sens care descrie conținutul:
Exemplu un bloc care arată un anumit conținut Ar fi mai bine să acordați un sens mai semantic fiecărui bloc de cod html, astfel încât roboții să poată înțelege ce conținut vor arăta: Structura este clară pentru a fi urmărită chiar dacă conținutul nu a fost generat în HTML. Deoarece marcajul semantic conține cuvinte cheie, este important să utilizați etichete HTML adecvate pentru conținut, atunci când aveți dubii, putem consulta manualul W3school Html.
La fel ca listele comandate sau neordonate, un scop al listelor de definiții este afișarea listei de conținut vizat, deoarece în cazul de mai sus, ar putea fi știri sau o listă de produse. Aceasta permite mai multă densitate a cuvintelor cheie, mai puțină aglomerație de cod.
Unul dintre cele mai importante aspecte este că conținutul generat de Javascript pentru utilizator este același conținut exact la fel ca cel afișat motoarelor de căutare sau roboților de căutare.
Google indică ca o posibilă soluție că, dacă site-ul nostru web include tehnologii pe care motoarele de căutare nu le pot accesa sau nu le pot interpreta, cum ar fi JavaScript sau Ajax, atunci trebuie să folosim text descriptiv sau marcaje, astfel încât aceste elemente să poată arăta ce conținut ar corespunde. îmbunătățiți astfel accesibilitatea site-ului. Mulți utilizatori utilizează dispozitive mobile, browsere non-standard, software învechit și conexiuni lente, astfel încât ar putea avea erori la vizualizarea conținutului sau la utilizarea unor funcționalități.
Legături și parametri după adresă URL
Google preferă să utilizeze hashbang ca parametru într-o adresă URL, deoarece astfel vă va fi mai ușor să interpretați linkurile dvs. atunci când transmitem un hastabang către site ca parametru.
Un exemplu larg utilizat este pe site-ul Twitter. Google îl folosește pentru a păstra și a solicita conținutul acelei pagini statice. Pentru a arăta ce conțin adresele URL rescrise, iată câteva exemple:
Această adresă URL generată de o anumită interogare este un SEO mai bun și mai semantic
www.miweb.com/#!madrid/productos
Aceste două adrese URL sunt mai greu de înțeles pentru roboți, dar fără îndoială că ultima îmbunătățește semantica oarecum.
www, miweb, com /? tmp = madrid / produse
www.miweb.com/?ciudad=madrid&seccion=productos
Atâta timp cât putem face SEO semantic pentru conținutul generat și afișează același conținut pe care un utilizator l-ar vedea în motoarele de căutare, aceasta nu este o mare problemă.
Glisați barele și filele de navigare
În cazul în care conținutul este distribuit în file, în cazul în care conținutul se modifică utilizând jQuery sau un alt cadru în funcție de fila în care ne poziționăm, trebuie să existe o adresă URL independentă pentru fiecare filă, atunci când utilizatorul dă clic pe o filă, o cerere poate de asemenea, să fie trimise către server pentru a genera conținut complet nou. Structura fiecărui link ar putea fi ceva de genul:
www.miweb.com?tab= vânzări
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Trucul cu filele este produs cu CSS și Javascript, serverul returnează conținutul tuturor filelor cu prima solicitare de pagină. Când utilizatorul face clic pe o filă, clasele definite în CSS fac ca browserul să ascundă conținutul asociat cu o filă și să afișeze numai conținutul aferent filei făcute clic, în timp ce celelalte sunt ascunse, dar se află în codul acesta Este permis , deci este bine să dai un sens semantic structurii.
De asemenea, este foarte important să nu permiteți accesarea cu crawlere a fișierelor Javascript sau CSS în robots.txt a site-ului nostru web, deoarece poate afecta poziționarea și indexarea conținutului dvs. și poate duce la eșecul statisticilor de accesare cu crawlere.
Una dintre liniile directoare ale Webmaster Google Spune în mod specific să nu permită urmărirea acestor fișiere, dar nici să le blocheze sau să le ascundă de roboți.
Google Webmaster Tools pentru a verifica și analiza accesarea cu crawlere
Instrumente Google pentru webmasteri ne oferă posibilitatea de a informa Google, verificând calitatea de proprietar al site-ului nostru web. Vă rugăm să vă conectați cu contul dvs. Google sau Gmail și apoi putem verifica site-ul nostru.
Robotul durează aproximativ două săptămâni pentru ca linkurile să apară corect în Căutarea Google.
Nu există o modalitate ușoară de a vă asigura că totul funcționează, dar există câteva instrumente care vă vor ajuta să vedeți ce se întâmplă. Cel mai bun este să folosiți instrumentul Explorare ca Googlebot, care ne arată exact ceea ce vede Google când accesează cu crawlere site-ul web. Puteți accesa Google Webmaster Tools din Diagnostics.
Folosind instrumentele Google pentru Instrumentele pentru webmasteri, putem verifica linkurile indexate și corecta sau elimina aceste link-uri, astfel încât site-ul dvs. web să fie optimizat pentru motoarele de căutare și să aibă linkuri fără pericolul de a fi penalizate, care vă ajută să vă îmbunătățiți SEO, printre alte funcționalități.V-a plăcut și ați ajutat acest tutorial?Puteți recompensa autorul apăsând acest buton pentru a-i oferi un punct pozitiv