» »

Google bi napravil Ajax prijazen pajkom

Google bi napravil Ajax prijazen pajkom

Ideja

Google - Ajax je okrajšava za Asinhroni JavaScript in XML. Gre za skupino tehnik pri razvoju spletnih aplikacij, ki omogočajo izdelavo interaktivnih spletnih aplikacij in dinamičnih strani. Ena večjih pomanjkljivosti Ajax-a je neprijaznost do iskalniških pajkov, ki v imenu Googla, Yahooja in drugih plazijo po spletu in pridno indeksirajo internet. Ti se ne znajdejo najbolje z JavaScript-om in Ajax-om, zato običajno ne uspejo prebrati takšnih strani. Google pravi, da je tu mogoče še marsikaj postoriti.



Zato so pripravili predlog, s katerim želijo doseči, da bi strani z minimalnim trudom za spletne razvijalce iskalniki in uporabniki videli isto vsebino hkrati pa bi se iskalniki lahko povezovali neposredno do Ajax naslovov (in ne statičnih). Zatorej v njihovem predlogu naštevajo kopico ukrepov, ki bi se berljivosti Ajaxa za pajke (crawlability) zelo približali. Vse skupaj je še v fazi razvoja, zato si lahko trenutno idejo preberete na njihovem blogu in prispevate svoje komentarje.

15 komentarjev

Bistri007 ::

Brez veze. Naj raje Google spimpa malo svoj Chrome browser in naj s Chromom indeksira splet.
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...

urban99 ::

rofl, s chromom indeksirat splet? Pri polovici uporabnikov ne bo prišel dlje od gmaila in porna lol

CWIZO ::

Fuck yes!
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...

techfreak :) ::

Brez veze. Naj raje Google spimpa malo svoj Chrome browser in naj s Chromom indeksira splet.

Ja, ampak potem ne bo mogel linkati na dejanski tekst.

Če gre s chromom na http://domena.com in potem klikne na NekLink in ta link odpre AJAX z vsebino NekaVsebina, bo preko Chroma crawlal "NekaVsebina", ampak Google bo med rezultati izpisal http://domena.com in ne bo nakazovalo na NekoVsebino, ampak na IndexStran.

Pri tem pa pač lahko prikaže recimo http://domena.com/#NekaVsebina ali nekaj podobnega.

ABX ::

Hmm, spletne strani bolj prijazne do AI.
Vaša inštalacija je uspešno spodletela!

Bistri007 ::

Kar je pomembno je, kar človek/uporabnik vidi na določenem URL, ne kaj vsebuje zgolj koda tistega html na URL, a ne?
Največja napaka desetletja je bila narejena 4. novembra 2008
Oni so goljufali in Alah je goljufal, Alah je najboljši prevarant. (Koran 3:54)
Citiraj svetega očeta Benedikta XVI. in postani "persona rudis"...

Zgodovina sprememb…

ABX ::

Kar je pomembno je, kar človek/uporabnik vidi na določenem URL, ne kaj vsebuje zgolj koda tistega html na URL, a ne?


Omejen pogled, sploh nisi razumel o čemu se govori.
Vaša inštalacija je uspešno spodletela!

Lion29 ::

ja, ce so razvijalci nesposobni, potem pac to ni dobro...

namrec linke se da cisto lepo urediti, da ce jih odpres direktno, se ti prikaze celotna stran, ce pa jih kliknes na strani, se odpre prek ajax klica...

tipicen primer na:
http://www.europeancasinoz.com/

ce uporabnik klikne na gumbek profil casinoja, se mu le ta odpre v "popup-u" prek ajax-a, ce pa dostopa do linka direktno

profil casinoja

pa bo videl normalno stran.. dosegljivo tudi spiderjem....
Frontend UI/UX developer

Zgodovina sprememb…

  • spremenil: Lion29 ()

CWIZO ::

Napačen primer si dal.
Ti dam jest pravi primer:
imaš galerijo slik in imaš linke naprej&nazaj, ta dva linka sta navadna linka preko katere dostopaš (preko normalnega requesta) do naslednje/prejšnje slike
potem pa z JavaScriptom nadgradiš zadevo da ko nekdo klikne na naprej recimo se ne naredi full-page-reload ampak preko ajaxa pokažeš nove podatke urlju pa dodaš nek hash #id-naslednje-slike
zdej če si kokrtolk sposobn boš naredil da če nekdo pride direkt na neki sliko k ima hash, da ti bo nalodalo tisto sliko iz hasa ne une od katere je dejansko URL.
Problem je pa v tem da če google vidi nekje link s hasom ne bo dobil tiste slike katera je dejansko linkana.
s tem se pa to reši. razumeš? če ne razumeš si poglej facebook recimo
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...

Lion29 ::

Cwizo, ne stekam... ne stekam, zakaj bi nekdo delal HASH-e za IDje... moj primer ki sem ga prej dal, velja cisto identicno tudi za slike ... v mojem primeru so pac URL-ji SEO friendly, torej namesto ID-jev kazinojev uporabljam njihov slug:

http://www.europeancasinoz.com/en/casin...casino-de-cayeux

ce je razvijalec pameten, bo dal na link "next" sliko pravi link www.mojadomena.com/slike/slika.php?id=1 in www.mojadomena.com/slike/slika.php?id=2... oba linka bi se morala brez ajaxa prikazat s headerjem, footerjem, opisom slike, etc...... na sami strani pa z unobstructive javascriptom prikazes sliko z ajaxom...

se en primer ti lahko dam, na strani, ki jo verjetno poznas... in sicer slashdot... ko prides do konca strani imas link "many more"... ki prek ajaxa nalozi se vec novic... link zgleda tako:
http://slashdot.org/index2.pl?section=1...

ce pa do njega dostopas direktno, ti odpre normalno 1. stran z novicami, ce zadnji parameter spremenis naprimer v page=2 ti bo nalozilo 2. stran, etc...

problem se pojavlja, ker je vecina razvijalcev tolko trdih in na "ajax linke" ne dajo dejanskega URLja (trackback url), do katerega je mozno direkt dostopat... oni dajo ponavadi samo # (hash) ali kaj drugega... tak da spiderji ne morejo dostopat do teh vsebin... Ampak to ni problem v ajaxu, to je problem v nesposobnih razvijalcih
Frontend UI/UX developer

CWIZO ::

Vem kaj misliš. Sam ti zgleda nisi razumel kaj sem jest napisal. Kar sem jest napisal deluje točno tako kot si ti zdej napisal. Problem je samo v tem da tut če je razvijalec za vse to poskrbel pa nek user skopira takle link:
example.com/neka/stran/id-1#id-5 (ki je dostopna tudi preko example.com/neka/stran/id-5)

nekam, na forum recimo, in ga google gre poindeksirat ne bo poindeksiral strani z idjem 5 ampak stran z idjem 1
to je problem. in to ni problem lenih razvijalcev ampak problem http protokola v katerem se #hash ne pošlje na server (če bi se, bi lahko takoj serviral pravo stran nazaj ampak moraš to preko JavaScripta potem narediti, čigar pa crawlerji ne zastopijo).

Oz, če še zdej ne kaperaš v čem je problem, a misliš da si res pametnejši kot nevem kolk inžinerjev pri googlu (pa ne vzet to kot kako fanboyovstvo)
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...

Looooooka ::

err...in glih to ti je clovek probu povedat...da ni nobenga razloga, da bi hash not vtikal.
spider cist logicno pricakuje da je example.com/neka/stran/id-1 stran ki ma vsaj 5 razlicnih delov.Ce si hotel, da ti poindexira pet raclicnih strani bi dal v url drugacen link.tistga hasha za ajax ne rabis.Glih web designer je kriv ce je prelen in si v vsak href daje "#" not pa pol klice ajax znotraj neke zajebane onclick funkcije.

Bl zanimivo je s kaksnimi debilnimi resitvami bi google rad prisel do boljsga indexa(kokr da se jim gre za web developerje in ne za DENAR).
Naj rajs skasljajo par miljonov pa v vseh drzavah odprejo par zastonj delavnic.Lepo streznis developerje in je problem v par letih PRAVILNO resen.Ne pa da jim dajes bergle se preden sploh probajo hodit.

Zgodovina sprememb…

CWIZO ::

Tut ti zgleda ne kaperaš sploh o čem se gre.

idje v haske ne vtikaš zato ker bi bil dizajner len in bi tlačil onclick-e v markup. ampak zato da ko nek user navigira po tvoji strani, ki se lahko naloda ali preko ajaxa ali preko klasičnega načina, moraš dati userji vedt da je zdej k je kliknil nekam (in se je nov content naloudu preko ajaxa) to en drug URL dejansko, zato da lahko potem on ta URL (s hashom) kopera pa pošlje kolegu.
če bi samo veselo lodal zadeve preko ajaxa url pa pustil tako kot je nebi mogu ne bookmarkat ne šerat URLja. To zadnje je primer bednih sajtov. O tem kar pa jaz govorim je pa stalna in sprejeta praksa in ni "kr neki".

Če vama pa še kar ni jasn o čem govori si pa mal poglejta kako v gmail-u recimo se URL spreminja.
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...

Lion29 ::

aham, stekam... tebi se gre dejansko za trackback URL, ki je pomemben za uporabnika, za iskalnike pa nima veze...

sicer pa bi se logicno moral hash uporabljat kot sidro (anchor).. kot recimo na slo-tech forum #crta, torej da se stran premakne do tega sidra... gmail pa dejansko zlorablja (ceprav zelo uporabna finta) nambmnost tega.

Se pa strnijam, da je tak prijem trenutno edina resitev za trackback URL-je, tam kjer je ajax... tak da na zalost v tem primeru imas na izbiro user friendly ali seo friendly...

sam nisem se imel konkretnega primera, da bi moral izbirat... v vseh mojih primerih si imel oboje... torej navaden url in hash varianto (recimo pr TABIH)... ampak se tle je bilo tako, da so bili tabi samo skriti na starani in ne dejansko klicani z ajaxom
Frontend UI/UX developer

CWIZO ::

Za oba je pomemben. Sam da user dobi tapravo vsebino, iskalnik pa ne. In to zadnje zdej google proba rešit.
ja gmail (in vsi ostali ki rabimo tako funkcionalnost) ga "zlorablja", pač ko je bil http narejen ni bilo ajaxa ...
hancic.info
I can't uninstall it, there seems to be some kind of "Uninstall Shield"...


Vredno ogleda ...

TemaSporočilaOglediZadnje sporočilo
TemaSporočilaOglediZadnje sporočilo
»

Zakaj ni AJAX bolj razširjen?

Oddelek: Izdelava spletišč
81295 (828) MarkookraM
»

ajax - site

Oddelek: Izdelava spletišč
18830 (830) jype
»

Ajax, da ali ne

Oddelek: Izdelava spletišč
211751 (1055) snajko
»

Prikaz še enega napada na anonimnost

Oddelek: Novice / Zasebnost
263601 (2507) MrM
»

Alternative server side jezikom?

Oddelek: Izdelava spletišč
221423 (1075) CWIZO

Več podobnih tem