[ Ivan Golubović @ 07.08.2003. 19:04 ] @
Da li je moguće i kako da se zaštiti Web sajt od kompletnog downloada ili downloada delova uz pomoć programa kao što su npr. TeleportPRO, WebZIP, httrack i sl, a da se pritom ne zabrani pristup i pretraživačima?
[ Dragan Varagic @ 10.08.2003. 07:56 ] @
Može se delimično zaštititi od onih koji pokušavaju odjednom da skinu sve, pa kada ustanove problem - odustaju (najveći procenat korisnika). Npr. mislim da u većini programa za download ovaj email časopis (http://www.wilsonweb.com/wmt/) ne može da se skine odjenom - celokupna arhiva.

Najbolji sistem zaštite jeste kreiranje poddomena i dodatnih domena na koje se postavlja sadržaj, uz kombinaciju s različitom hijerarhijom sadržaja u direktorijumima. Naravno, oni koji su uporni, skinuće sve što je dostupno.
[ Donald.Secret @ 17.08.2003. 09:36 ] @
Ponuđeni sadržaj je ponuđeni sadržaj. Najpodložniji kompletnom skidanju od jednom su statični (HTML) sajtovi mada dobar program može prateći lokalne linkove da izgeneriše uglavnom i sve stranice dinamičkog sajta.

Bolje reši copyright.
[ arsa x @ 17.08.2003. 16:25 ] @
Pre odredjenog vremena hteo sam jedan sajt da "skinem" ali
nisam uspeo. Program sa kojim sam hteo da skinem je prijavio "greske".
Fora je ustvari bila da linkovi nisu bili direktno zalinkovani, nego je sve islo preko javascripta. Nesto tipa:

<a href="javascript:otvori_stranu("index.html")">index</a>

funkcija:

funkction otvori_stranu (link){
window.location(link)
}

Neznam dal je sintaksa ispravna bas.

E sad dal ce ti programi za skidanje uspeti da skinu sajt ne znam.
[ -zombie- @ 17.08.2003. 21:55 ] @
postoji dosta načina da se se zaštiti sajt. javascript je jedan od njih (ne znam ni jedan pauk koji ga interpretira), možda najjednostavniji, ali nije najbolji..

recimo, šta mi prvo pada na pamet. ako je recimo sajt u php-u, vrlo prost način (koji će završiti posao u 99% slučajeva) je da na početku svake (pa i prve) stranice sajta stavite recimo:

Code:
<a href="/pauk/isključi.php"> </a>


znači, u suštini, link sa praznim textom, koji "normalni posetioci" (znači oni koji koriste običan browser) neće moći da kliknu. u toj isključi.php ubacujete IP posetioca u bazu (ili fajl) "banned" (zabranjenih) ip-eva, i posle u svim ostalim stranicama samo proveravate da li je posetilac sa nekog od zabranjenih ip-eva. ako jeste, samo ne ispišete stranicu...


dobro, ovde treba malo povesti računa i o pretraživačima (da ne bi i njima zabranili pristup ;), ali to se najlakše rešava zabranom posete /pauk/ direktorijumu u robots.txt fajlu..
[ Aleksandar Marković @ 17.12.2004. 12:42 ] @
http://www.robotstxt.org/wc/exclusion.html
http://hacks.oreilly.com/pub/h/220
http://www.seroundtable.com/archives/005114.html
http://www.google.com/custom?i...tesearch=www.elitesecurity.org

[Ovu poruku je menjao Aleksandar Marković dana 23.08.2006. u 22:54 GMT+1]