Interneto robotai

Straipsnis iš Vikipedijos, laisvosios enciklopedijos.
Peršokti į: navigaciją, paiešką

Interneto robotas – specializuota programa, imituojanti internete įprastine naršykle dirbantį žmogų. Roboto tikslai gali būti įvairūs. Paprasčiausiu atveju jis kaupia tinklalapyje esančius raktažodžių sąrašus, kurie vėliau panaudojami reikiamo tinklalapio paieškai (Google, Altavista ir daugelis kitų). Mažiau draugiškai nusiteikę robotai renka tinklalapiuose pasitaikančius elektroninio pašto adresus, kuriais paskui siuntinėjamas Elektroninės šiukšlės. Toks robotas atpažįsta tinklalapyje esančias nuorodas ir jomis seka į vis naujus ir naujus puslapius. Specialiems tikslams (tarkim, kai kurioms bioinformatikos sritims) kuriami ir sudėtingesni robotai, gebantys užpildyti žmonėms skirtus tinklalapio formuliarus, perskaityti serverio atsakymą, atrinkti reikiamus jo fragmentus, pateikti juos kitiems formuliarams, patys spręsti apie vieno ar kito puslapio aplankymo būtinybę ir pan. Daugelis interneto svetainių turi ir robotams skirtą puslapį (dažniausiai robots.txt), padedantį jiems orientuotis.

Jei serveris robotų nepageidauja, jis paprastai atskiria juos nuo žmonių liepdamas atpažinti paveiksliuke rodomas įvairiai „išvartytas“, nevienodo dydžio raides. Pašto adresai neretai apsaugomi juos perrašant taip, jog atpažintų ir suprasti galėtų tik žmogus (user@server.com -> user AT server DOT com) ar maskuojami įvairiomis JavaScript gudrybėmis, nors prieš sudėtingesnes programas tai nepadeda. Radikali priemonė yra tinklalapyje pateikti ne adresą, o tiesiog teksto lauką, kuriame surenkamą žinutę tinklalapio serveris persiunčia pačiame tinklalapyje nenurodytu adresu.

Interneto robotai yra kompiuterinės programos. Jie nėra paprastai žodžiu robotas nusakomos mašinos.

Nuorodos[taisyti | redaguoti kodą]