Interneti Popüler Arama Motorlari ile Kötüye Kullanmak
Bir arama motorunu düsündügünüz zaman, kullanisli bir görünüs gözünüzde canlanir. HTML ’ye dayali sitelerde, isteginize göre RFC’leri, elektirik devrelerini, yazilimlari, serial keyleri ve dogru olmayan görüntüleri bulmaniza yardimci olabilir.
Büyük olasilikla google, yahoo, msn gibi arama motorlarini trilyonca kez saldirganlarin kullandigini düsünmeden kullanmissinizdir.
Sadece HTTP’nin hacmi nedeniyle olan ataklar, bir kez HTTP’nin bir firewall olmadigini düsün. Sayet server deamon patch edilmisse ve kullanici girdilerinin yeri güvenli bir sekilde kontrol ediliyorsa, endiselenmeye gerek yok. Bu çok ciddi bir yanlis anlamadir, bundan kaçinmak gerekir.
Güvenlik altyapin, HTTP finger printing, SQL enjeksiyon, mulformed heaader enjeksiyon, XSS, cookie fun, bütün akla gelebilecek web`e dayali form uygulamalari yada servis ataklarini yönetebilir.
Yinede arama motorunu çok yavas ve mutlu bir sekilde gelmenize izin verdiginizde, bilgilerinizi merakli gözlerden korumak için ise yarayacak olan sey önlenebilir güvenlige sahip olmanizdir.
Spiderlar (Örümcekler):
Bilgisayar robot programlari, bazi zamanlar "crawlers", "knowledgebot" yada "knowbot" a gönderme yapabilir. Internet yolu ile www de dolasmak, sayfalari ve veritabanlarini ziyaret etmek ve web sayfasinin arama motoru veritabanini günlük devam ettirmek için kullanilir. Bunlar yeni sayfalar elde eder, bilinen sayfalari update eder ve kullanilmayan sayfalari siler. Bulduklarini ise ana veritabaninda birlestirir.
Merakli bir akil herhangi bir güçlü teknolojiyi kullandigi zaman, ekstradan dahili (iç) çalisma bilgisine sahipse, kolaylikla teknolojiyi potansiyel kötü bir silaha çevirebilir. Bu sebeple saldirganlar için arama motorlari ileri derecede saldirganlarin toplandigi araç haline gelecektir.
Herkes, RFP’nin web toollarini biyik olarak adlandirildigini bilir. Henüz arama motorlarinin da ayni seyi, hatta daha fazlasini yaptigindan kimse haberdar degildir.
Google, online bölgede kullanilan en güçlü arama motorudur. Belki dört yildan fazla zamandir, günlük kelime kelime milyonlarca web sitesi ve kamu arsivi eklenmektedir. Bu bilgilerin tamami akilli insanlarin zekalarinda miktarlari sebebiyle kalabalik edecekti. Bilgiler büyük miktarlarda yüklenmeye baslandiginda, makineler ile yiginmis gibi hareket edecek. Bazi zamanlar bu durum pek güzel degildir. Çünkü hassas bilgiler içerecektir.
Spiderlar, bütün bu siteler akilda olmadigi zaman google da hasatlari toplamak için kullanir.
Spiderlar yalnizca ana somaya( sinir hücresi) axon (sinir gövdesi) baglantisi yaparlar, tipki neural newtwork (yapay sinir aglari)gibi. Eger bilgiler basit bir mantik testten geçerse, axona sizarak gelir, sonra soma bilgileri ana hücreye gönderiri. Sadece enerjiye bir diyet sürünmeyi saglamlastirmak için ihtiyaç duyarlar.. tipki güvercinlerin gaga yapmasi gibi. Bu çalisma veri tabanindaki gruplara dahil edilmek için kullanilir.
Bir sirket sitesini ya da domaini test etmek daima google kullanmak için uygundur. Google sürüngen muhtesem bir yazilimdir ve enteresan güzel seyler bulacaktir. Ayrica çok hos bir fonksiyona sahiptir. Bu fonksiyonla eski sayfalari görmenizi saglayacaktir. Bu sayfalar bu sitede bir kez yayinlanmistir. Saldirganlar bu özellige sayfalari, yapilari, bu tarz seyleri karsilastirmak için kullanir.
DMZ ende açik textleri ve CGI leri kullanmak için bazi hayali açik BBS’ler bulunur. BBSler de açik textler ve md5 ile encrypt edilmis sifreler bulunur ve Mr. Security bunu unutur. Bir hafta sonra arama motoru spider nüfuz etmeye baslayacak ve sitede yavas yavas ilerleyip sifreleri bulmaya baslayacaktir. Bir ay sonra tekrar gelecek ve domaindeki sifreler için arama yapmaya baslayacaktir. Bu suna benzer, kullanici BBS’ye dahili network ile baglidir ve ayni sifreleri domain sifresi olarakta kullanabilirsin. Simdi bazi seyler entersan olmaya basladi özellikle resepsiyon ofisinde gerseç telefon sesini kesf edersin. Kullanici bir IT personelidir.
IT: domainler, routerlar, switchler, serverlar, veritabanlari.
Human (insan): tembel, eksik, bazi sifrelerin her yerde olmasi, admin domain hesabi
Robot dosyalari kullanarak spiderlari bloke edebilirsiniz. Örnek bir robot dosya:
User-agent: * # Spiderlari kovar.
Disallow: / # Baston, bu server etrafinda dosya olmaz:
User-agent: googlebot # googlebotu kovar:
Disallow: /cgi-bin/
Disallow: /images/
# Tease vulnerable spiders:
User-agent: AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA x 350
Disallow: /GoogleBot PAYLOAD :-)/
Eger gerçekten araknofobilerden muzdaripseniz, firewall ya da routerlar da bunu bloke edebilirsiniz.
NOT: Bu doküman google`i saldirgan araci olarak kullanmanizi denemek için degildir. Bu tarz bilgilerin bulunmasi da yasal degildir zaten. Kullanicilarinizin web dizininde hangi bilgileri kullanmaya izin verdiginiz, düsünmeye deger bir durumdur.
Google advanced search kullanimin özelligi:
allinurl: # urldeki bütün stringleri bul
allintitle: # basliktaki bütün stringleri bul
filetype: # Sadece spesifik filetype i bul
intitle: # Basliktaki herhangi bir stringi bul
inurl: # Urldeki herhangi bir stringi bul
link: # Linkteki stringi bul
site: # sitedeki stringi bul
Specific:
allinurl:session_login.cgi # Nagios/NetSaint/Nagmin
allintitle:/cgi-bin/status.cgi? # Network monioring
allintitle:/cgi-bin/extinfo.cgi # Nagios/NetSaint
inurl:cpqlogin.htm # Compaq Insight Agent
allinurl:"Index of /WEBAGENT/" # Compaq Insight Agent
allinurl:/proxy/ssllogin # Compaq Insight Agent
allintitle:WBEM Login # Compaq Insight Agent
WBEM site:domain.com # Compaq Insight Agent at domain.com
inurl:vslogin OR vsloginpage # Sistem yada Vitalnet ziyaretçisi
allintitle:/exchange/root.asp # Degistir Webmaili
"Index of /exchange/" # Degistir Webmail Directory
netopia intitle:192.168 # Netopia Router Config
General:
site:blah.com filename:cgi # cgi kaynak kodunu kontrol et
allinurl:.gov passwd # Bir blackhat favorisi
allinurl:.mil passwd # Baska nir blackhat favori
"Index of /admin/"
"Index of /cgi-bin/"
"Index of /mail/"
"Index of /passwd/"
"Index of /private/"
"Index of /proxy/"
"Index of /pls/"
"Index of /scripts/"
"Index of /tsc/"
"Index of /www/"
"Index of" config.php OR config.cgi
intitle:"index.of /ftp/etc" passwd OR pass -freebsd -netbsd -openbsd
intitle:"index.of" passwd -freebsd -netbsd -openbsd
inurl:"Index of /backup"
inurl:"Index of /tmp"
inurl:auth filetype:mdb # MDB dosyasi
inurl:users filetype:mdb
inurl:config filetype:mdb
inurl:clients filetype:xls # General çizelgeler
inurl:network filetype:vsd # Network diagramlari