MeY
22.07.2009, 12:20
Google'ın ağda gezen örümcekleri
Google küçük bir anahtar kelime yardımıyla ilgili sonuçları nasıl buluyor; diğerlerinden farkı ne?
Botlar internette ne varsa araştırıyor, ne kadar çok bot, o kadar iyi sonuçlar
Google gibi arama motorları nasıl oluyor da aradığımız bilgiyi bir saniyeden kısa bir sürede karşımıza getiriyor? Nasıl çalışıyor hiç merak ettiniz mi?
Arama motorlarının hızlı ve doğru arama sonuçları sunmak için yaptığı üç işlem var. Devamlı interneti tarayarak sayfaları bulmak, okumak ve endeksleyerek arama geldiğinden içinden uygun sonuçları sıraya dizip kullanıcının karşısına getirmek. Üçten fazla mı oldu? Hayır, temelde arama, kıyaslama ve sıralama üçlüsü var, diğerleri ara işlemler.
"Spidering" denilen tabir, ağ ve örümcek ilişkisi gibi arama motorunun yuvası olan ağı dolaşıp nerede ne var bilmesi anlamına geliyor. Kısaca interneti taramak diyebiliriz. Bu işi yapan, internet sitelerini okuyarak kaynak kodu analiz eden ve bağlantıları takip eden algoritmalar oldukça özel. Bu sayfaları kaydedip daha sonra detaylı bir şekilde analiz ediyorlar. İnternette bu "Web crawler", "web robot" veya "bot" da denilen programları yazmanın yolu yordamı da var. Ancak işin incelikleri, arama motorlarının kullandığı başarılı sürümlerin sırları saklı.
Google küçük bir anahtar kelime yardımıyla ilgili sonuçları nasıl buluyor; diğerlerinden farkı ne?
Botlar internette ne varsa araştırıyor, ne kadar çok bot, o kadar iyi sonuçlar
Google gibi arama motorları nasıl oluyor da aradığımız bilgiyi bir saniyeden kısa bir sürede karşımıza getiriyor? Nasıl çalışıyor hiç merak ettiniz mi?
Arama motorlarının hızlı ve doğru arama sonuçları sunmak için yaptığı üç işlem var. Devamlı interneti tarayarak sayfaları bulmak, okumak ve endeksleyerek arama geldiğinden içinden uygun sonuçları sıraya dizip kullanıcının karşısına getirmek. Üçten fazla mı oldu? Hayır, temelde arama, kıyaslama ve sıralama üçlüsü var, diğerleri ara işlemler.
"Spidering" denilen tabir, ağ ve örümcek ilişkisi gibi arama motorunun yuvası olan ağı dolaşıp nerede ne var bilmesi anlamına geliyor. Kısaca interneti taramak diyebiliriz. Bu işi yapan, internet sitelerini okuyarak kaynak kodu analiz eden ve bağlantıları takip eden algoritmalar oldukça özel. Bu sayfaları kaydedip daha sonra detaylı bir şekilde analiz ediyorlar. İnternette bu "Web crawler", "web robot" veya "bot" da denilen programları yazmanın yolu yordamı da var. Ancak işin incelikleri, arama motorlarının kullandığı başarılı sürümlerin sırları saklı.