0.2 C
New York kenti
26 Aralık 2024
Teknoloji

Google robots.txt protokolünü standart haline getirmek istiyor

Arama robotları, bir sitenin hangi kısımlarını inceleyip hangilerini atlayacağını öğrenmek amacıyla robots.txt evrakından yararlanıyor. REP (Robots Exclusion Protocol) olarak isimlendirilen robots.txt protokolü, Google tarafından standart haline getirilmeye çalışıyor. Bu hedefle robots.txt ayrıştırıcı kütüphanesi açık kaynak olarak paylaşıldı.

Robots.txt ayrıştırması standart hale geliyor

25 yıllık REP, standart üzere gözükse de farklı web geliştiriciler robots.txt belgesini ayrıştırırken farklı yöntemler kullanabiliyor. Haliyle bu da karışıklığa sebebiyet veriyor. Kimi arama robotlarının da boyutları yüzlerce megabayta varan robots.txt evraklarını okumakta zorlanması durumları zorlaştıran bir diğer sıkıntı. Velhasıl Google, kendi ayrıştırıcısını açık kaynak kodlu yayınlayarak bu stil sıkıntıların ortadan kalkıp, aşikâr bir standardın oluşmasını istiyor.

Google, birçok iş koluna ayrılmış olsa da arama motoru kısmı şirketin temelini oluşturuyor. Sitelerin indekslenip arama sonuçlarında çıkması da Googlebot isimli arama robotu sayesinde sağlanıyor. Farklı geliştiricilerin de kendi arama robotları var. Robots.txt ayrıştırması için Google’ın yayınladığı bu kütüphane kullanılırsa, arama robotlarının da siteleri indekslemesi çok daha rahat olacak.

Tabii ki geliştiriciler tarafından benimsenmediği sürüce standart haline gelmesi mümkün değil. Fakat Google “Web site sahiplerinin ve geliştiricilerin internet tecrübesini geliştirmeye odaklanıp, arama robotlarını nasıl denetim edecekleriyle uğraşmamalarını istiyoruz.” açıklamasında bulundu. Geliştiricilerden kütüphane hakkında geri dönüşler bekleniyor.

Related posts

İngiliz Üniversiteleri, öğrencilerin sosyal medya hesaplarını inceleyerek intiharları önleyecek

admin

Apple eksik OLED siparişleri nedeniyle Samsung’a 683 milyon dolar ödedi

admin

MSI’dan şık ancak çok güçlü mini canavar

admin

Leave a Comment