İndeksleme Sorunlarını Belirleme ve Düzeltme

İndexlenme sorunu son derece yaygın bir SEO sorunudur ve küçük WordPress bloglarından büyük çaplı yazılımlı sitelere kadar tüm web sitelerini etkiler.

İndexlenmenin daha ciddi olduğu durumlar genellikle e-ticaret sitelerinde görülür. Çünkü kullanıcılar, ürün filtrelemelerinden yararlanır ve kullanıcıların istedikleri ürünleri hızlı bir şekilde tanımlamaları sağlanır. Bu filtreleme neticesinde de bir çok basit yazılımlı örneğin Open Cart web siteleri, URL’ler üreten ürün filtreleri yüzünden milyonlarca URL’ye sahip Google’ın dizinine yalnızca birkaç yüz ürün görülüyor.

Peki Neden İndexleme Sorun Teşkil Ediyor?

Biline bir gerçek, Google ve diğer arama motorları web sitenizi taradığında, siteni bütünüyle taramazlar. Gereksiz URL’leri taramaya izin verilmesi bu kaynağı boşa harcamış olmak demektir. Özellikle e-ticaret sitelerindeki filtreleme kısmı düzgün yapılmadığı taktirde içerik sorunlarının çoğalmasına neden olur. Arama motorları sayfanın kendisi açısından hangi URL’nin sıralanacağından emin değilse, anahtar kelimelerde tek bir sayfanın öne çıkmasını ve alaka düzeyini düşürebilir.

 

İndeksleme şişmesini nasıl düzeltebilirim?

Aşağıdakiler indeksleme patlamasının en yaygın nedenlerinden bazılarıdır, ancak bu nedenlerden birden fazlasına sahip olmak da az rastlanır değildir.

Hem http hem de https protokolleri aracılığıyla sunulan alan URL’leri
Yinelenen bir URL’ye neden olan sayfaların yazdırılabilir sürümleri
Dahili aramadan kaynaklanan parametre URL’leri
Ürün filtrelerinden kaynaklanan parametre URL’leri
Sayfalara numara koyma
Blog taksonomileri
URL’lerdeki oturum kimlikleri
Geçiş sonrasında eski URL’lerin doğru şekilde yönlendirilmemesi
URL’lerin sonunda çoğaltmaya neden olan eğik çizgiler
UTM kaynağı
Meta robotlar ile sabitleme

Meta robots etiketi kullanmak index şişmesini önler. En iyi uygulama, “noindex, follow” seçeneğini kullanmaktır.Bu şekilde sayfaya işaret eden herhangi bir geri bağlantı hala alan adında eşitlik sağlamaya devam edecektir.

Robots.txt Dosyası

Robots.txt dosyasındaki URL parametrelerini engellemek önleyici fakat mutlak bir çözüm değildir.

Bir Robots.txt dosyasının tamamı, doğrudan bir arama motoru tarafından bir sayfayı taramamaktadır; ancak, sayfa dahili olarak veya harici sitelere bağlanıyorsa, Google yine de sayfayı dizine ekleyebilir. Bu iç bağlantıların nerede olduğunu biliyorsanız onlara bir rel = “nofollow” ekleyin.

Benzer Yazılar

Yorum Bırak