Sonuçları görmek ve/veya aramayı sonlandırmak için "esc" tuşuna basın.

En Yanlış Anlaşılan SEO Aracı: XML Site Haritaları

SEO danışmanlığımda yıllar boyunca, XML site haritaları hakkında vahşi yanlış kavramalarla karşılaştığım birçok müşteriyi gördüm. XML Sitemap kesinlikle güçlü bir araçtır – ancak herhangi bir güç aracı gibi, tüm parçaların nasıl işlediğine dair küçük bir eğitim ve arka plan uzun bir yol kat etmek gereklidir.

İndeksleme

Muhtemelen en yaygın yanlış kanı XML site haritasının (XML Sitemap) sayfalarınızın dizine eklenmesine yardımcı olmasıdır. Düzeltmek zorunda olduğumuz ilk nokta şudur: Google, sayfalarınızı güzel dizayn ettiğiniz için dizine eklemez. Google onları bulup taradığı ve bunları dizine eklemeye değer nitelikte gördüğü için indeksledi. Google’ı bir sayfaya yönlendirmek ve bunları dizine eklemelerini istemek aslında Google Analytics’i etkilemez.

Bunu söyledikten sonra, bir XML site haritasını Google Search Console’a göndererek Google’a, XML site haritasındaki sayfaları dizine eklemeye değecek iyi kaliteli arama açılış sayfaları olarak gördüğünüze dair bir ipucu veriyorsunuz. Ancak, ana menüden bir sayfaya bağlanmak gibi sayfaların önemli olduğuna dair bir ipucu var.

Tutarlılık

Müşterilerde gördüğüm en yaygın hatalardan biri, belirli bir sayfada Google ile iletişim konusunda tutarlılık bulunmamasıdır. Robots.txt dosyasında bir sayfayı engellerseniz ve ardından bir XML site haritasına eklerseniz, aslında alay etmiş olursunuz. “Burada, Google … gerçekten dizine eklemeniz gereken hoş, sulu bir sayfa” diyor site haritanız. Ancak robots.txt dosyanız bunu kaldırıyor! Meta robotlarla aynı şey: Bir XML site haritasına bir sayfa eklemeyin ve ardından meta robotlara “noindex, follow” ayarlayın.

Hazır olduğum sürece kısaca meta robotlar hakkında laflayalım: “noindex”, sayfayı dizine ekleme demektir. “Nofollow” söz konusu sayfa hakkında hiçbir şey ifade etmiyor. Bu, “o sayfadan dışarı çıkan bağlantıları takip etmeyin” demektir, yani devam ederseniz gideceğiniz sayfanın güvenilirliğini teyit etmiyorum demektir. Muhtemelen meta robotların “noindex, nofollow” olarak ayarlanması için belirsiz bir gerekçe var, ancak bunun ne olacağı benden fazla. Google’ın bir sayfayı dizine eklememesini istiyorsanız, meta robotları “noindex, follow” olarak ayarlayın.

Şimdi laflamayı bırakıp konumuza dönelim. Genel olarak, daha sonra sitenizdeki her sayfanın iki grup halinde olmasını istersiniz:

  • Yardımcı program sayfaları (kullanıcılar için yararlıdır, ancak arama açılış sayfası olmasını beklediğiniz herhangi bir şey değildir)
  • Nefis, yüksek kaliteli arama açılış sayfaları

# 1 kovada her şey robots.txt tarafından engellenmeli veya “noindex, meta robotları” ile engellenmeli ve bir XML site haritasında olmamalıdır.

# 2 kovada her şey robots.txt’de engellenmemeli, “noindex” meta robotlarına sahip olmamalı ve büyük olasılıkla bir XML site haritasında olmalıdır.

Genel site kalitesi

Google’ın genel site kalitesini ölçmek ve bu çapraz metriği sıralamayı etkilemek için kullandığı görülüyor – burada bağlantı akışı hakkında konuşmuyorum.

Bunu Google’ın bakış açısıyla düşünün. Diyelim ki muhteşem sayfalarınızın hepsi, Panda’dan sosyal medya etkileşimine kadar tüm kutuları işaretleyen müthiş içerikle doludur. Google, sitenizi 1.000 sayfalık içerik sayfası olarak görürse, bunun yalnızca 5-6 sayfalık bir harika sayfası varsa Google, bu harika sayfalardan birine bir kullanıcı gönderirse, tıkladığınızda kullanıcı tecrübesi neye benzeyecek? O sayfada bir bağlantı mı var ve sitenizde başka bir şey mi arıyorsunuz? Şansa berbat bir sayfaya gelecekler. Bu kötü bir UX örneği. Neden böyle bir siteye kullanıcı göndermek istesinler?

Google mühendisleri, her sitede, kullanıcılara yararlı ancak arama kaynaklı açılış sayfaları olması gereken içerik türü sayfaları bulunmayan belirli sayıda “faydalı” sayfası bulunduğunu kesinlikle anlıyoruz. İçeriği başkalarıyla paylaşma, yorumlara cevap verme, üye giriş sayfaları ve şifre yenileme sayfaları vb.

XML site haritanız bu sayfaların tümünü içeriyorsa, Google ile nedene iletişim kuruyorsunuz? Az ya da çok, sitenizde neyin iyi içerik oluşturduğuna ve neyin olmaması gerektiği hakkında hiçbir ip ucunuzun olmadığını gösterir tüm sayfaların XML site haritaları üzerinde yer alması.

Bunun yerine Google’a taranmasını istediğiniz sayfaları bildirin. Evet, 1.000 sayfalık bir sitemiz var ve büyük içerik sayfalarımız olan 1.000’in 475’i burada. Diğerlerini yoksayabilirsiniz – bunlar yardımcı program sayfalarıdır.

Şimdi, Google’ın bu 475 sayfayı taradığını ve metrikleriyle bunların 175’inin “A” not ortalaması, 200’ü “B +” ve 100’ün “B” veya “B-” olduğuna karar verelim. Genel ortalamanın oldukça iyi ve muhtemelen kullanıcıları göndermek için oldukça sağlam bir siteye işaret ediyor.

XML site haritası aracılığıyla 1.000 sayfayı bir gönderen bir siteyle karşılaştırın. Şimdi, Google iyi içeriğe sahip olduğunu söylediğiniz 1.000 sayfaya bakıyor ve% 50’nin üzerinde “D” veya “F” sayfası olduğunu görüyor. Ortalama olarak siteniz oldukça berbat durumda, Google büyük olasılıkla bu tür bir siteye kullanıcı göndermek istemiyor.

Gizli hatalar

Unutmayın, Google, XML site haritanızda gönderdiğiniz sayfaları sitenizde muhtemelen önemli ipucu olarak kullanacaktır. Ancak XML site haritanızda bulunmadığı için Google’ın bu sayfaları görmezden gelmesi anlamına gelmez. Dizine eklenmek için ancak yeterince içeriğe sahip ancak binlerce sayfaya sahip olabilirsiniz ve bağlantı eşitliği yapabilirsiniz, ancak olmamalıdır.

Bir siteyi yapmak önemlidir. Google’ın sitenizden dizine eklediği tüm sayfaları görmek için unuttuğunuz sayfaları keşfetmek için arama yapın ve Google’ın meta ayarı ile sitenize verdiği “ortalama not” dan temizleyin. Robotlar “noindex, follow” (veya robots.txt dosyasında engelleme). Genel olarak, dizini hala oluşturan en zayıf sayfalar en son bir sitede listelenir: arama sonuçları.

Noindex ve robots.txt

Bir sayfanın indekslenmesini önlemek için meta robotları kullananlar ile robots.txt’yi kullananlar arasında önemli ama ince bir fark vardır. Meta robotları kullanarak “noindex, follow”, o sayfaya giden link akışının bağlandığı sayfalara akmasını sağlar. Sayfayı robots.txt ile engelliyorsanız fırsatı tamamen kapıdan dışarı atmış oluyorsunuz.

Yukarıdaki örnekte, gerçek sayfalar olmayan sayfaları engelledim – komut dosyalarını izliyorlar – bu nedenle bağlantı özdeşliğini kaybetmiyorum, bu sayfaların ana menü bağlantıları ile başlığı yok gibi.

Bir iletişim sayfası veya bir gizlilik politikası sayfası gibi bir sayfayı düşünün – muhtemelen ana menü veya alt menü aracılığıyla sitenizdeki her bir sayfa ile bağlantı verdiniz. Dolayısıyla bu sayfalara gidecek bir ton bağlantı akışı var. Sadece onu atmak istiyor musun? Veya ana menüde her şeyin akmasına izin verip vermeyeceksin? Cevaplamak kolay bir soru, değil mi?

Tarama bant genişliği yönetimi

Bunun yerine aslında ne zaman robots.txt kullanmak isteyebilirsin? Belki de tarama bant genişliği sorunlarınız varsa ve Googlebot, yardımcı program sayfaları getirmek için çok fazla zaman harcıyorsa, yalnızca meta robotların “noindex, follow” komutlarını keşfetmek ve kurtarmak zorunda kalmanız gerekir. Bunlardan çok fazlasına sahipseniz, Googlebot önemli sayfalarınıza ulaşamayabilir, o zaman robots.txt yoluyla engellemeniz gerekebilir.

XML site ahritalarını temizleyerek ve hizmet sayfalarını noindexing yaparak bir dizi müşteriye derecelendirmeyi iyileştirme gördüklerini gördüm:

Günlük tarama yapmam gereken 6.000 ila 20.000 sayfaya sahip miyim? Yoksa Googlebot, yanıt yazan açıklama veya e-posta yoluyla URL’ler göndermeyi mi takip ediyor?

Bilin ki, içeriğin düzenli olarak değiştiği (bir blog, yeni ürünler veya ürün kategorisi sayfaları gibi) bir çekirdek kümesi sayfanız varsa ve güzel olabileceğiniz bir ton sayfaya (tek ürün sayfası gibi) sahip olabilirsiniz. Google bunları indekslediyse ancak çekirdek sayfaları taramadan, Google’da engellenenlerden daha önemli olduğunu düşünen bir ipucu vermek için çekirdek sayfaları bir XML site haritasında gönderebilirsiniz. Ancak ana site haritasında değil.

İndeksleme hatalarını onarma

İşte XML site haritasının SEO’lar için gerçekten yararlı olduğu yerler. Dizine eklenmesi için Google’a bir sürü sayfa gönderirken yalnızca bazıları aslında dizine eklenmektedir. Google Search Console, hangi sayfaları dizine eklediğini size söylemez; yalnızca her XML site haritasında dizine eklenen genel bir sayı bilgisi verir.

Bir e-ticaret sitesi olduğunuzu ve 100.000 ürün sayfası, 5.000 kategori sayfası ve 20.000 alt kategori sayfası olduğunu varsayalım. XML site haritanızı 125.000 sayfalık bir gönderimde bulundurun ve Google’ın bunlardan 87.000’i dizine eklediğini öğrenin. Ama hangi 87.000?

Öncelikle, kategoriniz ve alt kategorinizdeki sayfalar muhtemelen sizin için TÜM önemli arama hedefleridir. Bir kategori-sitemap.xml ve alt kategori-site haritası.xml oluşturur ve bunları ayrı ayrı gönderirim. Orada% 100’lük bir endeksleme görmeyi bekliyorsunuz – ve bunu yapamıyorsanız, onlarla ilgili daha fazla içerik oluşturmaya, onlara artan bağlantı akışı vermeye veya her ikisine de bakmanız gerektiğini biliyorsunuzdur. Dizine eklenemeyen ürün kategorisi veya alt kategori sayfaları gibi bir şey keşfedebilirsiniz; bu ürünlerde yalnızca 1 ürün var (veya hiçbiri yok) – bu durumda muhtemelen meta robotların “noindex’i ayarlamasını” ve bunlarla ilgili olarak takip etmesini istemezsiniz. Onları XML site haritasından çıkartın.

Şans, sorun 100.000 ürün sayfasının bazılarında yatıyor – hangileri?

Bir hipotez ile başlayın ve bu hipotezleri test etmek için ürün sayfalarınızı farklı XML site haritalarına bölün. Bir kerede birkaç şey yapabilirsiniz – çok sayıda site haritasında bir URL’ye sahip olmakla ilgili yanlış bir şey yoktur.

3 kuramla başlayabilirsiniz:

  • Ürün görüntüsü olmayan sayfalar dizine eklenmiyor
  • 200 kelimeden daha az benzersiz açıklama içeren sayfalar dizine eklenmiyor
  • Yorumlar / incelemeler bulunmayan sayfalar dizine eklenmiyor

Bu kategorilerin her birine giren anlamlı sayıda sayfa içeren bir XML site haritası oluşturun. Bu kategorideki tüm sayfalar olması gerekmiyor – örnek boyutunun, dizine eklemeye dayalı bir sonuç çıkarması mantıklı olmasına yetiyor. Örneğin her biri 100 sayfa yapabilirsin.

Buradaki amacınız, dizine eklenmesine veya dizine eklenmesine neden olan sayfaların niteliklerini belirlemek için belirli bir site haritasının genel yüzde endekslemesini kullanmaktır.

Sorunun ne olduğunu bildikten sonra, sayfa içeriğini (veya sayfalara bağlantıları) değiştirebilir veya sayfaları noindex olarak değiştirebilirsiniz. Örneğin, ürün açıklamasının 50 kelimeden az olduğu 100.000 ürün sayfanızdan kurala uyan 20.000’e sahip olabilirsiniz. Bunlar büyük trafik şartları değilse ve açıklamaları bir üreticinin yayınından alıyorsanız, muhtemelen bu 20.000 sayfanın her biri için 200 kelime daha ek açıklama yazmaya çalışmaya değmez. 50 kelimeden daha az kelimeli ürün açıklaması olan tüm sayfalar için “noindex, follow” meta robotları ayarlayabilirsiniz, çünkü Google bunları yine de dizine eklemez ve yalnızca genel site kalitesi derecenizi düşürür. Ayrıca bunları XML site haritanızdan kaldırmayı unutmayın.

Dinamik XML site haritaları

Şimdi düşünüyorsun, “Tamam, harika, fakat şimdi XML site haritam benim 100.000 sayfamın tamamında meta robotlarımla senkronize etmeliyim” ve bunun olması muhtemel değil. Ancak el ile bunu yapmaya gerek yoktur. XML site haritalarının statik dosyalar olması gerekmez. Aslında, bunları Google Search Console’da göndermek için bir .XML uzantısına sahip olmanız bile gerekmez.

Bunun yerine, bir sayfanın XML site haritasına dahil edilip edilmeyeceğini belirlemek için kural mantığını ayarlayın ve sayfadaki meta robot dizini veya noindex ayarlamak için aynı mantığı kullanın. Bu şekilde, üreticinin yayınındaki ürün tanımlamasının üretici tarafından güncellendiği ve 42 kelimeden 215 kelimeye geldiği andan itibaren, sitenizdeki sayfa sihirli bir şekilde XML site haritasında görünür ve meta robotlarının “dizine alın, takip edilsin” ayarlanır.”

Seyahat web sitemde bunu bir ton farklı sayfa için yapıyorum. Klasik ASP bu sayfalar için kullanıyorum, bu yüzden site haritaları var:

Bu site haritaları getirildiğinde, bir HTML sayfası sunmak yerine sunucu tarafı kodu basitçe XML’i geri yayar. Bu, veritabanı tablolarımdan bir kayıt kümesi üzerinde yinelemeler ve belirli bir kritere uyan her biri için bir kayıt oluşturur.

Video site haritaları

Ah, ve şu sinir bozucu video XML site haritaları ne oldu? 2015’e kadardı. Wistia artık bunları üretmekle uğraşmıyor; Sayfanın kendisinde JSON-LD ve schema.org/VideoObject işaretlemelerini kullanmanız gerekir.

ÖZET

  1. Tutarlı olun – robots.txt’de veya meta robotlar “noindex” ile engellenmişse, XML site haritanıza dahil etmeyin.
  2. Dizin oluşturma sorunlarınızı keşfetmek ve ortadan kaldırmak için XML site haritalarınızı boşaltma araçları olarak kullanın ve yalnızca Google’dan dizine eklemek istediğini bildiğiniz sayfaları dizine eklemesine izin verin.
  3. Büyük bir siteniz varsa, dinamik XML site haritaları kullanın – tüm bunları robots.txt, meta robotlar ve XML site haritaları arasında senkronize etmeye çalışmayın.

KAYNAK: https://moz.com/blog/xml-sitemaps

Yorumlar

6 Yorum

Uğur

O kadar uzun ve nitelikli bir yazı olmuş ki kendimi yabanci kaliteli sitelerin bloglarinda hissettim. Elinize sağlık

erkan tonbul

çok korkunç bir çeviri olmuş.

ismailbaskin

<>

Bu bir çeviri mi, çevrilmiş olan dil Türkiye Türkçesi mi?

ismailbaskin

‘Muhtemelen meta robotların “noindex, nofollow” olarak ayarlanması için belirsiz bir gerekçe var, ancak bunun ne olacağı benden fazla.’

Bu bir çeviri mi, çevrilmiş olan dil Türkiye Türkçesi mi?

Kağıthane Kurye

Merhabalar benim site haritam getirilemedi diyor ne yapmam lazımlütfen

İsmail Emrah Demirayak

Merhaba,

Yeni Google Search Console’da linkteki şekilde eklemediyseniz, önce bunu deneyebilir misiniz? https://www.aramamotoru.com/google-search-consoleda-site-haritasi-nasil-eklenir/


Yorum yap

Bir Cevap Yazın

This site uses Akismet to reduce spam. Learn how your comment data is processed.