Günlük Dosyası Analizi: Gizli SEO fırsatlarını bulmak için Googlebot'u izleyin.

Hayattaki asıl sorun: "SEO neredeyse öldü ... ama Google neden sevmiyor?"
Web yöneticisi veya gelişmiş SEO ekibi için hiç bu şekilde hissettiniz mi? SEO yapmak için zaman ve bütçeyi hem sayfa içi, sayfa dışı, tam içerik yapmak için adadınız. Ama sonunda ... sıralamalar hala sakindi. Ya da daha da kötüsü, yeni yayınlanan yeni içerik, kimsenin duymadığı bir odada bağırıyormuş gibi endeks tarafından vurulmuyor. "Googlebot web sitemize geliyor mu? Ve eğer geliyorsa ... nereye gitti? Neden yapmak istediğimiz önemli bir sayfa bulamıyor?" İş hissi çok ama sonuçları açıkça göremiyor. Hem sinir bozucu hem de en cesaret verici.
İllüstrasyonlar istemi: Grafikler ve SEO verileri ile dolu bilgisayar ekranının önünde oturan web yöneticisi görüntüleri, ancak yüz şaşkın ve yorgun görünüyor.
Bu sorun neden ortaya çıktı: görünmez olan "tarama bütçesi"
Bu problem, iyi olmamanız ya da değil. Denemek. Ancak Googlebot'un "davranışını" göremediğimiz için, hepimiz Google'ın her bir web sitesinde veri toplamak için "tarama bütçesi" veya kota adı verilen bir şey olduğunu biliyoruz. Her gün sınırlıdır. Sorun şu ki, büyük web sitesinde on binlerce ve yüz binlerce. Çoğu zaman tarama bütçesini içen "kara delikler" vardır.
- Dahili arama sonuçları
- Milyonlarca url yaratan yüzlü navigasyonun önünde
- Yinelenen içerik
- Kimsesi olmayan ama yönlendirmeyen eski yüzler
Googlebot çoğu zaman bu sayfalarla harcadığında, önemli bilgileri toplamak için neredeyse hiçbir kota yoktur. Az önce güncelledik veya tekrar oluşturduğumuzu, tüm SEO stratejimizi "Havzada Kürek" gibi yaptık, çünkü Google bu iyileştirmeleri hiç görmedi.
İllüstrasyonlar istemi: Basit infografik görüntüler. Googlebot, "önemli içerik" olarak çalışmak yerine "işe yaramaz sayfalar" işareti ile "kara deliğe" girer.
Eğer bırakılırsa, nasıl etkilenecek: sessiz bir felaket.
Tarama bütçesinin süresiz olarak sızmasına izin vermek, suyun delik tankından sızmasına izin vermek gibi değil. Sonuçlar beklenenden daha ciddiydi. Ve SEO'nuzu yavaşça ısıracak:
- Dizinleme Gecikmesi: Yeni sayfa veya güncellenmiş sayfa Google veritabanında çok daha yavaş tutulacaktır. Daha hızlı hareket eden rekabete dezavantajlara neden olmak
- Sıralama düştü: Google güncellemeyi görmediğinde, web sitenizin "eski" ve taze olmadığını görecektir. Google'ın gözündeki güvenilirlik doğrudan sıralamaya indirgenecektir.
- Kayıp İş Fırsatları: Arama sonuçlarında yeni ürün sayfaları, promosyonlar veya önemli makaleler görünmez, bu da alınması gereken trafiği ve satışları kaybetmek anlamına gelir.
- Sunucu gereksiz yere çalışır: yüz binlerce sorumluluktan ezilmek. Her gün sayfa, sunucu kaynaklarının muazzam bir israfıdır. , uzun vadede yavaş indirme web sitesi ve sayfa çekim problemlerine yol açabilir
İllüstrasyonlar istemi: yavaş yavaş yavaş bir simge ile düşen SEO sıralama grafiği. Ve uçan para, fırsatı iletmek için eksik
Herhangi bir çözüm var mı? Ve nereden başlamalıdır: "Günlük dosyası analizi" cevaptır.
Bu felaketi durdurmanın tek yolu, Googlebot'un web sitemizde ne yaptığını görmek için "Işığı Aç" ı. Bunu yapmanın en güçlü aracı "günlük dosyası analizi" veya sunucunun kayıt dosyasının analizidir.
Günlük dosyası, sunucuda meydana gelen tüm etkinliklerin bir kaydıdır. "Googlebot" adı verilen "kullanıcı ajanı" nın girişi dahil. Bu dosya analizi tüm gerçeği görmemize izin verecektir:
- Googlebot web sitemize ne sıklıkla gelir? (Tarama frekansı)
- En çok ne tür bir zaman alır? (Tarama bütçe tahsisi)
- Bir hata sayfası (404) veya sunucu sorunu (5xx) buluyor mu?
- Googlebot'un hiç girmediği önemli bir görev var mı? (Keşif sorunları)
- Googlebot'un gözünde "Pop Pula" görevleri hangi sayfa?
Günlük dosyası analizini başlangıç düşündüğünüz kadar zor değil. İlk adım, barındırma hizmet sağlayıcınızdan bir günlük dosyası istemektir. Pro arasında popüler olan Screaming Frog: SEO günlük dosya analizörü gibi özel bir analiz aracı kullanın ilkeleri derinden anlamak için Moz: Log Dosya Analizi gibi güvenilir kaynaklardan ek yönergeler inceleyin
İllüstrasyonlar istemi: Büyüteçler uzun metin günlüğü dosyasına bakıyor ve Googlebot simgesi "iz" ni açıkça görüyor gibi görünüyor.
Eskiden başarılı olan gerçek şeyden örnekler: Log dosyasından bilgi ile e-ticaret web sitesini canlandırın.
Daha net görmek için yüz binlerce ürünle büyük bir e-ticaret web sitesi vakasını düşünün. Metinlere göre tüm SEO'ları yapmasına rağmen, yeni koleksiyonun Google'da sıralanmadığı konusunda bir sorunla karşılaştılar. Ekip günlük dosyası analizi yapmaya karar verdi ve bulunanlar çok şok ediciydi.
Keşfedilen sorunlar: Tarama bütçesinin% 70'i ürün filtresinin taraması ile kullanılır ( /elbiseler? Ve bu sayfalar zaten googlebot birçok avantajı kaybetmiş gibi, `` noindex '' olarak kuruldu
Yöntem: Ekip, GoogleBot'un tüm parametrelere sahip URL'ye müdahale etmesini ve web sitesinin mimarisinin (bilgi mimarisi) yapısını
Bulgular: Bundan sadece 1 ay sonra, günlük dosyası Googlebot'un yeni ürünlerin ana sayfalarına ve sayfalarına odaklanmaya başladığını gösteriyor. Sonuç olarak, koleksiyonun yeni koleksiyonu Google'ın ilk sayfasında görünmeye başladı ve organik satışlar önümüzdeki çeyrekte% 40 arttı. Bu, "his" değil, "veri" kullanma kararları verme gücüdür.
İllüstrasyonlar istemi: Önceki ve sonrası grafik görüntü, düzenlemeden önce tarama bütçesi tahsisini gösterir (% 70'i israftır) ve değişiklikten sonra (% 80'i önemli sayfalardır) daha yüksek satış grafiğine işaret eder.
Takip etmek istiyorsanız, ne yapmalı? (Hemen kullanılabilir): Eylem Planı, Googlebot izleri
SEO dedektifi olmaya hazır mısınız? Bu hemen takip edebileceğiniz bir adımdır.
- Ana bilgisayardan bir günlük dosyası isteyin: Erişim günlükleri veya sunucu günlükleri istemek için barındırma hizmeti sağlayıcınıza başvurun, istediğiniz zamanı belirtin. (En az 7-30 gün önerilir)
- Araçları seçin ve yükleyin: Screaming Frog SEO Günlük Dosya Analizör programını veya iyi olduğunuz diğer araçları indirin ve yükleyin.
- İçe ve Ayar: Programı açın ve günlük dosyasını içe aktarın. Sistem, verileri tam olarak filtrelemek için Googlebot'un kullanıcı ajanını onaylayabilir.
- -Derinlik veri analizinde:
- URL'ler: En sık tarama URL'si hangi URL olduğunu görüyor musunuz? Önemli bir görev mi?
- Yanıt Kodları: Googlebot'un çok fazla bulduğu 404 veya 5xx sayfası var mı? Acele et ve şimdi düzeltin!
- Dizinler: Googlebot'un önem verdiği hangi klasör ( /blog /, /ürünler /)? İş hedeflerinizle tutarlı mı?
- Yetim URL'leri: Günlük dosyasında görünen, ancak normal web sitesinde (Screaming Frog veya Site: Ara: Ara) görünmeyen URL'yi arıyor. Bu sayfalar bağlantıları olan "epidermis". Ama unutmuş olabilirsiniz
- Eylem Planı Oluştur: Tüm verilerden, `robots.txt`in kullanımı gibi düzenlemeyi planlamak, önemli değil, 301'in sayfa 404 için yönlendirmesini veya Googlebot'u görevinize yönlendirmek için dahili bağlantıyı yapmak gibi. Google'da sıralama stratejisinin önemli bir parçası olan
İllüstrasyonlar istemi: Her öğede simgeler, dosyalar, araçlar, grafik simgeleri ve roket -roket simgeleri gibi simgelerle "Eylem Planı" ile kontrol listesi görüntüleri.
İnsanların merak ettiği sorular ve temizlenen cevaplar
S1: Dosya analizini ne sıklıkla yapıyoruz?
C: Sık sık değişim olan büyük web siteleri için yeni problemler bulmak ve genel web siteleri için aylık olarak yapılmalıdır, ancak her çeyrek (3 ay) yapmak genel resmi görmenizi ve düşmemeniz için yeterlidir.
S2: Paylaşılan barındırma kullanıyorsanız, günlük dosyasının yapmasına izin vermiyor mu?
C: Bu, paylaşılan bazı barındırmaların önemli bir sınırlamasıdır. Bu durumda, barındırmayı dosyalara tam erişim sağlayan bir VPS veya özel sunucu olarak yükseltmeyi düşünmenin zamanı gelmiş olabilir. Veya Google Arama Konsolu'ndan (tarama istatistikleri) hazır veri analizi değilse, bazı bilgiler sağlamak için yeterlidir. Ancak günlük dosyası kadar ayrıntılı değil
S3: Google arama konsolu ile günlük dosyası arasındaki fark nedir?
A: Google Search Console (GSC), Google "ın" çok yararlı "görmemizi istediği" özet "bilgileri sağlar, ancak günlük dosyası analizi" aslında "olan" ham "dır. Tam ve filtre vermez. Diğer botlardan tarama davranışı veya web ekranını etkileyen CSS/JS dosyasına erişme sıklığı gibi GSC'nin rapor edemeyeceği sorunu görmemize izin verir.
S4: Ne tür bir web sitesi analizi için uygundur?
IR web sitesi de dahil olmak üzere çok sayıda içeriğe sahip web siteleri gibi büyük ve karmaşık web siteleri için idealdir . Ancak Googlebot'un davranışını anlayan küçük bir web sitesi bile her zaman bir avantajdır.
İllüstrasyonlar istemi: bir soru işareti ile görüntü simgesi ve çözümü taşıyan daha parlak bir lamba var
Anlaması kolay olmak için özet + yapmaya çalışmak istiyorum
Günlük dosya analizi, durumunuzu "inanca göre SEO kişilerinden" değiştirmektir. Rastgele bir durak. Ardından doğrudan sunucunuzda olan gerçeğe bakmak için dönün. Googlebot'un web sitemizde ne gördüğünü ve önem verdiğini anlayın. Tarama bütçesinin iyileştirilmesinin kalbi en etkili olanıdır ve uzun süredir duran sıralamaların kilidini açmanın önemli bir anahtarıdır.
Elmasları elinizde görmemek için Googlebot ile tüm çabalarınızın boşa harcanmasına izin vermeyin. El fenerini gölgeye çevirmenin zamanı geldi. Ve Googlebot seyahatinin yönünü kendiniz kontrol edin, bugün verdiğim teknik ve prosedürleri uygulamaya çalışın. Ve başka bir SEO fırsatının hiç ilgilenmediğiniz bilgilere saklandığını göreceksiniz.
SEO'yu tamamen için uzmanlara ihtiyaç duyduğunu düşünüyorsanız Ekibimiz her zaman sizin için en iyi çözümü bulmak için tavsiye vermeye hazırdır.
İllüstrasyonlar istemi: Sunucu kütük duvarının arkasındaki gizli hazine sandığını keşfeden ve gizli fırsatların keşfini aktaran bir dedektifin resmi.
Son blog

Davanın derinlikte, web sitesi dönüşüm oranını ve kayıtlı kayıt sayısını artırmak için CRO ve UX ilkelerini kullanarak SaaS StarPup'a tasarlamaktadır.

KOBİ, kurumsal, e-ticaretten fiyatı etkileyen faktörlerle özel web sitesine her bir web sitesinin maliyetini dağıtın.

Bilgi mimarisi (IA) veya veri mimarisi ilkelerini açıklayın. Kullanıcıların kolayca bilgi bulabilmeleri için web'deki içeriği ve menüyü düzenlemeye nasıl yardımcı olur