SEO 01.05.2026 Optimia Admin

Robots.txt Nedir? SEO İçin Doğru Kullanım Rehberi (2026)

Robots.txt, arama motoru botlarına web sitenizde hangi sayfaların taranıp hangilerinin taranmayacağını söyleyen bir metin dosyasıdır. SEO açısından doğrudan sıralama faktörü olmasa da crawl budget yönetimi ve indexleme süreci üzerinde önemli bir etkiye sahiptir.

Uzman içerik yaklaşımı Güncel dijital trendler Uygulanabilir öneriler
Robots.txt Nedir? SEO İçin Doğru Kullanım Rehberi (2026)
İçindekiler

Web sitelerinin arama motorlarında nasıl tarandığını ve hangi sayfaların görünür olacağını belirleyen en kritik dosyalardan biri robots.txt’dir. Doğru yapılandırılmış bir robots.txt dosyası, arama motorlarının siteni daha verimli taramasını sağlar; yanlış yapılandırılmış bir dosya ise sitenin tamamının arama sonuçlarından silinmesine kadar gidebilecek ciddi SEO sorunlarına yol açabilir.

Özellikle günümüzde sadece Google değil, aynı zamanda yapay zekâ sistemleri ve farklı botlar da web sitelerini taramaktadır. Bu nedenle robots.txt dosyası artık yalnızca bir teknik gereklilik değil, aynı zamanda stratejik bir SEO kontrol mekanizması haline gelmiştir.

Bu rehberde:

  • Robots.txt’nin nasıl çalıştığını
  • SEO üzerindeki gerçek etkilerini
  • Doğru kullanım senaryolarını
  • Kritik hataları ve optimizasyon yöntemlerini detaylı ve uygulamaya dönük şekilde ele alacağız.

Not: Robots.txt, teknik SEO’nun temel yapı taşlarından biridir. Konunun daha geniş çerçevesi için mutlaka Teknik SEO rehberine de göz atılmalıdır.

Robots.txt Dosyası Nedir, Ne İşe Yarar?

Robots.txt, web sitenin kök dizininde (root directory) bulunan ve arama motoru botlarına hangi sayfaları tarayıp hangilerini taramayacaklarını söyleyen bir metin dosyasıdır.

Basitçe ifade etmek gerekirse: Robots.txt = “Arama motorlarına verilen trafik yönlendirme talimatı.” Bir arama motoru botu (örneğin Googlebot), sitene geldiğinde ilk olarak şu dosyayı kontrol eder:

https://siteadi.com/robots.txt

Bu dosyada yer alan kurallara göre:

  • Hangi sayfaları tarayacağına
  • Hangi klasörlere girmeyeceğine
  • Hangi içerikleri önceliklendireceğine karar verir.

Arama motorları robots.txt dosyasını nasıl okur?

Arama motorları bir siteye eriştiğinde şu adımları izler:

  1. Önce robots.txt dosyasını kontrol eder
  2. Kendi botuna özel kuralları bulur
  3. İzin verilen (Allow) alanları tarar
  4. Engellenen (Disallow) alanlardan uzak durur

Bu süreç, Google Search Central tarafından da açıkça tanımlanmıştır. Resmî dokümana buradan ulaşabilirsiniz.

Kritik detay: Robots.txt taramayı kontrol eder, ancak indexlemeyi garanti etmez veya tamamen engellemez. (Bu farkı ileride detaylı anlatacağız.)

Crawl (tarama) sürecindeki rolü nedir?

Robots.txt dosyasının en önemli görevi, sitenin tarama bütçesini (crawl budget) optimize etmektir.

Bir arama motoru:

  • Siteni sınırsız şekilde taramaz
  • Belirli bir zaman ve kaynak ayırır

İşte burada robots.txt devreye girer:

Robots.txt ile:

  • Gereksiz sayfalar (admin, filtre URL’leri) engellenir
  • Botların önemli sayfalara odaklanması sağlanır
  • Tarama verimliliği artırılır

Örnek:

Disallow: /admin/
Disallow: /cart/
Disallow: /?filter=

Bu yapı sayesinde: Botlar zamanını çöp sayfalarda harcamaz, SEO değeri yüksek sayfalara daha hızlı ulaşır.

Çoğu site robots.txt dosyasını sadece “engelleme aracı” olarak görür. Ama gerçek şu: Robots.txt = Crawl yönetimi + SEO performans optimizasyonu.

Özellikle:

  • E-ticaret sitelerinde (binlerce URL)
  • Blog sitelerinde (kategori + etiket karmaşası)
  • Kurumsal sitelerde (gereksiz sayfa yükü)

robots.txt doğru kullanılmazsa:

  • Crawl budget boşa gider
  • Indexlenmesi gereken sayfalar geç fark edilir
  • SEO performansı düşer

Konunun teknik doğruluğunu destekleyen önemli kaynaklar:

Robots.txt SEO Açısından Neden Önemlidir?

Robots.txt dosyası doğrudan sıralama faktörü değildir; ancak arama motorlarının siteni nasıl taradığını belirlediği için dolaylı olarak SEO performansını ciddi şekilde etkiler.

Basit bir mantıkla:

  • Tarama yoksa index yok
  • Index yoksa sıralama yok

İşte robots.txt tam olarak bu zincirin en başında yer alır.

Crawl Budget (Tarama Bütçesi) Yönetimi

Arama motorları her site için sınırsız kaynak ayırmaz. Özellikle Google, her siteye belirli bir crawl budget (tarama bütçesi) tanımlar.

Bu bütçe:

  • Sunucu kapasitesi
  • Site büyüklüğü
  • Güncelleme sıklığı
  • Site otoritesi gibi faktörlere göre değişir.

Problem:

Eğer robots.txt doğru yapılandırılmazsa:

  • Botlar gereksiz URL’leri tarar
  • Önemli sayfalar geç keşfedilir
  • Tarama verimliliği düşer

Çözüm:

Robots.txt ile:

  • Filtre URL’leri
  • Parametreli sayfalar
  • Admin panelleri engellenerek tarama bütçesi korunur.

Örnek:

Disallow: /*?utm_
Disallow: /*?filter=
Disallow: /admin/

Bu sayede botlar “çöp URL’ler” yerine önemli sayfalara yönlendirilir.

Gereksiz Sayfaların Engellenmesi

Birçok web sitesinde arama motorlarının taramasını istemediğimiz sayfalar bulunur:

Tipik gereksiz sayfalar:

  • /wp-admin/
  • /cart/ (sepet)
  • /checkout/
  • filtre URL’leri
  • test sayfaları

Bu sayfalar:

  • SEO değeri taşımaz
  • Crawl budget tüketir
  • Index karmaşası oluşturur

Robots.txt ile çözüm:

Disallow: /cart/
Disallow: /checkout/
Disallow: /wp-admin/

 Bu yapı sayesinde: Arama motorları sadece gerçekten değerli içeriklere odaklanır.

SEO Performansına Etkisi

Robots.txt’nin SEO’ya etkisi dolaylıdır ama güçlüdür.

Doğru kullanımda:

  • Önemli sayfalar daha hızlı indexlenir
  • Crawl verimliliği artar
  • Site yapısı daha net anlaşılır

Yanlış kullanımda:

  • Tüm site yanlışlıkla engellenebilir
  • CSS/JS bloklanır → sayfa render edilmez
  • Kritik sayfalar taranamaz

Bu durumlar, Google Search Central tarafından da özellikle vurgulanmaktadır.

Robots.txt tek başına bir çözüm değildir. Aslında daha büyük bir yapının parçasıdır: Teknik SEO'dur.

Teknik SEO kapsamında:

  • Site hızı
  • Core Web Vitals
  • Crawl yapısı
  • Indexleme optimizasyonu birlikte değerlendirilmelidir.

Bu nedenle robots.txt konusunu daha geniş çerçevede anlamak için mutlaka: Teknik SEO rehberine göz atılmalıdır.

Robots.txt Nasıl Çalışır? (Mantık ve Yapı)

Robots.txt dosyası, arama motoru botlarına verilen kuralların yer aldığı basit bir metin dosyasıdır. Ancak bu basit yapı, doğru kullanılmadığında ciddi SEO hatalarına yol açabilir. Bir robots.txt dosyası temelde şu mantıkla çalışır:

“Hangi bot → Hangi sayfaya erişebilir / erişemez”. Bu yapı, satır satır okunan kurallardan oluşur ve her kural belirli bir botu (user-agent) hedef alır.

User-agent nedir?

User-agent, robots.txt dosyasında hangi botun kurallardan etkileneceğini belirten tanımdır.

Örnek: 

User-agent: *

Bu ifade: Tüm botlar için geçerli demektir. Ancak spesifik botlara özel kurallar da yazılabilir. Örneğin:

User-agent: Googlebot
Disallow: /admin/

Burada sadece Googlebot için kural tanımlanmıştır.

Yaygın User-agent örnekleri:

  • Googlebot → Google arama botu
  • Bingbot → Microsoft arama botu
  • Slurp → Yahoo botu  → Tüm botlar

Kritik detay: Eğer aynı sayfa için farklı user-agent kuralları varsa, bot kendisine en uygun olanı uygular.

Allow / Disallow komutları: Robots.txt dosyasının temelini bu iki komut oluşturur:

Disallow: Bir sayfanın veya dizinin taranmasını engeller.

Örnek: 

Disallow: /admin/

Bu komutla: /admin klasörüne giriş yasaklanır.

Allow: Belirli bir sayfanın taranmasına izin verir.

Örnek: 

Allow: /blog/

Bu komut ile /blog dizini taranabilir izni verilir.

Kritik senaryo:

Disallow: /blog/
Allow: /blog/yazi-1

Tüm blog kapalı ama “yazi-1” sayfası açık. Bu yapı özellikle büyük sitelerde kullanılır.

Wildcard (*) ve $ kullanımı

Robots.txt’de gelişmiş kontrol için wildcard kullanılır.

* (yıldız) kullanımı

Herhangi bir karakter dizisini temsil eder:

Disallow: /*?utm_

Tüm UTM parametreli URL’ler engellenir.

$ (son karakter) kullanımı

Belirli bir uzantıyla biten URL’leri hedefler:

Disallow: /*.pdf$

Tüm PDF dosyaları engellenir.

Kombin kullanım:

Disallow: /*?filter=
Disallow: /*.xml$

Filtre URL’leri ve XML dosyaları kontrol altına alınır.

Sitemap tanımlama

Robots.txt dosyasında site haritası (sitemap) belirtmek, arama motorlarına önemli bir sinyal verir.

Sitemap: https://siteadi.com/sitemap.xml

Bu sayede:

  • Botlar site yapısını daha hızlı anlar
  • Yeni sayfalar daha hızlı keşfedilir

Robots.txt’yi sadece “engelleme listesi” olarak kullanmak büyük bir hata. Gerçek kullanım: Hangi sayfa → Ne zaman → Ne kadar öncelikle taranmalıdır. 

Bu özellikle şu sitelerde kritiktir:

  • E-ticaret: Filtre URL’leri kontrol edilmezse crawl çöp olur
  • Blog: Etiket sayfaları spam crawl oluşturur
  • Kurumsal: Test ve gereksiz sayfalar index karmaşası yaratır

Robots.txt Dosyası Nasıl Oluşturulur?

Robots.txt dosyası teknik görünse de aslında oluşturması oldukça basittir. Ancak kritik olan nokta, doğru yerde ve doğru kurallarla kullanılmasıdır.

Yanlış konumlandırılmış ya da hatalı yazılmış bir robots.txt dosyası:

  • Hiç çalışmayabilir
  • Tüm sitenin taranmasını engelleyebilir. Bu yüzden adım adım doğru şekilde ilerlemek gerekir.

Manuel oluşturma

Robots.txt dosyası aslında düz bir metin dosyasıdır (.txt). Herhangi bir kod editörü ile kolayca oluşturulabilir.

Adım adım:

  1. Yeni bir metin dosyası oluştur
  2. Dosya adını şu şekilde belirle:

robots.txt

İçine kuralları yaz:

User-agent: *
Disallow: /admin/
Disallow: /cart/
Allow: /blog/
Sitemap: https://siteadi.com/sitemap.xml

Dosyayı sitenin root (ana dizin) klasörüne yükle.

Doğru URL:

https://siteadi.com/robots.txt

Kritik:

  • /blog/robots.txt - yanlış
  • /public/robots.txt - yanlış
  • Sadece root dizin - doğru

WordPress ve CMS sistemlerde robots.txt

Eğer WordPress gibi bir CMS kullanıyorsan robots.txt oluşturmak daha da kolaydır.

WordPress’te yöntemler:

1. SEO eklentileri ile (en pratik)

  • Rank Math
  • Yoast SEO

Bu eklentiler üzerinden: robots.txt dosyasını panelden düzenleyebilirsiniz. 

2. Manuel FTP / Hosting üzerinden

  • cPanel / FTP ile root klasöre eriş
  • robots.txt dosyasını yükle

Bazı WordPress sitelerinde “virtual robots.txt” bulunur. Yani fiziksel dosya yoktur ama sistem otomatik üretir. 

Bu durumda:

  • Eklenti ile override etmek gerekir
  • Aksi halde değişiklikler kaydedilmez

Doğru konumlandırma (root dizin)

Robots.txt’nin çalışması için tek bir şart vardır: Doğru yerde olması. 

Doğru:

https://siteadi.com/robots.txt

Yanlış:

/blog/robots.txt 

/site/robots.txt 

/public_html/blog/robots.txt

Robots.txt’nin Çalıştığını Nasıl Anlarsınız?

Dosyayı oluşturduktan sonra:

  1. Tarayıcıya girin

siteadi.com/robots.txt

  1. Dosya görünüyorsa,  çalışıyor

Daha ileri test için: Google Search Console kullanılabilir.

Search Console üzerinden:

  • robots.txt test edilir
  • hatalar tespit edilir.

En Doğru Robots.txt Örnekleri (Gerçek Senaryolar)

Her web sitesinin yapısı farklı olduğu için tek bir “doğru robots.txt” yoktur. Ancak sektör bazlı en doğru yaklaşımlar vardır.

Aşağıda:

  • Kurumsal site
  • E-ticaret sitesi
  • Blog sitesi için optimize edilmiş örnekleri paylaşıyorum.

Kurumsal Site Robots.txt Örneği

Kurumsal sitelerde amaç:

  • Gereksiz sayfaları engellemek
  • Temiz bir crawl yapısı oluşturmak

Örnek yapı:

User-agent: *

Disallow: /admin/

Disallow: /panel/

Disallow: /giris/

Disallow: /arama/

Allow: /

Sitemap: https://siteadi.com/sitemap.xml

Açıklama:

Alan

Amaç

/admin/

Yönetim panelini gizler

/giris/

Login sayfalarını engeller

/arama/

Düşük değerli arama sayfalarını kapatır

Sitemap

Botlara yön verir

Ne Kazanırsınız?

  • Temiz site yapısı
  • Gereksiz crawl engellenir
  • SEO odaklı tarama

E-Ticaret Robots.txt Örneği

E-ticaret sitelerinde en büyük problem: Filtre ve parametre URL’leri.  Bunlar kontrol edilmezse: Crawl budget tamamen boşa gider.

Örnek yapı:

User-agent: *

Disallow: /cart/

Disallow: /checkout/

Disallow: /account/

Disallow: /*?sort=

Disallow: /*?filter=

Disallow: /*?min_price=

Disallow: /*?max_price=

Allow: /kategori/

Allow: /urun/

Sitemap: https://siteadi.com/sitemap.xml

Açıklama:

Alan

Amaç

/cart/

Sepet sayfasını engeller

filtre URL’leri

Parametre spam’ini önler

kategori & ürün

SEO değeri olan sayfalar açık

Kritik Not: E-ticaret sitelerinde robots.txt yanlışsa: Google binlerce gereksiz URL tarar, asıl ürün sayfaları geç indexlenir. Bu durum Google tarafından crawl verimsizliği olarak değerlendirilir.

Blog Sitesi Robots.txt Örneği

Blog sitelerinde problem: Etiket ve arşiv sayfalarının karmaşası. 

Örnek yapı:

User-agent: *

Disallow: /wp-admin/

Disallow: /tag/

Disallow: /author/

Disallow: /?s=

Allow: /blog/

Sitemap: https://siteadi.com/sitemap.xml

Açıklama:

Alan

Amaç

/tag/

Duplicate içerik riskini azaltır

/author/

Gereksiz sayfa çoğalmasını önler

arama (?s=)

Düşük değerli sayfaları kapatır

Ne Kazanırsınız?

  • Duplicate content azalır
  • Crawl temizlenir
  • Blog içerikleri öne çıkar

Kritik Not: Her Siteye Aynı Robots.txt Kullanılmaz En büyük hatalardan biri: “İnternetten bul → kopyala → yapıştır. ”Bu yaklaşım: SEO zararına yol açabilir.

Doğru yaklaşım:

Robots.txt şu faktörlere göre özelleştirilmelidir:

  • Site türü
  • URL yapısı
  • Trafik stratejisi
  • SEO hedefi

Robots.txt Kullanırken Yapılan Kritik Hatalar

Robots.txt dosyası küçük görünür ama etkisi büyüktür. Tek bir satır hatasıyla:

  • Tüm siteyi arama sonuçlarından silebilirsin
  • Önemli sayfaları görünmez yapabilirsin
  • Crawl yapısını tamamen bozabilirsin

Aşağıdaki hatalar, gerçek projelerde en sık karşılaşılan ve en çok zarar veren hatalardır.

Tüm Siteyi Yanlışlıkla Engellemek

En tehlikeli hatadır:

User-agent: *

Disallow: /

 

Bu ne demek? “Hiçbir bot siteyi tarayamaz.”

Sonuç:

  • Site tamamen crawl dışı kalır
  • Yeni içerikler indexlenmez
  • Trafik hızla düşer

Bu durum Google Search Central tarafından da açıkça belirtilir.

Ne zaman kullanılır?

Sadece:

  • Site geliştirme aşamasında
  • Test ortamında

Canlı sitede kullanılması = SEO intiharı demektir. Bu nedenle doğru şekilde kullanılması SEO açısından önemli bir ayrıntıdır.

CSS / JS Dosyalarını Bloklamak

Birçok kişi farkında olmadan şu hatayı yapar:

Disallow: /wp-content/

Problem:

Bu klasörde:

  • CSS
  • JavaScript
  • görseller bulunur.

Sonuç: Arama motorları sayfayı doğru render edemez. Sayfa “bozuk” gibi algılanır Bu konu özellikle Google tarafından önemle vurgulanır.

Doğru yaklaşım:

Allow: /wp-content/uploads/

Kritik dosyalar açık bırakılmalıdır.

Noindex ile Robots.txt’yi Karıştırmak

Çok yaygın bir yanlış: “Robots.txt ile sayfayı index’ten kaldırırım”, Hayır, kaldıramazsın.

Gerçek:

  • Robots.txt → taramayı engeller
  • Noindex → indexlenmeyi engeller

Problem:

Eğer bir sayfayı robots.txt ile engellersen:

  • Bot sayfayı göremez
  • Noindex etiketini de okuyamaz

Doğru kullanım:

  • Index’ten kaldırmak için → meta noindex
  • Crawl yönetimi için → robots.txt

Google Yerine Tüm Botları Engellemek

Bazı sitelerde şu yapı görülür:

User-agent: *

Disallow: /

Ama amaç aslında sadece bazı botları engellemektir.

Problem:

  • Tüm botlar engellenir
  • Google da dahil

Doğru kullanım:

User-agent: BadBot

Disallow: /

2026 Gerçeği:

Artık sadece arama motorları değil:

  • AI botlar
  • veri toplayıcılar da siteleri tarıyor. Bu yüzden robots.txt daha stratejik kullanılmalı.

BONUS HATA: Parametre URL’leri Kontrol Etmemek

Özellikle e-ticaret sitelerinde:

site.com/urun?kategori=...&renk=...&beden=...

Problem: Binlerce gereksiz URL oluşur, Crawl budget çöker.

Çözüm:

Disallow: /*?kategori=

Disallow: /*?renk=

Gerçek şu:

  • Robots.txt hataları genelde görünmez
  • Ama etkisi çok büyük olur

En tehlikelisi:

  • Site çalışıyor gibi görünür
  • Ama SEO içten içe çöküyordur

Profesyonel yaklaşım:

  • Yayına almadan önce test et
  • Küçük değişikliklerle ilerle
  • Crawl davranışını analiz et

Robots.txt ve Crawl Budget Optimizasyonu

Crawl budget (tarama bütçesi), arama motorlarının bir siteyi belirli bir zaman diliminde ne kadar ve ne sıklıkla tarayacağını ifade eder. Özellikle büyük sitelerde bu bütçe doğru yönetilmezse:

  • Önemli sayfalar geç keşfedilir
  • Yeni içerikler geç indexlenir
  • SEO büyümesi yavaşlar

Bu noktada robots.txt, crawl budget yönetiminin en güçlü araçlarından biri haline gelir.

Hangi Sayfalar Engellenmeli?

Her sayfa arama motorları için değerli değildir. Aksine bazı sayfalar crawl bütçesini boşa tüketir.

Engellenmesi gereken sayfalar:

  • Admin ve panel sayfaları
  • Sepet ve ödeme sayfaları
  • Filtre URL’leri
  • Arama sonuç sayfaları
  • Test / geçici sayfalar

Örnek yapı:

Disallow: /admin/

Disallow: /cart/

Disallow: /checkout/

Disallow: /?s=

Mantık: “SEO değeri olmayan sayfa = crawl edilmemeli” Bu yaklaşım, Google tarafından da önerilen crawl verimliliği mantığıyla uyumludur.

Parametreli URL’ler Nasıl Yönetilmeli?

En büyük crawl budget düşmanı: Parametreli URL’lerdir.

Örnek:

site.com/urun?renk=kirmizi&beden=m

Problem:

  • Aynı sayfanın yüzlerce versiyonu oluşur
  • Botlar sürekli aynı içeriği tarar
  • Crawl budget boşa gider

Robots.txt çözümü:

Disallow: /*?renk=

Disallow: /*?beden=

Disallow: /*?filter=

Profesyonel yaklaşım:

  • Robots.txt → crawl kontrol
  • Canonical → duplicate çözüm. İkisi birlikte kullanılmalı.

Büyük Sitelerde Robots.txt Stratejisi

Küçük sitelerde robots.txt basit olabilir. Ama büyük sitelerde iş tamamen değişir.

E-ticaret siteleri:

  • Binlerce ürün
  • Yüzlerce filtre.

Robots.txt olmazsa crawl kaosu oluşur.

Blog & içerik siteleri:

  • Etiket
  • kategori
  • arşiv

Duplicate crawl oluşur

Kurumsal siteler:

  • Gereksiz sayfa yoğunluğu
  • Tarama verimsizliği oluşur

Profesyonel Robots.txt Stratejisi

Gerçek SEO projelerinde robots.txt şu şekilde ele alınır:

1- Crawl önceliği belirlenir

  • Ürün sayfaları
  • hizmet sayfaları
  • içerikler

2- Düşük değerli sayfalar kapatılır

  • filtreler
  • parametreler
  • sistem sayfaları

3- Sürekli optimize edilir

  • log analizi yapılır
  • bot davranışı izlenir

Robots.txt ve Yapay Zekâ Botları (2026 Perspektifi)

Eskiden robots.txt yalnızca arama motoru botlarını yönetmek için kullanılırdı. Ancak artık web sitelerini tarayan sadece arama motorları değil:

  • Yapay zekâ modelleri
  • veri toplayıcı botlar
  • içerik analiz sistemleri de aktif olarak web’i crawl ediyor.

Bu nedenle robots.txt, artık sadece SEO değil: veri kontrolü + içerik güvenliği + AI yönetimi aracı haline gelmiştir.

AI botlar robots.txt okur mu?

Kısa cevap: Evet, çoğu AI bot robots.txt kurallarına uyar ama hepsi değil.

Gerçek durum:

  • Büyük platformlar → robots.txt’ye saygı duyar
  • Küçük / bilinmeyen botlar → çoğu zaman umursamaz

Örnek:

  • OpenAI botları
  • Anthropic botları
  • Google AI sistemleri robots.txt kurallarını dikkate alır.

ChatGPT, Claude ve Google SGE botları

2026 itibarıyla en önemli tarayıcılar:

ChatGPT (OpenAI crawler)

  • Web verisi toplar
  • robots.txt’yi referans alır

Claude (Anthropic)

  • Veri toplama sürecinde robots.txt’ye bakar

Google SGE (Search Generative Experience)

  • Klasik Googlebot altyapısını kullanır
  • robots.txt kurallarına bağlıdır

Detaylı teknik yaklaşım için: Tıklayın

AI training engelleme stratejileri

Bazı siteler içeriklerinin yapay zekâ tarafından kullanılmasını istemez. Bu durumda robots.txt ile belirli botlar engellenebilir.

Örnek:

User-agent: GPTBot

Disallow: /

User-agent: ClaudeBot

Disallow: /

Bu ne sağlar?

  • AI botlar siteyi taramaz
  • İçerik eğitim verisine dahil edilmez (büyük ölçüde)

Ama kritik gerçek:

Robots.txt:

  • Yasal bir engel değildir
  • “istek” niteliğindedir

Yani: Tüm botlar %100 uymak zorunda değildir.

Robots.txt vs Veri Kontrolü

Bu noktada şunu net anlamak gerekir:

Araç

Ne yapar

Robots.txt

Crawl kontrolü sağlar

KVKK / GDPR

Veri kullanımını yasal olarak düzenler

API / Auth

Gerçek veri güvenliği sağlar

Robots.txt Testi Nasıl Yapılır?

Robots.txt dosyasını oluşturduktan sonra mutlaka test edilmelidir. Çünkü küçük bir yazım hatası bile:

  • Önemli sayfaların taranmasını engelleyebilir
  • Crawl budget’ı yanlış yönlendirebilir
  • SEO performansını düşürebilir

Bu yüzden robots.txt için “yaz → yayınla” değil, “yaz → test et → optimize et” yaklaşımı kullanılmalıdır.

Google Search Console robots.txt test aracı

Robots.txt test etmek için en güvenilir yöntemlerden biri Google Search Console üzerinden kontrol yapmaktır.

Nasıl yapılır?

  1. Search Console hesabına giriş yap
  2. İlgili siteyi seç
  3. robots.txt test aracını aç
  4. URL girerek test et

Ne sağlar?

  • Hatalı kuralları tespit eder
  • Engellenen URL’leri gösterir
  • Bot davranışını simüle eder

Örnek senaryo:

/blog sayfası açılmıyor Test ettiğinde: 

Disallow: /blog/ 

Hatanın sebebi direkt ortaya çıkar

Manuel kontrol yöntemleri

Search Console dışında hızlı kontroller de yapılabilir.

1. Tarayıcıdan kontrol

Şu URL’yi aç:

siteadi.com/robots.txt

Dosya görünüyorsa:

  • erişilebilir
  • doğru konumda

2. URL bazlı test

Mantık:

  • Engellenmesini istediğin URL → açılmamalı
  • Açık olmasını istediğin URL → taranabilir olmalı

3. Basit analiz

Şu soruları sor:

  • Kritik sayfalar açık mı?
  • Gereksiz sayfalar kapalı mı?
  • Parametre URL’ler kontrol altında mı?

Test Yaparken En Sık Kaçan Hatalar

1. Cache problemi

Robots.txt güncellenir ama eski hali görülür

Çözüm:

  • Cache temizle
  • CDN varsa purge et

2. Yanlış user-agent testi

Farklı botlar farklı davranabilir.

Örnek:

  • Googlebot → izinli
  • diğer botlar → engelli

3. Robots.txt var ama çalışmıyor

Sebep:

  • Yanlış dizin
  • yazım hatası
  • encoding problemi

Robots.txt vs Meta Robots (Noindex) Farkı

SEO dünyasında en yaygın yanlışlardan biri şudur: “Robots.txt ile sayfayı Google’dan kaldırırım”. Bu doğru değil. Robots.txt ve meta robots (noindex) tamamen farklı amaçlara hizmet eder. Bu farkı net anlamak, doğru SEO stratejisi için şarttır.

Temel Fark

Özellik

Robots.txt

Meta Robots (Noindex)

Amaç

Taramayı kontrol eder

Indexlemeyi kontrol eder

Bot erişimi

Engelleyebilir

Bot erişir

Index durumu

Engellese bile indexlenebilir

Kesin indexlenmez

Kullanım yeri

robots.txt dosyası

HTML içinde

Robots.txt Ne Yapar?

Robots.txt: Arama motoruna “buraya girme” der.

Örnek:

Disallow: /gizli-sayfa/

Ama kritik gerçek: Eğer bu sayfaya başka sitelerden link varsa: Sayfa yine indexlenebilir ama içeriği görünmez olur.

Meta Robots (Noindex) Ne Yapar?

Meta robots etiketi: “Bu sayfayı indexleme” der.

Örnek:

name="robots" content="noindex">

 

Sonuç:

  • Bot sayfaya girer
  • İçeriği okur
  • Ama indexlemez

Yani tamamen arama sonuçlarından çıkar.

Birçok kişi şu hatayı yapar:

Disallow: /sayfa/

ve aynı sayfaya:

"noindex"  ekler. Bot sayfaya giremez, Noindex’i göremez.  Sonuç: Sayfa indexte kalabilir.

Doğru Strateji

Amaç: Sayfa indexlenmesin

Kullan: Meta noindex

Amaç: Sayfa taranmasın

Kullan: Robots.txt

Amaç: Hem tarama hem index kontrolü

Stratejik kullanım gerekir:

  1. Önce noindex ekle
  2. Botun görmesini sağla
  3. Indexten düştükten sonra gerekirse robots.txt ile kapat

Robots.txt Kullanımı Ne Zaman Gerekli?

Robots.txt her site için zorunlu değildir. Ancak doğru senaryolarda kullanıldığında SEO performansına ciddi katkı sağlar.

Küçük Siteler İçin Robots.txt Gerekli mi?

Küçük ölçekli sitelerde (örneğin 5–20 sayfalık kurumsal siteler): Çoğu zaman robots.txt olmadan da SEO yapılabilir.

Tipik küçük site yapısı:

  • Ana sayfa
  • hizmet sayfaları
  • iletişim
  • birkaç blog içeriği

Bu durumda:

  • Crawl budget problemi yok
  • URL karmaşası yok
  • filtre / parametre yok

Robots.txt kullanımı kritik değildir

Ama yine de önerilir:

Basit bir yapı bile eklenmeli:

User-agent: *

Disallow:

Sitemap: https://siteadi.com/sitemap.xml 

Bu, arama motorlarına “her şey açık” sinyali verir

Büyük Siteler İçin Robots.txt Nasıl Olmalı?

Site büyüdükçe robots.txt zorunlu hale gelir.

Büyük site örnekleri:

  • E-ticaret siteleri
  • Haber siteleri
  • İçerik platformları
  • SaaS projeleri

Bu sitelerde problem:

  • Binlerce URL
  • Parametreli sayfalar
  • Duplicate içerikler

Robots.txt olmazsa:

  • Crawl budget çöker
  • Botlar gereksiz sayfalarda zaman harcar
  • SEO büyümesi yavaşlar

Doğru yaklaşım:

  • Gereksiz sayfaları engelle
  • Önemli sayfaları açık bırak
  • Crawl yönlendirmesi yap

E-Ticaret Projelerinde Robots.txt Kullanımı

E-ticaret sitelerinde robots.txt: “opsiyonel” değil, zorunludur. Çünkü:

  • Filtre URL’leri
  • kategori varyasyonları
  • sıralama parametreleri

Örnek problem:

site.com/urun?renk=mavi&beden=l&fiyat=100-200

Aynı ürünün yüzlerce versiyonu oluşur

Robots.txt çözümü:

Disallow: /*?renk=

Disallow: /*?beden=

Disallow: /*?fiyat=

Sonuç:

  • Crawl temizlenir
  • SEO performansı artar
  • Indexleme hızlanır

Robots.txt Doğru Kullanılmazsa Ne Olur?

Robots.txt küçük bir dosya olabilir, ancak etkisi büyük ve doğrudandır. Yanlış yapılandırıldığında, teknik SEO’nun en kritik hatalarından birine dönüşür.

En sık karşılaşılan senaryo şudur: Site çalışır, sayfalar açıktır, içerikler yayındadır… Ama arama motoru tarafında ciddi problemler oluşur.

Robots.txt Hatalarının SEO Üzerindeki Etkileri

Index Kaybı

Yanlış bir kural ile önemli sayfalar tarama dışı kalabilir: 

  • Blog içerikleri taranmaz
  • Yeni içerikler indexlenmez
  • Trafik düşüşü başlar

Crawl Budget İsrafı

Parametreli URL’ler kontrol edilmezse: Arama motorları aynı sayfanın yüzlerce versiyonunu tarar.

Sonuç:

  • Önemli sayfalar geç keşfedilir
  • Tarama verimsizleşir

Sayfa Kalitesi Düşüşü

CSS ve JS dosyaları engellenirse: Arama motoru sayfayı tam anlayamaz. Bu durum özellikle Google algoritmaları açısından negatif sinyal üretir.

SEO Büyümesinin Yavaşlaması

Robots.txt hataları çoğu zaman fark edilmez.

Ama etkisi zamanla ortaya çıkar:

  • Indexleme yavaşlar
  • Sıralamalar düşer
  • Organik trafik azalır

Tüm bunlardan sonra eğer robots.txt:

Doğru yapılandırılırsa

  • Crawl verimliliği artar
  • Indexleme hızlanır
  • SEO performansı yükselir

Yanlış yapılandırılırsa

  • Site görünmez hale gelebilir
  • Trafik kaybı yaşanır
  • SEO çalışmaları boşa gider

Bu nedenle robots.txt: Basit bir dosya” değil, SEO performansını yöneten stratejik bir araçtır. Robots.txt, arama motorlarının sitenizi nasıl tarayacağını belirleyen kritik bir SEO dosyasıdır. Doğru kullanıldığında crawl verimliliğini artırır, yanlış kullanıldığında ise sitenin indexlenmesini engelleyebilir.

Sıkça Sorulan Sorular

Hayır, robots.txt doğrudan bir sıralama faktörü değildir. Ancak tarama (crawl) sürecini yönettiği için dolaylı olarak SEO performansını etkiler. Doğru yapılandırılmış bir robots.txt, arama motorlarının önemli sayfalara daha hızlı ulaşmasını sağlar.

Hayır. Robots.txt yalnızca taramayı engeller. Eğer bir sayfanın indexlenmesini istemiyorsanız, HTML içinde “noindex” etiketi kullanmanız gerekir.

Hayır, her site için zorunlu değildir. Ancak özellikle e-ticaret, blog ve büyük ölçekli sitelerde kullanılması önerilir. Küçük sitelerde basit bir yapı yeterlidir.

En güvenilir yöntem Google Search Console üzerinden test yapmaktır. Ayrıca siteadi.com/robots.txt adresi kontrol edilerek dosyanın erişilebilir olup olmadığı da anlaşılabilir.

Evet, teknik olarak engellenebilir. Ancak bu önerilmez. Çünkü bu durumda arama motorları sitenizi tarayamaz ve SEO performansı tamamen sıfırlanabilir.
Paylaş: