دسته‌ها
اخبار

فایل Robots txt چیست به همراه تگ ربات های جدید گوگل 2022

اگر شما قصد محدود کردن ربات های گوگل را دارید از فایل ربوتس دات تی ایکس تی استفاده کنید، ولی اگر صفحات وب سایتتان توانایی ایندکس به واسطه ی ربات های جستجو مثل گوگل را داشته باشد احتیاجی به این فایل نخواهد بود. برای خلق و ایجاد فایل robots.txt شما باید به هاست دسترسی داشته باشید و فایل ربوتس دات تی ایکس تی را در ریشه اصلی کپی و نگه داری کنید. فایل ربوتس دات تی ایکس تی در اصل جهت محدود کردن دسترسی ربات های موتورهای جستجو مثل گوگل به متن و محتوا و… سایتتان است. تمام ربات های موتورهای جستجو به صورت خودکار قبل از ورود به هر صفحه یا هر سایتی، از وجود فایل robots.txt و محدودیت های آن اطمینان پیدا کرده و بر اساس آن محتوا و سایت را نمایش می دهند. Robots.txt در واقع یک فایل واقعیست، در حالی که robots و x-robots جز داده های متا هستند. فایل robots.txt به کنترل پایش صفحات وب سایت پرداخته، در حالی که متا robots و x-robots به مدیریت ایندکس صفحات سایت در موتورهای جستجو می پردازند.

  • فایل‌های Robots.txt دسترسی خزنده به ناحیه های خاصی از سایت شما را کنترل می‌کنند.
  • به همین جهت است که سئوکاران برای بهبود سرعت سایت، دسترسی ربات ها را محدود می کنند.
  • این کد به ربات اجازه می دهد در فایل photos فقط عکس backlink.jpg را نمایش داده و ایندکس نماید، واجازه دسترسی به دیگر عکس های داخل فولدررا ندارد.
  • به طور خلاصه، فرض کنید که یک قطعه از محتوا را با استفاده از iframe جاسازی کرده ایم.
  • شاید تکّیه کردن به این توانمندی برای پنالتی نـشدن کافی باشد اما برای نتیجه گرفتن ربات ارتقاء سئو کافی نیست!

علاوه بر این‌ها، حجم زیادی از ترافیک و منابع هاست و سرور ما هم صرف پاسخگویی به ربات‌ها می‌شود که بسیاری از این درخواست‌ها بدون سود و تنها مضر هستند و الکی منابع سایت ما را هدر می‌دهند. برای درک بهتر نقش فایل ربات در سایت، علائم راهنمایی و رانندگی را در ذهنتان تجسم کنید. در سئورب، مقالات آموزشی سئو و بررسی و تحلیل برخی از سایت ها را از نظر سئو انجام می‌دهیم. ما با سئورب، سایتی که در زمینه آموزش سئو است، از سال 96 کار خودمان رو شروع کردیم.

مشاوره سئو در اصفهان

در عمل فایل های robots.txt به user agent ها (مانند ربات های موتورهای جستجو) اشاره می کنند که کدام صفحات را پایش و به کدام مسیرها کاری نداشته باشند. این راهنمایی ها در قالب دستوراتی مانند Allow و Disallow به آنها داده می شود. فایل ربات همانطور که عرض شد یک فایل متنی با نام robots.txt است و به سادگی میتوان آن را ساخت. این فایل متنی شامل رشته متن هایی موسوم به “دستور” است که به ربات موتورهای جستجو مثل گوگل و بینگ می گوید چطور با سایت رفتار کنند. بیشتر وب سایت ها مخصوصا سایت های وردپرسی یک فایل ربات robots.txt دارند ولی به این معنی نیست که مدیر سایت این فایل را می شناسد. در مرحله ی اول به هیچ عنوان نباید نشون بدین که یه شخص ثابت همش یه کلمه کلیدی ثابت رو سرچ میزنه.

گوگل تگ منیجر (GTM) و آموزش کار با آن

دستور Disallow از پرکاربردترین دستورات در فایل robots.txt است. این دستور مشخص کننده صفحه یا صفحات غیر قابل دسترس برای ربات‌های خزنده وب است. مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی ربات‌ها مخفی می‌کند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند.

آیا تمامی ربات‌های موجود در اینترنت از فایل txt پیروی می‌کنند؟

البته باید توجه داشته باشید که این دستورالعمل غیررسمی noindex هرگز در موتور جستجوی بینگ کار نکرد. در مثال بالا هیچ یک از موتورهای جستجو به جز گوگل اجازه دسترسی به بخش های /secret/، /test/ و /not-launched-yet/ را ندارند. یکی از مهم ترین نکاتی که باید درباره فایل robots.txt بدانید این است که موتورهای جستجو به شکل های مختلفی از این فایل استفاده می کنند. در این مثال هیچ یک از موتورهای جستجو اجازه دسترسی به لینک هایی که با پسوند .php تمام می شوند را ندارند.