به این ترتیب ربات Googlebot که اصلیترین ربات گوگل است متوجه میشود که باید به دستورات خاصی توجه کند. هرکدام از این رباتها با توجه به شناختی که از سایت ما پیدا میکنند با نرخ مشخصی به نام “Crawl Budget” به سایتمان سر میزنند و تغییرات آن را بررسی میکنند. با توجه به محدود بودن این بودجه برای هر سایت، طبیعتا نباید اجازه دهیم بودجه خزش سایت ما صرف خزش محتواهایی از سایتمان شود که هیچ کمکی به افزایش ترافیک سایت ما نمیکنند. خیر رباتهای بدافزارها به دنبال اطلاعات کلی از سایتها مانند ایمیلهای بخش Info هستند درنتیجه به صورت کامل Robots.txt را نادیده میگیرند و از دستورات آن پیروی نمیکنند.
علاوه بر اینها، حجم زیادی از ترافیک و منابع هاست و سرور ما هم صرف پاسخگویی به رباتها میشود که بسیاری از این درخواستها بدون سود و تنها مضر هستند و الکی منابع سایت ما را هدر میدهند. برای درک بهتر نقش فایل ربات در سایت، علائم راهنمایی و رانندگی را در ذهنتان تجسم کنید. در سئورب، مقالات آموزشی سئو و بررسی و تحلیل برخی از سایت ها را از نظر سئو انجام میدهیم. ما با سئورب، سایتی که در زمینه آموزش سئو است، از سال 96 کار خودمان رو شروع کردیم.
- ممنون اززمانی که میزاریداین پشتیبانی خوبتون خیلی آدم مشتاق میکنه که محصولات دیگتونم تهیه واستفاده کنیم…
- رباتهایی هم وجود دارند که در روز بارها و بارها به صفحات وبسایت شما سر میزنند و هر کدام هم وظیفهای دارند.
- به خاطر داشته باشید هر سایت نیازمند فایل robots.txt خاص خودش است.
- علاوه بر این شما می توانید با کلیک روی گزینه ” FILE+” طبق تصویر زیر، در فیلدNew File Name، فایلی را با نامrobots.txtوارد کرده و در نهایت Create New File کلیک کنید تا فایل شما ساخته شود.
لازم به ذکر است که این مورد برای سایت های کم بازدید، تاثیر کمتری دارد. اما به هر جهت سایت هایی که باید روزانه ترافیک زیادی را هندل کنند، با اضافه شدن حجم زیادی از ربات ها نیز، دچار مشکل خواهند شد. به همین جهت است که سئوکاران برای بهبود سرعت سایت، دسترسی ربات ها را محدود می کنند. در واقع با این کار اجازه بررسی برخی از بخش های سایت که از نظر سئو اهمیت کمتری دارند را به ربات ها نمی دهند. اگر بخواهید از روش معمولی استفاده کنید، باید فایل robots.txt را باز کرده و دستورات داخل آن را بررسی کنید.
مستندات گوگل درباره ارتقاء رتبه سایت از طریق سرچ و کلیک
دستور Disallow از پرکاربردترین دستورات در فایل robots.txt است. این دستور مشخص کننده صفحه یا صفحات غیر قابل دسترس برای رباتهای خزنده وب است. مجددا باید تکرار کنیم که استفاده از این دستور صرفا صفحات را از دسترسی رباتها مخفی میکند و ممکن است کاربر با کلیک روی لینک این صفحات امکان بازدید صفحه را داشته باشد و یا حتی این صفحات در نتایج جستجو فهرست شوند.
در عمل فایل های robots.txt به user agent ها (مانند ربات های موتورهای جستجو) اشاره می کنند که کدام صفحات را پایش و به کدام مسیرها کاری نداشته باشند. این راهنمایی ها در قالب دستوراتی مانند Allow و Disallow به آنها داده می شود. فایل ربات همانطور که عرض شد یک فایل متنی با نام robots.txt است و به سادگی میتوان آن را ساخت. این فایل متنی شامل رشته متن هایی موسوم به “دستور” است که به ربات موتورهای جستجو مثل گوگل و بینگ می گوید چطور با سایت رفتار کنند. بیشتر وب سایت ها مخصوصا سایت های وردپرسی یک فایل ربات robots.txt دارند ولی به این معنی نیست که مدیر سایت این فایل را می شناسد. در مرحله ی اول به هیچ عنوان نباید نشون بدین که یه شخص ثابت همش یه کلمه کلیدی ثابت رو سرچ میزنه.
فایل robots.txt چیست؟ تاکتیک مهم سئو برای این روبوتس
اگر شما قصد محدود کردن ربات های گوگل را دارید از فایل ربوتس دات تی ایکس تی استفاده کنید، ولی اگر صفحات وب سایتتان توانایی ایندکس به واسطه ی ربات های جستجو مثل گوگل را داشته باشد احتیاجی به این فایل نخواهد بود. برای خلق و ایجاد فایل robots.txt شما باید به هاست دسترسی داشته باشید و فایل ربوتس دات تی ایکس تی را در ریشه اصلی کپی و نگه داری کنید. فایل ربوتس دات تی ایکس تی در اصل جهت محدود کردن دسترسی ربات های موتورهای جستجو مثل گوگل به متن و محتوا و… سایتتان است. تمام ربات های موتورهای جستجو به صورت خودکار قبل از ورود به هر صفحه یا هر سایتی، از وجود فایل robots.txt و محدودیت های آن اطمینان پیدا کرده و بر اساس آن محتوا و سایت را نمایش می دهند. Robots.txt در واقع یک فایل واقعیست، در حالی که robots و x-robots جز داده های متا هستند. فایل robots.txt به کنترل پایش صفحات وب سایت پرداخته، در حالی که متا robots و x-robots به مدیریت ایندکس صفحات سایت در موتورهای جستجو می پردازند.
البته باید توجه داشته باشید که این دستورالعمل غیررسمی noindex هرگز در موتور جستجوی بینگ کار نکرد. در مثال بالا هیچ یک از موتورهای جستجو به جز گوگل اجازه دسترسی به بخش های /secret/، /test/ و /not-launched-yet/ را ندارند. یکی از مهم ترین نکاتی که باید درباره فایل robots.txt بدانید این است که موتورهای جستجو به شکل های مختلفی از این فایل استفاده می کنند. در این مثال هیچ یک از موتورهای جستجو اجازه دسترسی به لینک هایی که با پسوند .php تمام می شوند را ندارند.
صفحات شما همچنان می توانند به صورت فهرست شده در نتایج جستجو برای کلمات کلیدی انتخاب شده قرار گیرند. بسیاری از موتورهای جستجو به دستور العمل های این فایل توجه می کنند. در پایان اگر سوالی در خصوص فایل robots.txt و مسائل مرتبط با آن دارید حتما مطرح کنید و به غنیتر شدن محتوای این مقاله کمک کنید. اما اگر تعداد صفحات ایندکس شده دقیقا و یا تقریبا همان تعداد صفحاتی بود که انتظار دارید در داخل گوگل ایندکس شده باشند، نیازی به ساخت و یا تغییر فایل robot سایت خود ندارید. در این قسمت شما میتوانید به صورت زنده تغییرات مورد نظرتان را در محتویات فایل robots.txt انجام دهید و سپس از طریق بخش پایینی بررسی کنید که آیا تغییرات انجام شده دقیقا همان چیزی هستند که به دنبال آن هستید یا خیر. بعد از انتخاب، صفحهای باز میشود که در آن گوگل آخرین فایل ربات پیدا شده از سایتتان را به شما نمایش میدهد.