علاوه بر این شما می توانید با خالی گذاشتن فایل نیز این کار را انجام دهید. در صفحه ظاهر شده تنها یک گزینه وجود دارد که می توانید آن را تغییر دهید و این گزینه Crawl rate می باشد. با استفاده از اسلایدری که در کنار آن قرار دارد شما می توانید مقدار دلخواه خود را روی این ویژگی تنظیم کنید. مقدار پیش فرض این ویژگی Let Google optimize for my site است. برای نشان دادن انتهای یک لینک می توانید از علامت $ در انتهای مسیر مد نظر خود استفاده کنید.
فایل robots.txt جزیی از پروتکلی با نام REP است که به استانداردسازی نحوه پایش وب توسط رباتها و چگونگی دسترسی و ایندکس محتوا و ارائه آن به کاربران می پردازد. پروتکل REP همچنین شامل نحوه برخورد با متا تگ Robots و دستوراتی دیگری مانند فالو کردن لینک ها نیز است. Robots.txt فایلی است که به رباتهای موتورهای جستجو میگوید که چه صفحات یا بخشهای خاصی از یک وب سایت را بررسی نکنند و مجاز به بررسی چه صفحاتی هستند. اکثر موتورهای جستجوی بزرگ از جمله گوگل، بینگ و یاهو وقتی به صفحات سایت ما سر میزنند ابتدا نگاهی به قوانینی که در فایل ربات سایتمان مشخص کردهایم میاندازند و سپس با توجه به این قوانین به سراغ صفحات سایت ما میروند. برای کرال کردن سایتها، موتورهای جستجو لینکها را دنبال میکنند تا از یک سایت به سایت دیگر بروند.
- فایل robots.txt بخشی از پروتکل حذف رباتها است، گروهی از استانداردهای وب که نحوه خزیدن رباتها در وب، دسترسی و فهرستبندی محتوا و ارائه آن محتوا به کاربران را تنظیم میکند.
- برای استفاده از نرم افزاروکلاهرچیزی که میخوام استفاده کنم اول پشتیبانیش رومیسنجم.پشتیبانی نرم افزارکاربرمجازی واقعابه موقع وسریع…
- اگر هم میخواهید صفحههای مشخصی را تست کنید، کافی است آدرس آن را در نوار پایینی وارد کنید و بعد ربات گوگلی که مد نظرتان است را انتخاب کنید.
- با مسدود کردن صفحات بیاهمیت با robots.txt، گوگل بات میتواند بیشتر بودجه خزشِ شما را صرف صفحاتی کند که واقعاً مهم هستند.
- روز کاری من با مطالعهی اخبار و مقالات جدید مرتبط با حوزه سئو شروع میشه و در این بین اگر مطلب مفیدی رو ببینم در بلاگ تریبون با شما عزیزان به اشتراک میگذارم.
چرا که این اطلاعات با دیگر صفحات پیوند داشته و درنتیجه ممکن است همچنان ایندکس شده و یا اینکه ایندکس دیگر صفحات را هم با مشکل روبرو کنند. جلوگیری از ایندکس کردن فایلهای خاص در وبسایت شما (تصاویر، PDF و غیره) توسط موتورهای جستجو. این رباتها صفحات وب را میخزند و محتوا را فهرستبندی میکنند تا بتواند در نتایج موتورهای جستجو نشان داده شود.
رباتها به کوچک یا بزرگ بودن دستورات حساس هستند
من وقتی سایت رو تو گوگل جستجو می کنم یک سری از آدرس های مربوط به دایرکتوری آپلود میاد بالا که البته از تو سرچ کنسول آن ها را به درخواست حذف اضافه کردم. درود زیادی شلوغ شده توی سایت ما سرچ کنید ساخت فایل ربات آموزشش هست یه فایل ساده باید بسازید. در بخش بعد توضیح میدهیم که چطور یک فایل Robots.txt بسازیم، آن را در جای درستش قرار دهیم و تست کنیم تا رباتهای گوگل به آن دسترسی داشته باشند. هدر دادن منابع سرور برای این صفحات، باعث از بین رفتن Crawl Budget شما میشود.
همچنین ما همیشه رباتهای داخل پکیج را نیز مطابق آخرین الگوریتمها بطور مستمر به روز رسانی میکنیم تا عملکرد موّفق محصولاتمان را تضمین کنیم. ما این الگوریتمها را در فایلهای آموزشی موجود در پکیج، در اختیار خریداران قرار میدهیم. این خودش میتونه گوگل رو گمراه بکنه و باعث میشه گوگل فکر کنه آدم های مختلفی از سیستم های مختلفی در مورد کلمه کلیدی های مختلفی سرچ می کنند. در مرحله اول به هیچ عنوان نباید نشون بدین که یه شخص ثابت همش یه کلمه کلیدی ثابت رو سرچ میزنه.
چه نیازی به داشتن فایل robots.txt برای سایت وردپرس داریم؟
Wildcard امروزه توسط موتورهای جستجویی مانند گوگل، یاهو، بینگ و Ask پشتیبانی می شود. یکی از نکات بسیار مهم در خصوص فایل robots.txt این است که برای هر دستورالعمل یک خط جداگانه را در نظر بگیرید. در واقع در این مثال موتورهای جستجو به لینک گفته شده دسترسی پیدا می کنند.
و بهوسیله آن میتوان صفحاتی که محتوای آنها از اهمیت چندانی برخوردار نیست ایندکس نشاند. درواقع موتورهای جستجو توسط این ربات متوجه میشوند که به چه بخشهایی اجازه دسترسی دارند. خزیدن ربات در موتورهای جستجو ارزشمند است، اما خزیدن میتواند سایتهایی را که قدرت رسیدگی به بازدید رباتها و کاربران را ندارند، تحت تأثیر قرار دهد.
Wildcard را نه تنها می توان برای تعریف user-agent مورد استفاده قرار داد بلکه می توان از آن برای تطبیق لینک ها نیز استفاده کرد. در صورتی که هیچ مسیری در این بخش تعریف نشده باشد این دستورالعمل به طور کامل نادیده گرفته می شود. فرض پیشفرض این است که یک User-agent میتواند هر صفحه یا دایرکتوری را که توسط قانون غیرمجاز مسدود نشده است بخزد. هر گروه با یک خط User-agent شروع میشود که هدف گروه ها را مشخص میکند.
توصیه من به شما این است که برای بهبود سئو سایت خود همیشه از فایل robots.txt استفاده کنید. نحوه عملکرد موتورهای جستجو در خصوص دستورالعمل Crawl-delay متفاوت می باشد. کامنت ها معمولا با استفاده از علامت # در این فایل نمایش داده می شوند و می توانند یک خط جداگانه را به خود اختصاص داده و یا بعد از یک دستورالعمل و در همان خط در فایل robots.txt قرار گیرند. این قابلیت در موتورهای جستجویی مانند گوگل، بینگ، یاهو و Ask پشتیبانی می شود.