فایل روبوتکست، یک فایل و یک پل ارتباطی بین رباتهای گوگل و وب سایت ما است، با استفاده از دستورالعمل هایی که در فایل ربات مینویسیم به رباتهای گوگل میفهمانیم که به کدام قسمت سایت ما بخزند و کدام مناطق ممنوعه است. درکل robots.txt به شما این امکان را میدهد که دسترسی رباتها به بخشهایی از وبسایت خود را ممنوع کنید، بهخصوص اگر قسمتی از صفحه شما خصوصی باشد یا اگر محتوا برای موتورهای جستجو ضروری نباشد. این رباتها صفحات وب را میخزند و محتوا را فهرستبندی میکنند تا بتواند در نتایج موتورهای جستجو نشان داده شود. با اجرای دستور Crawl-delay بعد از برطرف کردن مشکل، صفحه شما توسط ربات های موتور جستجوی گوگل کراول و ایندکس خواهد شد.
- اگر آدرس صفحات قدیمی رو دارید یک بار همه رو به آدرس جدید ریدایرکت کنید.
- در مثال زیر تمامی رباتها از دسترسی به دایرکتوری media منع شدهاند اما در عین حال اجازه دسترسی به یک فایل پی دی اف با عنوان terms-and-conditions.pdf موجود در دایرکتوری media داده شده است.
- با توجه به محدود بودن این بودجه برای هر سایت، طبیعتا نباید اجازه دهیم بودجه خزش سایت ما صرف خزش محتواهایی از سایتمان شود که هیچ کمکی به افزایش ترافیک سایت ما نمیکنند.
- درحالیکه اگر شما به طور تصادفی Googlebot را از خزیدن در کل سایت خود منع کنید، میتواند بسیار خطرناک باشد، برخی موقعیت ها وجود دارد که در آن فایل robots.txt میتواند بسیار مفید باشد.
- واقعاازاین برنامه بازخوردخیلی خوبی گرفتم.چندتامشکل داشتم وپشتیبانی قوی وعالی سایت کاربرمجازی درکمترین زمان ممکن …
وارد مغازهای میشوید، به لباسها نگاهی میاندازید و بهسرعت از مغازه خارج… صفر تا صد فروشنده شدن در باسلام دنیایی عجیب و بزرگ اینترنت تغییرات زیادی را در زندگی ما انسانها به وجود آورد که حتی تصورش تا همین چند سال پیش برای ما غیرممکن بود. «اگر به فروش نمیرود، بهاندازه کافی خلاق نیست»؛ این جمله طلایی را دیوید آگیلوی، پدر علم تبلیغات دنیا بیان کرده است. مطمعنا در خصوص اضافه کردن لینک نوفالو در وردپرس شنیده اید اما با عملکرد آن… تمامی حقوق مادی و معنوی ویدئوهای آموزشی و محصولات متعلق به مدیر وب می باشد ، جهت حمایت از صاحب اثر هزینه ی محصولات را پرداخت نمایید … با عضویت در خبرنامه می توانید از جدیدترین مقالات، اخبار و محصولات سایت در ایمیل خود با خبر شوید…
با کمک این فایل میتوان دسترسی موتورهای جستجو را مدیریت کرد
از طرفی این موضوع به گوگل اجازه خواهد دهد تا محتوای یک صفحه را در صورتی که در صفحه دیگری از طریق iframe یا تگ های HTML مشابه بارگزاری شده باشد را علیرغم دستور noindex، فهرست بندی کند. موتورهای جستجو معمولاً اطلاعات قرار داده شده در Robots.txt را برای چند روز در حافظه خود نگه میدارند. در صورتی که این فایل را بروزرسانی کردهاید بهتر است آدرس آن را برای بررسی در گوگل سرچ کنسول ارسال کنید تا سریعتر بروز رسانی شود. اگر میخواهید یک فایل Robots.txt ایجاد کنید بهترین راهنما برای شما دستورالعمل گوگل است. این دستورالعمل یک فرایند چند خطی است که به شما در کوتاهترین زمان ممکن آموزش میدهد چه دستوراتی را در فایل خود قرار دهید تا رباتهای گوگل بتوانند به خوبی در سایت شما جستجو کنند. در یک فایل Robots.txt با چندین دستورالعمل، میتوان قوانین مجاز به دسترسی و عدم مجاز به دسترسی را ایجاد کرد.
چرا استفاده از فایل Robots.txt اهمیت بالایی دارد؟
ربات های این پکیج دارای امکان بی نظیری حل کپچای گوگل (من ربات نیستم) هستند. همچنین این پکیج دارای تضمین 100% پنالتی نـشدن و ثبت قطعی تک تک بازدیدها در گوگل کنسول و گوگل آنالیتیکس نیز میباشد. فایلهای Robots.txt دسترسی خزنده به ناحیه های خاصی از سایت شما را کنترل میکنند. درحالیکه اگر شما به طور تصادفی Googlebot را از خزیدن در کل سایت خود منع کنید، میتواند بسیار خطرناک باشد، برخی موقعیت ها وجود دارد که در آن فایل robots.txt میتواند بسیار مفید باشد. اگر یک عامل کاربر از /robots.txt بازدید کند و فایل رباتی را در آنجا پیدا نکند، فرض میکند که سایت فایلی ندارد و به خزیدن همه چیز در صفحه (و شاید حتی در کل سایت) ادامه میدهد.
[…] کاملاً واضح است که هر موتور جستجوی معقول و منطقی از داده های کلیک بر روی نتایج خود بهره می جوید تا از بازخورد آن برای بهبود رتبه بندی و کیفیت نتایج جستجو استفاده کند. نتایج کم کلیک باید در نتایج پایین تر قرار بگیرند زیرا کمتر با عبارات جستجو شده ارتباط دارند، و بدیهی است که نتایجی که مرتباً کلیک می شوند به سمت نتایج بالا صفحه می روند. با این حال، یک فایل robots.txt کار زیادی برای مدیریت ترافیک رباتهای مخرب انجام نمیدهد. ابزارهای مدیریت ربات مانند Cloudflare Bot Management یا Super Bot Fight Mode میتواند به مهار فعالیت مخرب ربات، بدون تأثیر روی رباتهای ضروری مانند خزنده های وب کمک کند.
این نوشته را بخوانید تا ببینید با اینگونه نوشته چه باید کرد. خود را بررسی و تست کنید تا مطمئن شوید بخش مهمی از سایت شما از طریق آن مسدود نشده باشد. اما اگر ایرادی در فایل دیده شود، لاین (دستور) مشکل دار هایلایت شده و مشخص میشود. میتوان این مدل لینکها را مدیریت کرده و آدرس آنها را پنهان کرد.
دستور Disallow برای ایندکس نکردن کاربرد دارد؛ با این دستور شما به ربات های موتور جستجو می گویید که نمی خواهید صفحه یا بخش مورد نظر در سایتتان، ایندکس شود. اگر سایت شما وردپرسی است با نصب افزونههای سئو وردپرس نظیر رنک مث یا یوست سئو بصورت خودکار برای شما این فایل ایجاد خواهد شد. در غیر این صورت به پوشه public_html در هاست خود بروید و یک فایل متنی با نام robots.txt و محتوای آن را مطابق با نیازهای خود اصلاح کنید. بنابراین اگر سایت شما است فایل robots.txt باید در آدرس example.com/robots.txt قابل دسترسی باشد. به عنوان مثال فایل robots.txt سایت گروه دیجیتال نردبان از اینجا قابل مشاهده است.