برای یک ربات خاص مانند ربات گوگل تنها یک گروه از دستورالعمل ها معتبر است. داشتن چندین گروه از دستورالعمل ها برای یک موتور جستجو می توانند باعث سردرگم شدن آنها شود. حتما باید برای هر موتور جستجو یک گروه از دستورالعمل ها را تعریف کنید.
شما با ترکیب این ۲ دستور user-agent و disallow می توانید قوانین مختلفی برای دسترسی به عکس، متن و …قسمت های مختلف سایتتان ایجاد کنید. هم چنین می توانید نام هر ربات خزنده را در user-agent مشخص کنید و به آن دستور خاصی دهید. هنگامی که فایل robots.txt خود را در رایانه خود ذخیره کردید، آماده است تا آن را در اختیار خزنده های موتورهای جستجو قرار دهید. هیچ ابزاری وجود ندارد که بتواند در این مورد به شما کمک کند، زیرا نحوه آپلود فایل در سایت شما به معماری سایت و سرور شما بستگی دارد.
- در ادامه ی مقاله نحوه ساخت فایل ربات را با دستورات آن آورده ایم.
- همچنین در فرآیندهای خزیدن و نمایهسازی، دستورالعملها به عنوان دستوراتی عمل میکنند تا رباتهای موتور جستجو ، مانند Googlebot، به صفحات مناسب هدایت شوند.
- Robots.txt نحوه خزیدن در صفحات مختلف وبسایت را به رباتها اعلام میکند در حالی که متا ربات و ربات X رفتارهای یک صفحه یا محتویات یک صفحه را به رباتهای خزنده اعلام میکنند.
- برای اطمینان هم میتوانید دوباره از همین ابزار برای مطمئن شدن استفاده کنید.
اما اگر با صفحه ای شامل کدهای User-agent و … روبرو شدید، باید برای مدیریت فایل به کنترل پنل هاست سایتتان مراجعه کنید. برای ویرایش فایل robots.txt، آن را در یک ویرایشگر متنی ساده باز کرده و تغییرات لازم را اعمال کنید. این دستور برای مشخص کردن رباتها و خرندگانی است که امکان دسترسی به بخشهای سایت را داشته باشند یا خیر. با این دستورالعمل میتوان به تمام رباتها دسترسی داد و یا با اضافه کردن نام رباتی خاص، فقط به آن ربات دسترسیهای مختلف را داد یا محدود کرد. بنابراین این ربات در بالا رفتن سئو سایت اهمیت فراوانی دارد که نمیتوان آن را نادیده گرفت.
فایل robots.txt چگونه است؟ یک نمونه فایل ربات
مثلا اگر شما در صفه ای از سایتتون روزانه یک سرچ هم نداشتید، یک دفعه اون از رو صفر به ده یا بیست تا نرسونید اول با روزی 3 الی 4 تا سرچ شروع بکنید و بعد از 2 روز بکنیدش 7 یا 8 تا. حالا همینطور خورد خورد تعدادش رو افزایش بدین تا گوگل شک نکنه. پس شما و تقریبا همه ی ادم هایی که به عنوان یه انسان معمولی از گوگل استفاده میکنندهیچ وقت یه کلمه کلیدی ثابت رو به مدت یه هفته تا یه ماه پشت سر هم سرچ نمی زنند و روی یک سایت کلیک نمیکنند. سئو دسته بندی محصولات در یک سایت فروشگاهی اینترنتی، یکی از موضوعات مهمی است که متأسفانه اکثر وبمستران آن را… همچنین، اگر تعداد زیادی صفحه دارید که میخواهید آنها را مسدود کنید، گاهی اوقات بهجای افزودن دستی یک برچسب noindex به هر صفحه، مسدود کردن کل بخش آن سایت با robots.txt آسانتر می باشد.
پیاده سازی آنها راحت تر است و احتمال وقوع فاجعه کمتر است (مانند مسدود شدن کل سایت شما). این تنها یکی از چندین روش های مورد استفاده از فایل robots.txt است. به این دلیل که گوگل خودش به راحتی می تواند کلیه صفحات مهم سایت را پیدا کرده بخزد و فهرست بندی نماید.
۱. مدیریت ترافیک رباتها به وبسایت
در مبحث شبکه، پروتکل قالبی برای ارائه دستورالعملها یا دستورات است. این پروتکلی است که به رباتها میگوید از بررسی کدام صفحات وب و منابع آن اجتناب کنند. دستورالعملهای فرمت شده برای این پروتکل در فایل robots.txt گنجانده میشود. جلوگیری از دسترسی به یک سری از آدرس های سایت به معنای پاک شدن آنها از ایندکس گوگل نخواهد بود. به عبارتی دیگر اگر دسترسی به صفحه ایندکس شده ای را توسط فایل robots.txt بلاک کنید، همچنان آن صفحه در نتایج جستجو قابل رویت است.
اما اگر میخواهید تنها به یک ربات خاص مانند ربات گوگل دستور خاصی را بدهید، دستور شما باید به شکل زیر نوشته شود. این کد به این معنی است که “اجرای دستورات فایل، تنها برای ربات گوگل الزامی است. برای مثال می توانید به ربات های گوگل بگویید که کدام صفحات سایت شما را ایندکس کنند و در نتایج گوگل نمایش دهند و کدام صفحات را در نتایج گوگل نمایش ندهند و ایندکس نکنند. فایل Robots.txt یک فایل متنی کاملا ساده است؛ همانطور که از نام این فایل پیداست، فرمت .txt دارد و در دایرکتوری سایتتان قرار خواهد داشت.
در نهایتهمینطور که سئوی سایتتون رشد میکنه کلمات کلیدی بهتر و قوی تری مد نظر قرار بدین و تعداد جست و جو های روزانه رو بیشتر بکنید. این دستور به ربات گوگل میگوید علی رغم اینکه فولدر Photos از دسترس رباتها خارج شده است، اجازه مشاهده و ایندکس فایل novin.jpg را دارد. یکی از تکنیک هایی که در سئو مورد استفاده قرار می گیرد، URL Cloacking نام دارد که برای پنهان کردن آدرس صفحات از دید موتور های جستجو و کاربران کاربرد دارد. در صورتی که مشکل صفحه را حل نکنید و دستور دیس الو را هم اجرا نکنید، صفحه مورد نظر در گوگل ایندکس می شود و ممکن است به سئو سایت شما ضربه بزند. یکی از ابزارهای مختلف که به شما در بررسی صحت فایل robots.txt کمک میکند استفاده از ابزار تست robots.txt گوگل است. هر شخص و یا هر برنامه کامپیوتری فعال روی شبکه جهانی اینترنت دارای یک user-agent (یک نام اختصاص داده شده) است.