ربات بد یا فایل robots.txt را نادیده میگیرد یا آن را بررسی میکند تا صفحات وب ممنوعه را پیدا کند. متا دیسکریپشن یکی از انواع متا دیتا است که تاثیر بسیار زیادی روی سئو داخلی سایت دارد. متا دیسکریپشن یک تگ HTML در حدود ۱۵۵ کارکتر است که توضیحی خلاصه از محتوای صفحات وبسایت شما به موتورهای جستجو ارائه میدهد.
- ربات های خزنده گوگل یعنی Googlebot از دستورالعمل Crawl-delay پشتیبانی نمی کنند بنابراین اگر به فکر بهینه سازی موتور جستجوی گوگل هستید بهتر است که از این دستورالعمل استفاده نکنید.
- حتی اگر شما در حال حاضر نقشه XML سایت خود را در کنسول جستجوی گوگل یا ابزارهای Webmaster موتور جستجوی بینگ نیز ارسال کرده اید باز هم به شما پیشنهاد می کنیم حتما از این قابلیت بهره مند شوید.
- در همین صفحه، حجم دانلود شده توسط رباتها و همینطور زمان بارگذاری صفحهها را میتوانید ببینید.
- این موارد رو وقتی می شه پیدا کرد که توی سرچ کنسول خودشون رو نشون بدن.
در غیر این صورت موتورهای جستجو در زمان تجزیه فایل robots.txt سردرگم می شوند. به همین علت است که فایل robots.txt دارای نقش بسیار مهمی در سئو سایت می باشد. هنگامی که فایل robots.txt خود را آپلود و آزمایش کردید، خزنده های گوگل به طور خودکار فایل robots.txt شما را پیدا کرده و شروع به استفاده از آن میکنند. اگر فایل robots.txt خود را بهروزرسانی کردید و باید در اسرع وقت نسخه ذخیرهشده گوگل را بررسی کنید. فایل robots.txt باید یک فایل متنی کدگذاری شده UTF-8 باشد (که شامل ASCII است). گوگل ممکن است کدهایی را که بخشی از محدوده UTF-8 نیستند نادیده بگیرد و قوانین robots.txt را نامعتبر کند.
اگر فایل robots.txt یک وب سایت ظاهر نشود، ممکن است خالی یا از دایرکتوری ریشه خالی باشد (که در عوض یک خطای 404 را برمی گرداند). گهگاه بررسی کنید تا مطمئن شوید که robots.txt در وب سایت شما یافت می شود. این فایل به عنکبوت های خزنده گوگل و موتورهای جستجو می گوید که چه صفحاتی را خزش و فهرست بندی نکنند. اینجا جایی است که شما با استفاده از فایل Robots.txt از خزیدن ربات های موتور های جستجو در این صفحات جلوگیری می کنید. اما در صورتی که این فایل را پیدا نکردید و در آدرس robots.txt/ هم با یک صفحه ناموجود رو به رو شدید، تنها کاری که لازم است انجام دهید، ایجاد یک فایل جدید با پسوند txt و آپلود آن بر روی ریشه اصلی وبسایتتان است. برای جلوگیری از این مشکل، بهتر است از تگ noindex در هدر همان صفحاتی که علاقهای به حضور آنها در نتایج گوگل ندارید استفاده کنید و یا با گذاشتن رمز و یا سایر روشهای بلاک کردن، از ایندکس شدن این URLها جلوگیری کنید.
بررسی و کنترل محتوای به وسیله تگ ربات های جدید گوگل
همانطور که گفته شد با استفاده از این فایل و دو دستور بالا، می توانید به ربات های گوگل بگویید که صفحه مورد نظر شما را ایندکس کنند و یا ایندکس نکنند. مثلا در مثال بالا رباتهای خزنده از دسترسی به تمام فایلهای پی دی اف و اکسل منع شدهاند. مثلا در مثال بالا رباتهای خزنده از دسترسی به تمام آدرسهایی که به autos. در مثال زیر تمامی رباتها از دسترسی به دایرکتوری media منع شدهاند اما در عین حال اجازه دسترسی به یک فایل پی دی اف با عنوان terms-and-conditions.pdf موجود در دایرکتوری media داده شده است. برای صدور دسترسی کامل به کل سایت برای رباتهای خزنده دستور Disallow به شکل زیر خواهد بود.
اما قطعا هیچ وقت بیشتر از یکی دو روز نمیکشه که از جست و جوی خودتون به نتیجه دل خواه میرسید. بنابراین بغیر از این سه مورد، توصیه می کنیم به جای robots.txt از دستورات متا استفاده کنید. و احتمال وقوع فاجعه کمتری وجود دارد (مانند مسدود کردن کل سایت شما). موارد خاصی نیز وجود دارد که نمیخواهید هیچ بودجه خزشی را برای بازدید گوگل در صفحاتی با تگ noindex هدر دهید.
فایل robots.txt در کجا بایستی قرار داشته باشد؟
در واقع با این کار به رباتها میگویید کدام صفحهها اصلاً در اولویت شما نیستند. حتماً شما هم نمیخواهید که ربات خزنده گوگل برای مشاهده و ایندکس محتوای تکراری و کم ارزش، سرورهای شما را اشغال کند. فایل Robots.txt یک فایل متنی است که مدیران وبسایتها برای آموزش به رباتهای موتورهای جستجو ایجاد میکنند. این فایل حاوی لیست صفحات و محتواهایی است که موتورهای جستجو نیازی نیست آنها را بررسی کرده و دسته بندی کنند. این فایل متنی برای سئو و بهینه سازی سایت استفاده میشود و حاوی دستوراتی برای رباتهای نمایهساز موتورهای جستجو است که صفحاتی را مشخص میکند که هم امکان ایندکس شدن دارند و هم ندارند. گوگل دیگر کودکی نیست که فقط به محتوای html سایت شما دقت کند و آن را در حالی که شما از دیگر تکنولوژی هایی مثل جاوا اسکریپت و … استفاده می کنید نادیده بگیرد و تمامی محتواهای تمام صفحات شما را بیرون بکشد.
همانطور که مشاهده نمودید، این مقادیر، جلوی دسترسی به سایت را برای موتورهای جستجو میگیرد. هر یک از ساب دامین های وب سایت بایستی دارای فایل robots.txt مختص به خود باشند. به عبارت دیگر blog.example.com و example.com بایستی هر یک دارای فایل robots.txt مجزایی در مسیر خود باشند. این دستورات در فایل robots.txt به تمام پایشگرهای وب اعلام می کند که می توانند تمام صفحات دامنه را پایش کنند. این دستورات در فایل robots.txt به تمام پایشگرهای وب اعلام می کند که هیچ صفحه ای در دامنه را پایش نکنند.
این محصول در حقیقت پکیجی شامل ربات های متعدد، آموزشها و ابزارهای لازم برای ارتقاء سئو سایت شما میباشد. ربات های این پکیج دارای امکان بی نظیری حل کپچای گوگل (من ربات نیستم) هستند. همچنین این پکیج دارای تضمین 100% پنالتی نـشدن و ثبت قطعی تک تک بازدیدها در گوگل کنسول و گوگل آنالیتیکس نیز میباشد. دستور Disallow به رباتها میگوید که چه فولدرهایی از وبسایت شما را نباید بررسی کنند.