دسته‌ها
اخبار

robots txt فایل آموزش کنترل ربات های گوگل-دنی سالیوان | سئو

تصویر زیر فایل robots.txt سایت یوتیوب به عنوان نمونه نمایش داده شده‌است. معمولا موتورهای جستجو محتویات فایل robotx.txt را ذخیره می‌کنند تا به دانلود مجدد آن نیاز نداشته باشند، با این حال روزانه چندبار نسخه جدید فایل را بارگذاری می‌کنند. پس انعکاس تغییرات اعمال شده در فایل Robots.txt زمان زیادی نخواهد برد و سریعا اعمال می‌شود. جلوگیری از ایندکس برچسب ها و تگ هایی که محتوای تکراری یا اضافی در سایت ایجاد می کنند. برای اینکه فایل robots.txt بر اساس سئو پیکربندی شود باید چند نکته را مورد توجه قرار داد. ۳.در صورتی که در دایرکتوری سایت هیچ فایل robots.txt موجود نباشد آن ها به طور آزادانه صفحات سایت را می خزند.

  • همچنین پیکربندی نادرست این فایل می تواند به سرعت سئو سایت را خراب کرده و مانع دسترسی موتورهای جستجو و خزنده های آن ها به محتوای سایت شود.
  • در این حالت یکی از راه حل‌های پیشنهادی گوگل، استفاده از تگ noindex در هدر صفحه مورد نظر است.
  • با استفاده از این فایل شما در حقیقت به معرفی بخش های قابل دسترس و همچنین مشخص نمودن بخش هایی که نمی خواهید ربات های جستجوگر سطح وب یا همان Web Crawlers به آن ها دسترسی داسته باشند؛ می پردازید.
  • بعد از اینکه تغییرات لازم را ایجاد کردید، مجددا با گزینه آپلود آن را به فولدر ریشه سایت برگردانید.
  • علاوه بر این یک فایل robots.txt به موتورهای جستجو بیان می کند که نقشه سایت XML در کجا واقع شده است.

حالا که با مهم‌ترین دستورات مورد نیاز در فایل robots آشنا شدید، بد نیست نکاتی را یادآور شویم که خیلی از وبمستران به اشتباه انجام می‌دهند و همین اشتباهات کوچک اتفاقات خیلی بدی را در سئو سایت آن‌ها رقم می‌زند. برای جلوگیری از دسترسی ربات‌ها چند راه مختلف وجود داره که در انتهای مقاله توضیح دادیم. می‌تونید از سرچ کنسول دوباره درخواست ایندکس بدید، نقشه سایت رو دوباره بررسی و آپلود کنید.

فایل Robots.txt‌ یک ابزار بسیار بحرانی برای سئو می‌باشد و اگر نتوانید به درستی آن را هندل کنید ممکن است در امنیت سایت شما تاثیر منفی داشته باشد. اما اگر اصول و قواعد و تکنیک‌های آن را یاد بگیرید می‌توانید به راحتی از آن برای بهبود کارایی وبسایت خود استفاده کنید. هنوز که هنوز است خیلی‌ها از عملکرد دقیق فایل‌های ربات اطلاعی ندارند.

آیا واقعا به فایل Robots.txt نیاز است؟

این فایل معمولا در ریشه دایرکتوری ذخیره شده که به عنوان پوشه اصلی سایت شما شناخته می شود. این ربات برای پیدا کردن جایگاه سایت شما در نتایج جستجوی گوگل کاربرد دارد. و میتوانید از طریق آن، رشد جایگاه سایت تان را در کلمات کلیدی مختلف ارزیابی نمایید. پروتکل دیگری که برای فایل‌های robots.txt استفاده می‌شود، پروتکل Sitemaps است. نقشه‌های سایت به خزنده وب نشان می‌دهند که در کدام صفحات می‌توانند بخزند.

فرض کنید که در وبسایت‌تان فولدری به نام mypic دارید که در آن یکسری تصاویر را نگهداری می‌کنید که علاقه‌ای ندارید ربات‌ جستجو تصاویر گوگل آن را بررسی کند و در نتایج خود نشان دهد. در مرحله دوم، بعد از اینکه مشخص کردیم دقیقا با چه رباتی طرف هستیم، حالا باید مشخص کنیم که محدودیت‌های این ربات چیست و چه صفحات و منابعی از وبسایت شما را نباید بررسی کند. با اینکار در حقیقت اعلام می‌کنیم که تمام ربات‌ها مد نظر ما هستند و تمام ربات‌ها باید به دستورات ما توجه کنند و دیگر نیازی نیست اسامی تک تک ربات‌ها را بنویسیم. به این ترتیب ربات Googlebot که اصلی‌ترین ربات گوگل است متوجه می‌شود که باید به دستورات خاصی توجه کند.

فایل Robots.txt چیست و چه کارایی دارد؟به همراه تگ ربات های جدید گوگل 2022زمان افزایش دانش شما: 13 دقیقه

ربات Email Harvesters و Spambots Malware و یا ربات هایی که وظیفه تامین امنیت را بر عهده دارند، جزء این موارد می باشند. هر چیزی که بعد از “Disallow” می آید صفحات یا بخش هایی هستند که می خواهید مسدود کنید. در ادامه به معرفی چند دلیل برای استفاده از فایل Robot.txt می پردازیم.

البته لازم به ذکر است این یک روش مطمئن برای جلوگیری از نمایش سایت شما در موتورهای جستجو نیست و باید صفحات سایت را no-index کنید. من پیشنهاد میکنم اگر نیاز به نوایندکس کردن و حذف صفحه ای از دید ربات های موتور جستجو را دارید، با توجه به سخت بودن کار با robot به سراغ روش های دیگر بروید. در مقاله نوایندکس حدود 7 روش از این راهکارها را توضیح دادم که میتوانید از آنها استفاده کنید. برای ساخت robots.txt در وردپرس باید در مرحله اول در هاست سایت روی File Manager کلیک کرد تا به فایل های هاست دسترسی داشت. در مرحله بعد وارد مسیر /public_html/ شده تا وارد مسیر نصب وردپرس شد. در گام سوم باید با استفاده از برنامه notepad یا سایر نرم افزارهای ویرایشگر متن فایلی به نام robots.txt ایجاد کرد سپس بر روی دکمه آپلود در فایل منجر کلیک نموده و فایل را در این مسیر قرار دهید.

۲.در ابتدای ورود خزنده ها به سایت آن ها در دایرکتوری ریشه سایت به دنبال فایل robots.txt می گردند. طبق این دستور، ربات ها اجازه دسترسی به صفحه admin-ajax.php را دارند؛ اگر می خواهید دسترسی به این صفحه را غیر فعال کنید، باید به تنظیمات وردپرس رفته و گزینه Search Engine Visibility را فعال کنید. این بسیار مهم است که فایل robots.txt شما به درستی تنظیم شده باشد. این راهنمای مفید از Google اطلاعات بیشتری در مورد قوانینی که می توانید برای مسدود کردن یا اجازه ربات ها به خزیدن صفحات مختلف سایت شما استفاده کنید.

هر چه در طول روز تعداد بیشتری محتوا در وب‌سایت‌تان قرار بگیرد و تغییرات سایت اهمیت زیادی داشته باشد، ربات‌های جستجوگر دفعات بیشتری به سایت شما مراجعه می‌کنند. برای مثال، در وبسایت‌های خبری که همیشه در حال انتشار خبر و به‌روزرسانی اخبارشان هستند ربات‌ها با سرعت بیشتری صفحات را بررسی و ایندکس می‌کنند. ربات های خزنده موتورهای جستجو برای هر سایت سهمی در نظر می گیرند. به این معنی که تعداد مشخصی صفحه را در یک نشست معین بررسی می کنند.