دسته‌ها
اخبار

چطور فایل Robots txt وردپرس را برای سئو بهینه کنیم؟ راست چین

در این قسمت شما می‌توانید دو فایل اصلی و مهم robots.txt و htaccess. در ادامه نحوه بروزرسانی و انجام تغییرات در داخل فایل robots.txt را در دو پلاگین یواست و رنک مت ، بررسی خواهیم کرد. گاهی اوقات با بزرگ شدن فایل ربات لازم می‌شود که یادداشت‌هایی برای خودمان بگذاریم تا بعدا خیلی سریع‌تر متوجه کارهایی که قبلا انجام داده‌ایم شویم و ضریب خطا هم کاهش پیدا کند. ربات Googlebot-Image وقتی به این دستور می‌رسد متوجه می‌شود که علارقم اینکه نباید محتوای فولدر mypic را بررسی کند اما استثنا یک فولدر به نام logo.png در آن وجود دارد که باید آن را بررسی کند. همچنین اگر کنجکاو شدید که از اسامی معروف‌ترین خزنده‌ها و ربات‌های دنیای اینترنت باخبر شوید، می‌توانید دیتابیس اسامی ربات‌ها را مشاهده کنید.

  • فایل Robots.txt یک فایل متنیست که وبمسترها با ایجاد آن می توانند ربات های موتورهای جستجو را در هنگام پایش وب سایت راهنمایی کنند.
  • فایل robots.txt همان بستری است که کمک میکند تا ربات‌ها زبان ما بفهمند.
  • ربات‌ها در واقع نرم‌افزارهایی هستند که به صورت خودکار صفحه‌های مختلف را باز و بررسی می‌کنند.
  • برای ربات ها، عامل کاربر (از لحاظ نظری) به مدیران وب سایت کمک می‌کند تا بدانند چه نوع ربات هایی در سایت خزیده‌اند.
  • دستور / بعداز Disallow به ربات گوگل می‌گوید باید وارد پوشه‌ای در ریشه فایل شوی.

دستوراتی که در فایل ربات سایت شما توسط افزونه اضافه شده فقط محض کنترل کرول متعلقات این افزونه است و نگران نباشید، چیزی از سایت شما با دستورات ربات از ایندکس گوگل خارج نمیشود. همانطور که گفتیم ربات موتورهای جستجو زیاد هستند، پس باید برای آنها مشخص کنید کدام یک حق دارند به سایت شما سر بزنند و کدام یک حقی برای دیدن سایت ندارند. همانطور که از مستندات گوگل پیداست تمام کلیک هایی که روی نتایج گوگل انجام میشوند به عنوان رفتار یا واکنش کاربران تلقی شده و تاثیر مستقیم بر رتبه بندی سایت‌ها خواهد داشت.

چگونه یک فایل robots.txt ایجاد کنیم؟قوانین قالب و مکان1- نام فایل باید robots.txt باشد. 1390 – 1401 © کلیه حقوق مادی و معنوی این وب سایت برای دهاستینگ محفوظ می باشد. درود بر شما، این فایل توسط افزونه های سئو مثل یوآست ساخته می شود. سوالی که شاید برای شما هم پیش بیاید این است که این فایل در کجا قرار دارد. یا بهتر است بگوییم در کجا باید بدنبال این فایل بگردیم؟ پاسخ این سوال بسیار ساده است.

من حدود 15 روز پیش از یک شرکتی قالب جنه را تهیه کردم و ازش روی وبلاگ سایتمون استفاده کردیم. البته الان توی گوگل انتهای لینک هایی که noindex شدند کلمه feed درج شده. در بخش جامعه می‌توانید سوالات خود را بپرسید و با سایر هم‌میهنان وردپرسی در ارتباط باشید. (همچنین، اگر از پلاگین های وردپرس برای ریدایرکت یا کاستومایز پرمالینک ها استفاده کرده باشید، ممکنه اشکال از این پلاگین ها باشه و با غیر فعال کردنشون ممکنه که این مشکل برطرف بشه). در مورد مشکلت فکر نمی کنم robots.txt بتونه بهت کمکی بکنه چون این مشکل باید از یک جای دیگه درست بشه.

ربات گوگل برای هر سایت یک بخش بودجه ای را که متناسب با مطلوبیت و ماهیت آنها باشد، کنار می گذارد. برخی از سایت‌ها بزرگ‌تر هستند، برخی دیگر از اختیارات زیادی برخوردارند، بنابراین از Googlebot کمک هزینه بیشتری دریافت می‌کنند. استفاده از فایل robots.txt برای تمام سایت‌های متوسط و بزرگ تقریبا اجتناب ناپذیر است. اما در برخی سایت‌های کوچک با تعداد صفحه‌های محدود، می‌توان در مواردی حتی قید این فایل را هم زد و به موتورهای جستجو اجازه داد تا تمام صفحات را بررسی کنند.

robot.txt چیست؟ بررسی کاربرد فایل متنی robot.txt در سئو

اگرچه برخی از ربات‌ها به دستورات موجود در این فایل توجهی نمی‌کنند. اما خوشبختانه برخلاف این عده خاص، بسیاری از خزنده‌های مهم سطح وب به این قوانین و دستورات احترام می‌گذارند و از آن‌ها پیروی می‌کنند. علاوه بر این‌ها، گوگل ربات‌های مختلف دیگری را هم دارد که لیست کامل نام و وظیفه آن‌ها را می‌توانید در مقاله “مرور خزنده‌های موتور جستجو گوگل” که توسط خود گوگل منتشر شده است ببینید. به عنوان مثال در بسیاری از سایت‌ها بخشی تحت عنوان پروفایل کاربران وجود دارد که نمایش این پروفایل‌های کاربری در نتایج گوگل هیچ ترافیکی برای سایت مورد نظر ایجاد نمی‌کنند. اما به صورت کلی می‌توانیم امیدوار باشیم که تمام قوانینی که داخل فایل ربات سایت‌مان مشخص می‌کنیم توسط مهم‌ترین خزنده‌های وب یعنی خزنده‌های گوگل رعایت می‌شوند.

فایل robots.txt چه می کند؟

ربات‌هایی هم وجود دارند که در روز بارها و بارها به صفحات وب‌سایت شما سر می‌زنند و هر کدام هم وظیفه‌ای دارند. مثلا ربات گوگل کارش این است که صفحات جدید در اینترنت را پیدا کند. این کار به ایندکس شدن این صفحات در گوگل کمک می‌کند و افراد می‌توانند آن صفحات را ببینند. در واقع اگر این ربات‌ها نباشند، صفحات ارزشمند سایت شما که برای تولید آن‌ها خیلی زحمت کشیده‌اید، اصلا روی بستر اینترنت دیده نمی‌شوند. اما از آنجا که این ربات‌ها ممکن است برخی چیزهایی که ما دوست نداریم را به دیگران نشان بدهند، برای کنترل کردنشان نیاز داریم تا با زبان رباتی با آن‌ها حرف بزنیم. فایل robots.txt همان بستری است که کمک میکند تا ربات‌ها زبان ما بفهمند.

روش 2. ویرایش فایل Robots.txt وردپرس دستی با استفاده از FTP

حتی اگر فایل robots.txt برای این ساخته شده باشد که به موتورهای جستجو بگوییم که در کدام یک از صفحات وب سایت ما اجازه خزیدن ندارند باز هم می توان از این فایل برای هدایت موتورهای جستجو به نقشه XML سایت استفاده کرد. این دستورات کدهای ساده ای به نظر می آیند اما از طریق آن ها می توان سئو وب سایت را تغییر داد. نکته هائز اهمیت حساس بودن فایل ربوتس دات تی ایکس تی به حروف کوچک و بزرگ در حروف لاتین می باشد که دقت کنید اسم و آدرس صفحات را درست و دقیق وارد کنید. فایل robots.txt در cms وردپرس به صورت پیش فرض وجود دارد و اگر در شرایطی وجود نداشت می توانید با نصب افزونه yoast seo فایل ربوتس دات تی ایکس تی را فعال و ایجاد نمایید.

گوگل فقط به دستور شما صفحاتی مشخص را مورد دسترسی قرار می دهد. اگر به آن بگویید صفحاتی مثل بک اند وب سایتتان را ایندکس نکند، او به شما احترام می گذارد و این کار را انجام نمی دهد. این قضیه از الگوریتم پاندای گوگل شروع شد و به راحتی می توان به آن اشاره کرد که هرگز فایل های سی اس اس یا جاوا اسکریپت شما را مورد بررسی قرار ندهد. اگر از افزونه یوآست در سئوی وب سایت وردپرسی خود استفاده می کنید، پیشنهاد می کنیم به نوشته نحوه افزودن کلمه کلیدی و توضیحات متا در وردپرس نیز نگاهی بیاندازید. در این مقاله به طور کامل با فایل ربات سایت و نحوه ساخت و بررسی آن آشنا شدیم. موتور جستجوی گوگل ربات‌های مختلفی دارد که هرکدام وظیفه خاصی دارند، شناخت این ربات‌ها به ما کمک می‌کند تا ارتباط بهتری با آن‌ها برقرار کنیم و به صورت خیلی دقیق‌تری بتوانیم فایل ربات سایتمان را طراحی کنیم.

این کد در فایل Robots.txt به این معنی است که ربات‌ها به هیچ محتوایی که در پوشه ذکرشده قرار دارد، دسترسی ندارند. دقت داشته باشید که اگر هیچ ناحیه‌ای در سایت شما وجود ندارد که بخواهید دسترسی عامل کاربر به آن را کنترل کنید، ممکن است اصلاً به فایل robots.txt نیاز نداشته باشید. حتی اگر صفحه robots.txt مثلاً در webjavan.com/index/robots.txt یا /homepage/robots.txt وجود داشته باشد، توسط عوامل کاربر کشف نمی‌شود و در نتیجه سایت تحت درمان قرار می‌گیرد. هنگامی که صفحه به‌روزرسانی شد، می‌توانید روی منوی کشویی بالای ویرایشگر متن نیز کلیک کنید تا مُهر زمانی نمایش داده شود که نشان‌دهنده زمانی است که گوگل برای اولین‌بار آخرین نسخه فایل robots.txt شما را دیده است. اگر فایل حاوی قاعده‌ای باشد که برای بیش از یک کاربر عامل اعمال می‌شود، خزنده فقط به خاص‌ترین گروه دستورالعمل‌ها توجه می‌کند. یک ربات بد یا فایل robots.txt را نادیده می‌گیرد یا آن را پردازش می‌کند تا صفحات وب ممنوعه را پیدا کند.