برخی وب سایتهای سریع ممکن است عملکرد بدتری نسبت به وب سایت های کند داشته… برای این کار باید کد زیر را در یک فایل با فرمت txt قرار دهید. خصوصی نگهداشتن بخشهای کامل یک وبسایت (بهعنوانمثال، سایت مرحلهبندی تیم مهندسی وب جوان). این کار فقط به خزنده گوگل میگوید که هیچ صفحهای را که حاوی رشته URL /example-subfolder/ است، نخزد. نام فایل robots.txt باید با حروف کوچک باشد (بدون Robots.txt یا ROBOTS.TXT).
اگر فایل مذکور با فرمت استاندارد و صحیح ایجاد نشده باشد و یا اطلاعات و دستورات داخل آن قادر به شناسایی نباشند، رباتهای موتورهای جستجو همچنان به دسترسی به اطلاعات سایت شما ادامه داده و میتوانند آنها را ایندکس کنند. به عبارت دیگر، رباتها فقط زمانی تغییر رفتار میدهند که دستور دقیق و منطبق با آن رفتار را از طریق متون داخل این فایل دریافت کرده باشند. در غیر این صورت آنها به رفتار طبیعی خود یعنی بررسی و ایندکس کردن تمام بخشهای سایت ادامه خواهند داد. اگر اجازه بررسی صفحهای را با دستورات فایل ربات نداده باشیم باز هم امکان دارد گوگل آن را ایندکس کند و در نتایج جستجو ظاهر شود. ربات گوگل یا باید به صورت مستقیم صفحه را دریافت و بررسی کند (معمولاً به کم نقشه سایت) یا باید از لینکهای دیگری که از صفحهها و سایتهای دیگر به آن صفحه دادهاند آن را پیدا و بررسی کند.
ما به شدت توصیه میکنیم اگر فایل robots.txt را در سایت خود ندارید، بلافاصله آن را ایجاد کنید. عدم وجود یک فایل robots.txt موتورهای جستجو را از خزیدن و نمایهسازی وبسایت شما متوقف نخواهد کرد. فایل robots.txt سایت شما نقش مهمی در عملکرد کلی سئو شما دارد. این فایل شما را قادر میسازد تا با موتورهای جستجو ارتباط برقرار کنید و به آن ها نشان دهید که چه بخشی از سایت شما را باید ایندکس کنند و چه بخشهایی را نباید ایندکس کنند.
دستورات فایل ربات به دو صورت Allow و Disallow تعریف می شوند، برای مجوز دادن به ربات موتور جستجو از دستور Allow استفاده می شود و برای محروم کردن یا محافظت کردن از آدرس یا قسمتی از سایت هم از Disallow استفاده می شود. اصلا آنها زبان آدمیزان حالیشان نیست، پس خودتان را خسته نکنید. در مورد کلمات کلیدی کم رقابت، استفاده از ربات افزایش ورودی گوگل قطعاً سبب بالا آمدن سایت شما (ورود به صفحه اول و حتی آمدن به رتبه نخست) میشود اما در کلمات کلیدی پُر رقابت، قضیه آنقدرها آسان نیست. زیرا کسب رتبه در کلمات کلیدی پُر رقابت تنها به ورودی گرفتن از گوگل وابسته نیست و به عواملی نظیر اعتبار دامنه، اعتبار صفحه، بک لینکها و عوامل متعدد دیگر بستگی دارد.
- همچنین اگر نقشه سایت خود را ساخته باشید، خودکار در فایل ربات سایت اضافه می شود.
- در کادر مشخص شده، متن فایل ربات خود را به صورت دستی وارد کرده و روی بررسی TEST کلیک کنید.
- 1390 – 1401 © کلیه حقوق مادی و معنوی این وب سایت برای دهاستینگ محفوظ می باشد.
- اما نباید فراموش کنید که اگرچه میتوان سایت مپ در داخل فایل ربات سایت به رباتهای موتور جستجو گوگل معرفی کرد اما این روش بهترین روش معرفی سایت مپ به رباتهای گوگل نیست.
در صورتی که شما هم قصد دارید تا سئو سایت خود را به صورت کاملا حرفه ای بهینه سازی کنید بهتر است که با تمامی جنبه های مختلف فایل robots.txt آشنا شوید و از نیروهای متخصص برای پیاده سازی این فایل استفاده کنید. در زمان پیاده سازی این قطعه کد در فایل robots.txt توجه داشته باشید که این کار باعث قطع شدن دسترسی تمامی ربات های گوگل می شود. روش های مختلفی وجود دارد که شما با پیاده سازی آنها در فایل robots.txt می توانید دسترسی موتورهای جستجو به بخش های مختلف سایت خود را فراهم کنید. با این حال باید توجه داشت که موتورهای جستجو گوگل و بینگ در این جا اجازه دسترسی خواهند داشت چرا که طول کاراکترهای دستورالعمل بیشتر از Allow می باشد. با استفاده از این دو دستورالعمل شما می توانید به موتورهای جستجو بگویید که می توانند به یک صفحه یا فایل خاص در پوشه های مختلف سایت شما دسترسی پیدا کرده و در غیر این صورت مجاز به دسترسی به این فایل ها نیستند. از آنجایی که هر یک از موتورهای جستجو مدت زمان محدودی برای خزیدن در یک وب سایت را دارند، شما باید سعی کنید که این زمان را صرف صفحاتی کنید که نیاز دارید تا در لیست موتورهای جستجو نمایش داده شوند.
گذاشتن کامنت در فایل robots.txt
امیدواریم این نگاه حرفهای به رقابتی سالم دامن بزند که در نهایت به پیشرفت وب فارسی منجر شود. شما با اضافه کردن کلمه robots.txt به انتهای ادرس سایت خود میتوانید فایل robots.txt کنونی را ملاحظه بفرمایید. به عنوان مثال اگر دامنه شما Example.com است به ادرس example.com/robots.txt بروید و فایل robots.txt را مشاهده کنید. در مثال بالا همه رباتهای خزنده از دسترسی به تمامی آدرسهایی که دارای کاراکتر ؟ هستند منع شدهاند. اگر میخواهید امنیت فایل ربات خود را چند درجه بالاتر ببرید از مکانیزم امنیتی Honeypot (یک مکانیزم مبتنی بر دادههایی که قابل دسترسی هستند اما دسترسی آنها به صورت مداوم مانیتور میشود) استفاده کنید.
بررسی و کنترل محتوای به وسیله تگ ربات های جدید گوگل
عدم اجازه دسترسی به برخی از بخش های سایت می تواند مورد سوءاستفاده توسط هکرها قرار گیرد. لطفا توجه داشته باشید که فایل robots.txt شما به صورت عمومی در دسترس خواهد بود. با این حال باید توجه داشت که اولین دستورالعمل همواره در ابتدا مورد بررسی قرار می گیرد. دقت داشتن به دستورالعمل هایی که برای تمامی فایل های robots.txt و در عین حال برای یک فایل خاص می باشند. وب سایتی که قصد تعریف کردن نرخ خزیدن یا نرخ درخواست در آن دارید را انتخاب کنید.
نمی خواهید که موتورهای جستجو صفحات مربوط به تگ ها و نویسنده ها در وب سایت شما بخزند. نمی خواهید که موتورهای جستجو صفحات جستجوی داخلی وب سایت شما را بخزند. در این مثال هیچ یک از موتورهای جستجو از جمله گوگل و بینگ به تمامی پوشه های موجود در مسیر /about/ directory به جز مسیر sub-directory /about/company/ دسترسی ندارند. لطفا به این مسئله توجه داشته باشید که امکان ارجاع چندین نقشه XML سایت در فایل robots.txt برای شما فراهم شده است که می توانید از این امکان نهایت بهره را ببرید تا سئو سایت خود را بهبود دهید.