من از بسته ادمخاطب ازاکسل به تلگرام استفاده میکنم، بسیارکاربردیه،البته نمیدونم مشکل ازچیه ولی بعضی وقتاهنگام فیلتر … خیلی کم پیش اومده که از سایت های ایرانی خرید کنم و راضی باشم.شما جز اون کسایی بودید که واقعا از کار باهاتون لذت بردم. من فکرمیکردم فقط در محصولات خارجی این ربات ها وجود داره که در اشتباه بودم.. من چندتاازبرنامه های تلگرام روتست کردم.تنهابرنامه ای که درست کارمیکردوتوی این نوسانات تلگرام موفق بودنرم افزارشماست.. راستی رباتتون عالیه ممنونم این موضوع که 3ربات دریک vpsمیشه همزمان کارکردباعث میشه که من دو ربات دیگم خریداری کنم. این دوره از نمایشگاه که 24مین دوره این رویداد بود با حضور 480 استارتاپ که در بخش الکام استارز حضور داشتند برگزار و استارتاپها به معرفی خدمات و تکنولوژی خود برای بازدیدکنندگان پرداختند.
بازم ممنون بابت صبر و حوصلتون و اینکه سرتونو بدرد آوردم امیدوارم جوابی بمن بدید که مشکلات سایتمو حل کنه و راه حلاتون عملی باشه عین مقاله هاتون . و اگه توسط این قابلیت میشه من باید چکار کنم تا از دست این دسته ها و آدرس های قدیمی که ارور هستش راحت شم . این مقاله به کوشش رامین محمودی، حسین بابائی، صفیه منتظری و دیگر اعضای تیم نوین تولید شده است. تکتک ما امیدواریم که با تلاش خود، تاثیری هر چند کوچک در بهبود کیفیت وب فارسی داشته باشیم. هر آنچه برای کنترل این رباتها فضول اما مفید لازم بود را به زبان ساده توضیح دادیم. اولین بخش، Crawl Rate Limit (حد نرخ خزیدن) است و دومی Crawl Demand.
- این قانون به Googlebot میگوید که پوشه تصویر وبسایت شما را ایندکس نکند.
- قبل از اینکه رباتهای موتورهای جستجو نظیر گوگل صفحات وب را کراول کنند ابتدا فایل Robots.txt را بررسی میکنند و اگر این فایل موجود باشد مطابق با اطلاعات مندرج در آن اقدام به ایندکس کردن صفحات میکنند.
- من یک سایت تازه راه اندازی کرده ایم و نمیخواهم گوگل آن را ببیند.
- است که با کمک آن و درج دستورات تحت وب میتوان کارهای مختلفی از جمله ایجاد دسترسی یا محدودسازی ربات موتورهای جستجو را انجام داد.
- در دنیای اینترنت، بیش از هزاران نرم افزار برنامه نویسی شده برای خزیدن داخل وب وجود دارند که به آنها رباتهای خزنده یا crawler گفته میشود.
این کار فقط به خزنده بینگ (نام عامل کاربر Bing) میگوید که از خزیدن صفحه خاص در /example-subfolder/blocked-page.html اجتناب کند. یکی از مهم ترین نکات در زمان کار کردن با فایل robots.txt این است که روی تغییراتی که در این فایل اعمال می کنید نظارت کامل داشته باشید. برای این که یک ربات خاص نیز از دستورالعمل های عمومی تمامی ربات ها پیروی کند باید این دستورالعمل ها را برای ربات خاص مد نظر خود نیز تکرار کنید.
روش 1: ویرایش فایل Robots.txt با استفاده از Yoast SEO
دستور / بعداز Disallow به ربات گوگل میگوید باید وارد پوشهای در ریشه فایل شوی. از این دستور میتوان به دو شکل در فایل robots.txt استفاده کرد. مطمئناً شما هم میخواهید ربات گوگل Crawl Budget سایتتان را به بهترین شکل ممکن مصرف کند. به عبارت دیگر، ربات گوگل باید ارزشمندترین و مهمترین صفحات شما را بهتر و بیشتر بررسی کند.
آشنایی با دستورات فایل Robots.txt و معانیشان
اگر چنین فایلی وجود نداشته باشد، ربات بدون هیچ محدودیتی به تمام بخشهای در دسترس سر میزند. همچنین در فرآیندهای خزیدن و نمایهسازی، دستورالعملها به عنوان دستوراتی عمل میکنند تا رباتهای موتور جستجو ، مانند Googlebot، به صفحات مناسب هدایت شوند. بعد از ایجاد و یا انجام اصلاحات در فایل ربات، باید از صحت تغییرات خود مطمئن شوید. بهترین روش برای اینکار استفاده از ابزار تست فایل robots.txt گوگل سرچ کنسول است. درصورتی که از افزونه یواست برای سئو سایت وردپرسی خود استفاده میکنید، این افزونه برای مدیریت و ویرایش فایل ربات سایتتان یک بخش ویژه را در نظر گرفته است.
برای خزیدن در سایتها، موتورهای جستجو پیوندها را دنبال میکنند تا از یک سایت به سایت دیگر بروند، در نهایت، در میان میلیاردها لینک و وبسایت خزیده میشوند. این رفتار خزیدن گاهی اوقات بهعنوان “عنکبوت” شناخته میشود. این فایل به جای دیگری در سایت پیوند داده نشده است، بنابراین کاربران به احتمال زیاد به آن برخورد نمی کنند، اما اکثر رباتهای خزنده وب قبل از خزیدن سایت، به دنبال این فایل میگردند. فایلهای Robots.txt (فایل روبوتس) بیشتر برای مدیریت فعالیتهای رباتهای خوب مانند خزندههای وب در نظر گرفته شدهاند، زیرا رباتهای بد احتمالاً دستورالعملها را دنبال نمیکنند.
برای حذف کامل صفحات از نتایج گوگل به جای فایل robots.txt از تگ noindex استفاده کنید
با این فایل شما میتوانید محتواهایی که نمیخواهید توسط موتورهای جستجو بررسی و در نتایج جستجوها نشان داده نشود را مشخص کنید. Robots.txt یک فایل متنی است که مدیران وبسایت برای آموزش به رباتهای وب (معمولاً روباتهای موتورهای جستجو) ایجاد میکنند که چگونه صفحات را در وبسایت خود بخزند. ربات های خزنده گوگل یعنی Googlebot از دستورالعمل Crawl-delay پشتیبانی نمی کنند بنابراین اگر به فکر بهینه سازی موتور جستجوی گوگل هستید بهتر است که از این دستورالعمل استفاده نکنید.
پس از اینکه مسیر مورد نظر برای شما باز شد باید وارد پوشه Public_html شوید. وارد این مسیر شدید، روی گزینه Upload to this Directory کلیک کرده و فایل خود را برای آپلود انتخاب کنید. پیشنهاد ما همیشه اینست که اول کل دستورات را مرور کنید، چند مثالی از آنها را ببینید و سپس تصمیم بگیرید کدام بخش از سایت را از ایندکس خارج کرده و کدام را در ایندکس وارد کنید.
به عنوان مثال اگر شما نرخ تأخیر رباتها را روی ده ثانیه قرار دهید، موتورهای جستجو به صورت روزانه میتوانند فقط نزدیک به 8600 صفحه از سایت شما را بررسی و ایندکس کنند. اگرچه این مقدار برای سایتهای نه چندان بزرگ مقدار کمی نیست، اما برای سایتهایی که صفحات زیاد و محتوای متعددی دارند اقدام مناسبی نمیباشد. بنابراین قبل از استفاده از این مورد به این مسئله دقت کافی را داشته باشید. این فایل بهصورت اتوماتیک بر عملکرد سایت شما تأثیر میگذارد.
برای بهتر جا افتادن مفهوم و کاربرد فایل robots.txt اجازه دهید تا نگاهی به یک مثال بیندازیم. موتورهای جستجو مختلف دستورالعمل های موجود در این فایل را به شکل های مختلفی تفسیر می کنند. آژانس دیجیتال مارکتینگ و طراحی سایت eBgroup از دهه 90 بعنوان یکی از آژانسهای موفق در زمینه سئو، طراحی سایت، تولید محتوا و تبلیغات کلیکی در غرب تهران مشغول به فعالیت بوده است. پس از آپلود فایل robots.txt در ریشه سرور، بررسی کنید که آیا برای عموم قابل دسترسی است یا خیر و آیا گوگل میتواند آن را بررسی کند.