در این میان رویداد ویژه الکام پیچ برگزار شد که استارتاپها با حضور بر روی استیج خدمات و تکنولوژیهای استارتاپ خود را در معرض داوری قرار میدادند. که مبحث جداگانه ای داره و قصد نداریم این موضوعات رو اینجا بررسی کنیم فقط می خوام بگم که به این جنبه ها هم باید خودتون توجه داشته باشید. آموزش اتصال به فضای ابری پارس پک ازطریق s3cmd3 آذر 1401یکی از راههای اتصال به فضای ذخیرهسازی ابری پارس پک، استفاده از نرمافزار S3cmd است. در غیر اینصورت احتمالا متا تگ نوایندکس گزینه بهتری برای شما باشد.
استفاده از این ابزار دقیقا مشابه کنسول جستجوی گوگل می باشد. در حقیقت مشکل اصلی شما این است که وب سایت شما در یک هاست ضعیف اجرا می شود و به شکل نادرستی تنظیم شده است. در صورتی که شما در این فایل ها از دستورالعمل های سردرگم کننده ای استفاده کنید گوگل به صورت کاملا امن بخش های مد نظر خود را محدود می کند.
- وارد اکانت سایتتان در وب مستر شوید و به نسخه قدیمی سوئیچ کنید.
- گوگل فقط به دستور شما صفحاتی مشخص را مورد دسترسی قرار می دهد.
- دلیل اول این است که شما نمی خواهید درباره تنظیماتی که برای خزیدن ربات های موتورهای جستجو در وب سایت خود اعمال کرده اید ابهامی وجود داشته باشد.
- فایل های robots.txt به منزله دستورالعمل پایشگرها برای پایش وب سایت است.
- ما برای شما هموطنعزیز❤️ راهنمای فارسی محصولات را ارسال میکنیم و امکان خرید ریالی با تخفیف ویژه را برایتان فراهم مینماییم.
این فایل به موتورهای جستجو می گوید که چگونه می توانند به بهترین شکل ممکن وب سایت شما را جستجو کنند. تا جای امکان سعی کنید از استفاده از دستورالعمل crawl-delay در این فایل برای موتورهای جستجو خودداری کنید. در مورد فایل robots.txt چه می دانید و چه اطلاعاتی دارید؟ آیا از موارد و کاربردهای فایل robotx.txt آگاهی دارید؟ در ادامه قصد معرفی فایل robots.txt، دستورات، عملکرد آن را داریم، پس همراهمان باشید.
اغلب user agent ها از یک موتور جستجو، از همان دستورالعمل کلی برای یکی از user agent ها استفاده کرده و نیازی به تعریف دستورات متنوع برای هر یک نیست. اما در صورتی که نیاز به تعاریف دستورات متفاوت برای user agent های مختلف دارید، میتوانید با فراغ بال آنها را در فایل robots.txt تعریف کنید. پس از فعال سازی، افزونه وردپرس نام برده سایت را بررسی کرده و خودکار مواردی که لازم است از دسترس موتورهای جستجو خارج شوند را Disallow می کند. همچنین اگر نقشه سایت خود را ساخته باشید، خودکار در فایل ربات سایت اضافه می شود. نمودار های زیر روند رشد رتبه کلمات کلیدی یا صفحات سایت را در زمان استفاده از ربات افزایش ورودی گوگل نشان میدهند.
فایل Robots.txt چیست و چه کاربردی دارد؟
اگر مطمئن نیستید که Robots.txt را دارید یا نه میتوانید به سادگی در انتهای آدرس سایت خود یک Robots.txt را تایپ کنید تا مشخص شود که سایت شما دارای این فایل است یا خیر. فقط کافی است در انتهای آدرس یک سایت کلمه Robots.txt را قرار دهید تا این فایل را برای شما نشان دهد. برخی از بدافزارها مانند رباتهای مخرب txt را نادیده میگیرند. این بدافزار به شدت به دنبال ایمیلهای سایت شما هستند تا ارسال تعدادی زیادی هرزنامه و اسپم را آغاز کنند. تمامی حقوق برای وب سایت ” وب جوان ” محفوظ میباشد و هرگونه کپی برداری با ذکر منبع بلامانع است.
چه دستوراتی در فایل ربات robots.txt قرار دهم؟
فایل ربات میتواند به امنیت سایت و افزایش ترافیک هم کمک کند. قطعا داشتن فایل ربات کمک می کند بتوان استراتژی سئوی سایت را کنترل کرد، میتوان نقشه سایت را برای گوگل و بینگ مشخص کرد، قسمت های نامناسب سایت را از ایندکس گوگل خارج کرد و آدرس های ویژه را در آن قرار داد. برای مشاهده و ویرایش فایل ربات در وردپرس یا هر سایت دیگری به فایل منیجر در پنل هاست مراجعه کنید و درون فولدر public_html بدنبال فایل robots.txt بگردید. خوب است بدانید که بصورت پیش فرض این فایل وجود ندارد و برای ویرایش محتوای آن باید یک فایل متنی بصورت robots.txt ایجاد کنید و دستورات لازم را در آن قرار دهید. فایل Robots.txt به شما کمک نمیکند تا یک URL را از ایندکس موتورهای جستجو حذف کنید و همچنین از موتورهای جستجو در برابر اضافه کردن یک URL جلوگیری نمیکند. پس فایل ربات صرفا برای جلوگیری از کراول نیست و موتورهای جستجو در هر صورت صفحات شما را ایندکس و کراول میکنند اما با فایل ربات به آنها اطلاع میدهید که این صفحات را در نتایج جستجو نمایش ندهد.
تمام کاری که باید انجام دهید این است که یک آدرس معمولی در مرورگر خود وارد کنید (برای مثال novin.com یا هر سایت دیگری). خب، بیایید به موضوع اصلی خودمان یعنی فایل robots.txt برگردیم. صاحبان وبسایت و وبمسترها میتوانند ورود رباتها به وبسایت را از راههای مختلفی کنترل کنند. مثل تصویر زیر که در آن اجازه دسترسی به پوشهای به نام photos و اجازه دسترسی به صفحهای به نام files.html را ندادیم.
اما اگر مسیرها و دایرکتوریها را دیسآلو کنید این رباتها صرفا میتوانند صفحهی دایرکتوری را ببینند و امکان دیدن سایر صفحات و وبپیجها وجود ندارد. توجه داشته باشید که حتما از یک صفحهی 404 یا صفحات مشابه برای دایرکتوریهایی که قرار نیست ایندکس شوند اما وجود دارند استفاده کنید. می توانید در این فایل، خط های مختلفی به صورت دستورالعمل، تعریف کنید. در اینجا مثالی از فایل robots.txt وردپرس برای شما نمایش داده ایم. در این محتوا به شما گفتیم که فایل Robots.txt چیست و چه کاربردی دارد؟ همانطور که گفتیم به کمک فایل Robots.txt میتوانید ربات های خزنده گوگل را تا حدی کنترل کرده و از ایندکس شدن و بررسی صفحات بی ارزش نیز جلوگیری کنید.
Robots.txt در حقیقت جزو مهارتهای اولیهای است که متخصصین سئو آن را یاد میگیرند و یکی از صدها بخش سئو سایت میباشد. اما متاسفانه در بسیاری از موارد نتایجی که از آن گرفته میشود یا منفی و مخرب است و یا عملا هیچ تاثیری در سئو ندارد. تمامی حقوق مادی و معنوی این وب سایت متعلق به پونه مدیا می باشد. اگر برنامه های FTP را نمی شناسید یا راجع به کار اف تی پی اطلاعات دقیقی ندارید، پیشنهاد می کنم مطالعه این مقاله را از دست ندهید. خصوصی نگه داشتن بخشهایی از یک وبسایت که نمیخواهید گوگل آن را ببیند یا ایندکس کند.
بعد بررسی متوجه شدم همه ایندکس های حذف شده مربوط به tag ها بودن . من کدی که داخل این مطلب نوشتید (غیرفعال کردن Feed وردپرس از ۲ روش مختلف) رو داخل functions.php سایتم گذاشتم که فید سایت کلا غیرفعال بشه. تمامی حقوق مادی و معنوی این وبسایت متعلق به نوین می باشد و هر گونه کپی برداری پیگرد قانونی دارد.