در صورتی که مشکل صفحه را حل نکنید و دستور دیس الو را هم اجرا نکنید، صفحه مورد نظر در گوگل ایندکس می شود و ممکن است به سئو سایت شما ضربه بزند. یکی از ابزارهای مختلف که به شما در بررسی صحت فایل robots.txt کمک میکند استفاده از ابزار تست robots.txt گوگل است. در مثال بالا همه رباتهای خزنده از دسترسی به تمامی آدرسهایی که دارای کاراکتر ؟ هستند منع شدهاند. معمولا موتورهای جستجو محتویات فایل robotx.txt را ذخیره میکنند تا به دانلود مجدد آن نیاز نداشته باشند، با این حال روزانه چندبار نسخه جدید فایل را بارگذاری میکنند. پس انعکاس تغییرات اعمال شده در فایل Robots.txt زمان زیادی نخواهد برد و سریعا اعمال میشود.
- همانطور که گفتیم مهمترین رباتها در اینترنت رباتهای موتور جستجوی گوگل هستند پس ما در ادامه مقاله هرجا میگوییم ربات منظورمان رباتهای گوگل است.
- فایل متنی ربات باید در ریشههایت وب سایتی که برای آن اعمال میشود قرار داشته باشد.
- طراحی سایت شما باید به گونهای باشد که کاربر هنگام ورود به آن احساس راحتی داشته باشد و بتواند به سادگی به تمام بخشهای سایت دسترسی داشته باشد.
علاوه بر این، این ابزار امکانات دیگری را نیز در اختیار شما قرار می دهد؛ مثلا می توانید از طریق بخش URL Tester، آدرس صفحات مختلف سایت را بررسی کنید تا متوجه شوید که برای ربات ها مسدود شده اند یا خیر. ربات های خزنده موتورهای جستجو برای هر سایت سهمی در نظر می گیرند. به این معنی که تعداد مشخصی صفحه را در یک نشست معین بررسی می کنند. اگر پس از پایان نشست هنوز تعداد صفحه باقی مانده بود، دوباره در نشستی دیگر این کار را به پایان می رسانند. بله برای اینکه صفحه سایت شما بتواند توسط گوگل، بینگ و… ایندکس شود شما به فایل Robots.txt نیاز دارید. برای جلوگیری از دسترسی رباتها چند راه مختلف وجود داره که در انتهای مقاله توضیح دادیم.
دیدگاه دربارهٔ «فایل Robots.txt چیست؟ اهمیت و آموزش ساخت فایل ربات سایت»
من کدی که داخل این مطلب نوشتید (غیرفعال کردن Feed وردپرس از ۲ روش مختلف) رو داخل functions.php سایتم گذاشتم که فید سایت کلا غیرفعال بشه. تمامی حقوق مادی و معنوی این وبسایت متعلق به نوین می باشد و هر گونه کپی برداری پیگرد قانونی دارد. بازم ممنون بابت صبر و حوصلتون و اینکه سرتونو بدرد آوردم امیدوارم جوابی بمن بدید که مشکلات سایتمو حل کنه و راه حلاتون عملی باشه عین مقاله هاتون .
دستور User-agent
اما اگر قصد این را دارید که اطلاعات خود را فقط برای یک ربات خاص تعیین کنید باید نام دقیق آن ربات را به جای ستاره جایگذاری کنید. این دستور برای مشخص کردن رباتها و خرندگانی است که امکان دسترسی به بخشهای سایت را داشته باشند یا خیر. با این دستورالعمل میتوان به تمام رباتها دسترسی داد و یا با اضافه کردن نام رباتی خاص، فقط به آن ربات دسترسیهای مختلف را داد یا محدود کرد.
از نظر گوگل هم اساسا یکی از فاکتورهای مهم سئو داشتن فایل ربات است. در نهایت کار روی سرچ و کلمات کلیدی رو با توجه به نکاتی که گفتیم همه روزه برای صفحات مختلف سایتتون تکرار بکنید خودتون بعد از مدت کوتاهی پیشرفت سئو رو از طریق بازخورد بازدیدکنندگاتون رو به صورت ملموس میبینید. اگر گوگل عمل رباتیک را جریمه کند خیلی از افراد میتوانند بر روی سایت رقیب خود حرکات رباتیک پیادهسازی کنند و آنها را به زیر بکشانند! چنین چیزی باعث میشود گوگل نتواند جریمهای برای اعمال رباتیک در نظر بگیرد. در نهایت کار روی سرچ و کلمات کلیدی رو با توجه به نکاتی که گفتیم همه روزه برای صفحات مختلف سایتتون تکرار بکنید. خودتون بعد از مدت کوتاهی پیشرفتتون رو از طریق بازخورد بازدیدکنندگاتون رو به صورت ملموس میبینید.
و میتوانید از طریق آن، رشد جایگاه سایت تان را در کلمات کلیدی مختلف ارزیابی نمایید. دستور زیر برعکس دستور بالا میگویید همه رباتهای موتورهای جستجو به کلیه آدرسهای سایت دسترسی دارند. به عنوان مثال فرض کنید شما به مناسبت های مختلف، جشنواره ای را در سایت خود برگزار می کنید و برای این جشنواره ها صفحاتی را ایجاد می کنید. ضرورتی ندارد که ربات های خزنده این صفحات را ایندکس کنند؛ چرا که پس از مدتی غیر فعال شده و از طرفی بار محتوایی زیادی نیز ندارند. به همین دلیل در فایل robots.txt، ذکر میکنیم که این صفحات ایندکس نشوند. برای ساخت فایل robots.txt در وردپرس ابتدا وارد هاست سایتتان بشوید؛ سپس از آنجا روی گزینه File Manager کلیک کنید تا بتوانید فایل ها مختلف موجود در سایتتان را مشاهده کنید.
درنتیجه اگر این فایل در آنجا نباشد برای رباتها به این معنی است که این سایت فایل Robots.txt ندارد. حتی اگر صفحه robots.txt مثلاً در webjavan.com/index/robots.txt یا /homepage/robots.txt وجود داشته باشد، توسط عوامل کاربر کشف نمیشود و در نتیجه سایت تحت درمان قرار میگیرد. اگر یک عامل کاربر از /robots.txt بازدید کند و فایل رباتی را در آنجا پیدا نکند، فرض میکند که سایت فایلی ندارد و به خزیدن همه چیز در صفحه (و شاید حتی در کل سایت) ادامه میدهد.