Crawl Stats وجود دارد که دفعات بررسی صفحههای سایت به صورت روزانه را نمایش میدهد. در همین صفحه، حجم دانلود شده توسط رباتها و همینطور زمان بارگذاری صفحهها را میتوانید ببینید. فایل Robots.txt دسترسی خزندهها به بخشهای مختلف سایت شما را کنترل میکنند. درنتیجه اگر شما به صورت تصادفی Googlebot را از خزیدن در سایت خود منع کنید ممکن است برای سئو و رتبه بندی سایت شما خیلی خطرناک باشد. فایل txt برای مخفی کردن اطلاعات خصوصی مناسب نیست و فقط باید دستورالعملهای رباتها را در آن قرار داد.
این محتوا را ایندکس میکنند تا در اختیار کاربرانی که به دنبال اطلاعات هستند قرار بگیرد. فایل متنی ربات برای همه نوع سیستم مدیریت محتوا از جمله وردپرس یکی است که میتوانید مراحل بالا را طی کنید. اگر برنامهنویس هستید، کتابخانه منبع آزاد Google robots.
- من کدی که داخل این مطلب نوشتید (غیرفعال کردن Feed وردپرس از ۲ روش مختلف) رو داخل functions.php سایتم گذاشتم که فید سایت کلا غیرفعال بشه.
- باید با استفاده از کلمات کلیدی جانبی که رقابت توشون کمتره صفحات سایت رو اول بالا بکشید.
- البته من اطلاعی از روند انتقال سایت تون ندارم، در هر صورت واضحه که ریدایرکت 301 به خوبی اعمال نشده.
- از نظر گوگل هم اساسا یکی از فاکتورهای مهم سئو داشتن فایل ربات است.
البته ما تا اینجا تصور می کردیم که شما سیستم مدیریت محتوایی مثل جوملا، پرستاشاپ یا ASP دارید و از وردپرس استفاده نمی کنید. بسیاربرنامه کاربردی وخوبیه وبرای کارماکه نیازبه اطلاع رسانی به مشتریانمون داریم بسیارمناسب وعالیه وتیم پشتیبانی قوی وعالی که… پشتیبانی وسرعت پاسخگویی فوق العادست.ازتیم کاربرمجازی نهایت تشکررادارم.همینطورکلیه رباتهاکارایی خیلی خوبی دارندوباعث صرفه… حدود3 ماهه که ازکاربرمجازی استفاده میکنم.ازنحوه کارکردبدون عیب وایرادنرم افزارتاپشتیبانی عالی که همیشه انلاینندو… برنامه خیلی خوبیه نسبت بهsms کارخیلی راحت میشه.بیشترمردم درشبکه های اجتماعی هستن وهمچین نرم افزاری واقعانبود..
اطلاعات بیشتر در مورد robots.txt
این کار سبب میشود تا موتورهای جستجو امکان دریافت تصاویر، فایلهای چندرسانهای، فایلهای CSS و جاوااسکریپت سایت را نداشته باشند. با پیشرفتهایی که گوگل به تازگی داشته است، عدم دسترسی به محتواهای جانبی سبب میشود، تا سایت از نظر موتور جستجو ناقص و با کارایی ناقص مشاهده شود. این کد به رباتهای جستجو دستور میدهد تا کلیه تصاویر و فایلهای وردپرس را فهرستبندی کنند. همچنین با افزودن نقشه سایت به فایل robots.txt جستجوی کلیه صفحات سایت خود را برای رباتهای گوگل آسانتر میکند.
مدیریت ترافیک ورود ربات ها به وب سایت
فایل متنی ربات به مدیریت فعالیتهای این خزندگان وب کمک میکند تا از این طریق از سرور وب ، یا صفحات فهرستبندی نشده برای بازدید عموم، کار کند. در سال های گذشته برای مسدود سازی دسترسی ربات ها به پنل مدیریت سایت وردپرس، باید از طریق پنل مدیریتی وردپرس، اقدام می کردیم. اما در سال 2012 با بروزرسانی وردپرس، دیگر این کار ضرورتی نداشت؛ چرا که وردپرس به صورت پیشفرض قابلیتی را به تگ هدر فایل اضافه کرده که تگ noindex و مسدود سازی یا disallow در آن گنجانده شده است. در نتیجه صفحه پنل مدیریت سایت وردپرس بدون هیچ اقدام خاصی از لیست ایندکس موتورهای جستجو خارج شده است. توصیه می کنیم از فرمتی که معرفی شده برای بهینه سازی فایل Robot.txt استفاده کنید. از طرف دیگر توجه داشته باشید که این فایل یکی از مهم ترین نقاط اتصال شما با موتورهای جستجو است.
همچنین از Googlebot-Image برای جستجوی تصاویر وب سایت ها بهره می برد. اغلب user agent ها از یک موتور جستجو، از همان دستورالعمل کلی برای یکی از user agent ها استفاده کرده و نیازی به تعریف دستورات متنوع برای هر یک نیست. اما در صورتی که نیاز به تعاریف دستورات متفاوت برای user agent های مختلف دارید، میتوانید با فراغ بال آنها را در فایل robots.txt تعریف کنید. اگر شما اعتقاد دارید در بودجه خزش سایت شما اشکالاتی وجود دارد پس بلاک کردن موتورهای جستجو از بررسی قسمتهای کم اهمیت سایت، از هدر رفت بودجه خزش جلوگیری میکند. با بهینه سازی فایل ربات موتورهای جستجو از جمله گوگل میتوانند از بررسی صفحات کم اهمیت صرف نظر کرده و به بررسی صفحات مهمتر سایت بپردازند.
مخصوصا اینکه بقیه مقالات اصلا توضیح نداده بودن که چطوری میشه به این فایل دسترسی داشت و کجای هاست هستش. مثل همیشه منتظر نظرات مثبت و سوالات احتمالی شما هستیم. بعد از این که فایل را ساختید آن را باید در سرور میزبان سایت آپلود کنید.
هنگامی که فایل robots.txt خود را دارید، وقت آن است که آن را زنده کنید. این قانون به Googlebot میگوید که پوشه تصویر وبسایت شما را ایندکس نکند. به عنوان یک فایل متنی، در واقع می توانید با استفاده از دفترچه یادداشت ویندوز یک فایل ایجاد کنید. در برخی شرایط، مشکلاتی برای یکی از صفحات شما پیش می آید که باید آن را برطرف کنید؛ قبل از برطرف کردن حتما باید دستور Disallow را در فایل Robot.txt اجرا کنید.