6- با بازخوانی صفحه در مرورگر خود برای بهروزرسانی ویرایشگر ابزار و مشاهده آنلاین کد فایل robots.txt، بررسی کنید که آخرین نسخه شما با موفقیت خزیده شده است. این یک لیست قابل خواندن ماشینی از تمام صفحات یک وبسایت است. از طریق پروتکل Sitemaps، پیوندهای این نقشههای سایت را میتوان در فایل robots.txt قرار داد. استفاده از این نحو در فایل robots.txt به همه خزندههای وب میگوید که هیچ صفحهای را در از جمله صفحه اصلی، نخزند. در یک فایل robots.txt با چندین دستورالعمل کاربر، هر قانون غیرمجاز یا مجاز فقط برای عاملهای کاربر مشخص شده در آن مجموعه جدا شده از خط خاص اعمال میشود. اگر فایل robots.txt حاوی هیچ دستورالعملی نباشد، به صورت پیشفرض برای خزندهها اجازه برخی کنجکاوی در وبسایت را ارائه میدهد.
- تنها با مطالعه بخش بلاگمهدی عراقیمیتوانید سطح سواد دانش خود را اگر که تازه کار هستید به طرز چشمگیری افزایش دهید.
- نکته بسیار مهمی که باید به آن دقت کنید، این است که فایل robots.txt به حروف بزرگ و کوچک حساس است.
- جمع آوری این اطلاعات به طور روزانه، سرعت وب سایت و عملکرد بهینه آن را تحت تاثیر قرار داده و همین موضوع نیز به طور مستقیم بر سئو سایت و رتبه آن در صفحه نتایج جستجو تاثیر خواهد داشت.
- بازم ممنون بابت صبر و حوصلتون و اینکه سرتونو بدرد آوردم امیدوارم جوابی بمن بدید که مشکلات سایتمو حل کنه و راه حلاتون عملی باشه عین مقاله هاتون .
- برای اطمینان هم میتوانید دوباره از همین ابزار برای مطمئن شدن استفاده کنید.
پس از مشخص کردن ربات هدف باید دستورات لازم را به آنها بدهید. در این دستورات به ربات ها می گویید که کدام یک از صفحات شما اجازه ایندکس شدن دارند یا ندارند. برای اجازه دادن به خزش توسط ربات مورد نظر از دستور Allow و برای جلوگیری از خزش از دستور Disallow استفاده می شود. برای ویرایش robots.txt در وردپرس بایستی یک فایل متنی با همین نام را در مسیر روت آن آپلود نمایید. با انجام این کار دیگر فایل robots.txt مجازی وردپرس مشاهده نخواهد شد. مسیر نقشه های سایت را می توانید در انتهای دستورات فایل robots.txt به مانند تصویر زیر قرار دهید.
شما میتوانید آپدیتهای ربات افزایش ورودی گوگل ما را در سال اول پس از خرید به صورت کاملاً رایگان از پنل خود دریافت کنید اما برای دریافت آپدیت و پشتیبانی در سالهای بعدی نیاز به تمدید سالانه محصول دارید. تمدید سالانه ارزان است و فقط با پرداخت 20% قیمت (به روز) پکیج انجام خواهد شد. دریافت مبلغ برای تمدید آپدیت های سالانه، تضمینی است بر اینکه ربات افزایش ورودی گوگل دائماً مورد رسیدگی ما قرار میگیرد، آپدیت میشود و هرگز از کار نمیافتد. همونطور که در ابتدای صفحه گفتیمنرم افزار ما با استفاده از ماوس و کیبورد واقعی بجای استفاده از دستورات برنامه نویسی جست وجو و کلیک روی سایت شمارو توی گوگل انجام میدهد. در روش اول میبایست فایل HTML را دانلود کرده و در پوشه Public_html هاست خود آپلود کنید. پس از وارد شدن به ابزار سرچ کنسول صفحه اصلی آن مانند تصویر زیر نمایان خواهد شد.
۱ـ مشخص کردن ربات با User-agent
اگر صفحه ای نزدیک به موضوع اون صفحات پاک شده پیدا کردی بیا صفحات پاک شده رو ریدایرکت بکن به صفحات موجود. همون طور که قبلا اشاره کردم میتونه تشخیص اشتباه گوگل باشه که از این تشخیص های اشتباه زیاد داره. و همینطور نباید فکر کنید رفتار بر روی هر سایت یکسان هست. به همه مریض هایی که یک نوع بیماری رو دارن دکتر یک نوع دعوا رو تجویز نمیکنه.
چگونه یک فایل robots.txt بسازیم؟
همچنین در این مقاله ۸ مثال کاربردی درباره فایل روبوت (ربات) گفته شده است. به طور کلی شما می توانید به دو روش نقشه سایتتان را به گوگل معرفی کنید؛ برای این کار می توانید از سرچ کنسول یا فایل robots.txt استفاده کنید. اما پیش از آن بهتر است با مطالعه مطلب “ساخت سایت مپ ” نقشه سایتتان را بسازید. پس از آن بهتر است از طریق سرچ کنسول نقشه سایتتان را به گوگل معرفی کنید؛ برای این کار باید سایتتان را در سرچ کنسول ثبت کرده باشید.
محدودیتهای دستورات Robots.txt
در واقع زبانی است که با ربات های خزنده ی سرچ انجین ها در مورد سایتتان گفت و گو می کنید. پس با دقیق ترین تعاریف به استقبال ربات های خزنده بروید. اگر شما قصد محدود کردن ربات های گوگل را دارید از فایل ربوتس دات تی ایکس تی استفاده کنید، ولی اگر صفحات وب سایتتان توانایی ایندکس به واسطه ی ربات های جستجو مثل گوگل را داشته باشد احتیاجی به این فایل نخواهد بود. برای خلق و ایجاد فایل robots.txt شما باید به هاست دسترسی داشته باشید و فایل ربوتس دات تی ایکس تی را در ریشه اصلی کپی و نگه داری کنید.