شما با اضافه کردن کلمه robots.txt به انتهای ادرس سایت خود میتوانید فایل robots.txt کنونی را ملاحظه بفرمایید. به عنوان مثال اگر دامنه شما Example.com است به ادرس example.com/robots.txt بروید و فایل robots.txt را مشاهده کنید. هر شخص و یا هر برنامه کامپیوتری فعال روی شبکه جهانی اینترنت دارای یک user-agent (یک نام اختصاص داده شده) است. برای کاربران واقعی user-agent شامل نوع مرورگر، و سیستم عامل است و حاوی اطلاعات شخصی نیست. این اطلاعات به وبسایتها کمک میکند اطلاعات سازگار با سیستم کاربر را نمایش دهند. تصویر زیر فایل robots.txt سایت یوتیوب به عنوان نمونه نمایش داده شدهاست.
وب سایت های بزرگ و پر بازدید، روزانه هزاران بار توسط ربات های مختلف مورد بررسی قرار می گیرند. این ربات ها در طی دو مرحله یعنی بررسی و ایندکس، سایت را بررسی می کنند. حال فرض کنید روزانه بیش از صدها ربات یک سایت را بررسی کنند؛ این اتفاق سبب کند شدن سرعت لود سایت خواهد شد.
با استفاده از این فایل شما در حقیقت به معرفی بخش های قابل دسترس و همچنین مشخص نمودن بخش هایی که نمی خواهید ربات های جستجوگر سطح وب یا همان Web Crawlers به آن ها دسترسی داسته باشند؛ می پردازید. در واقع این خزندگان سطح وب، با بررسی این فایل، اطلاعات سایت شما را به ثبت می رسانند. Txt بیشتر برای مدیریت فعالیتهای رباتهای خوب مانند خزندههای وب در نظر گرفته شدهاند، زیرا رباتهای بد احتمالاً دستورالعملها را دنبال نمیکنند. هدف این دستور تعیین محدودیت در میزان مصرف منابع سرور با تنظیم میزان تاخیر بین بازدیدهای مختلف رباتهای خزنده است. در مثال زیر ربات خزنده موظف است بین هر درخواست ۸ میلی ثانیه توقف کند. گوگل از این دستور پشتیبانی نمیکند و شما میتوانید فرکانس خزش را در گوگل سرچ کنسول تنظیم کنید.
- تمامی حقوق این سایت محفوظ و متعلق به شرکت طراحی سایت طرح و پردازش مبنا می باشد.
- چرا باید بگویم که این فایل وجود دارد و اتفاقات داخل آن را گفتم.
- این محصول در حقیقت پکیجی شامل ربات های متعدد، آموزشها و ابزارهای لازم برای ارتقاء سئو سایت شما میباشد.
فایل Robots.txt یک فایل متنی است که مدیران وبسایتها برای آموزش به رباتهای موتورهای جستجو ایجاد میکنند. این فایل حاوی لیست صفحات و محتواهایی است که موتورهای جستجو نیازی نیست آنها را بررسی کرده و دسته بندی کنند. نقشه سایت یا سایت مپ یک فایل با پسوند XML است که تمام محتواهای مهم روی یک سایت را فهرست میکند و نحوه ارتباط صفحات مختلف را نمایش میدهد. دستور sitemap که در ادامه این دستور آدرس نقشه سایت میآید یک روش برای نشان دادن نقشه سایت به موتور جستجو است.
برای اینکار کافیست در هدر صفحه مورد نظر به صورت زیر عمل کنید. همانطور که قبلاً هم گفته شد Robots.txt در پوشه اصلی سایت قرار میگیرد. این محلی پیشفرض است که رباتها و خزندهها آن را بررسی میکنند تا به دنبال این فایل باشند. درنتیجه اگر این فایل در آنجا نباشد برای رباتها به این معنی است که این سایت فایل Robots.txt ندارد. البته که ابزارهای زیادی برای این کار وجود دارد که مطمئن ترین راه استفاده از ابزار موجود در Google Search Console است. وارد اکانت سایتتان در وب مستر شوید و به نسخه قدیمی سوئیچ کنید.
۲. مشخص کردن صفحات و بخشهای غیرمجاز با Disallow
در حال حاضر بهترین راه برای حذف صفحهای از نتایج جستجو، اضافه کردن دستور noindex در قسمت head صفحهها است. اگر از وردپرس استفاده میکنید افزونههایی برای این کار وجود دارد و در غیر اینصورت باید از طراحی وبسایت خود بخواهید که امکاناتی برای افزودن این کدها یا دستورات در قسمت هد هر صفحه فراهم کند. پیکربندی صحیح فایل robots.txt یکی از اقدامات اساسی در بهینه سازی بودجه خزش و سئو سایت است. بررسی و ویرایش فایل ربات TXT سایت یک فاکتور رتبه بندی نیست و تنها کنترلکننده نحوه رفتار رباتهای خزنده است. به خاطر داشته باشید هر سایت نیازمند فایل robots.txt خاص خودش است. از کپی کردن محتویات فایل robots.txt سایر سایتها پرهیز کنید.
تا 70% تخفیف تمامی دورهها و آموزشها
همچنین با مراجعه به Google Search Console و تایید مالکیت سایت خود، میتوانید از صحیح بودن وضعیت robots.txt روی سایت خود مطمئن شوید. فرض پیشفرض این است که یک User-agent میتواند هر صفحه یا دایرکتوری را که توسط قانون غیرمجاز مسدود نشده است بخزد. هر گروه با یک خط User-agent شروع میشود که هدف گروه ها را مشخص میکند.
با robots.txt میتوانید خزندهها را از فایلهایی که نمیخواهید در جستجوها ظاهر شوند، دور کنید. به عنوان مثال، اگر میخواهید فایلها را از نمایش در جستجوهای Google Images مسدود کنید، میتوانید دستورالعملهای غیر مجاز را روی فایلهای تصویری خود قرار دهید. بعد از ایجاد و یا انجام اصلاحات در فایل ربات، باید از صحت تغییرات خود مطمئن شوید. بهترین روش برای اینکار استفاده از ابزار تست فایل robots.txt گوگل سرچ کنسول است. به کمک فایل robots.txt میتوانیم دقیقا مشخص کنیم که کدام یک از این رباتها به کدام بخشهای سایت اجازه دسترسی دارند و کدام یک باید دارای محدودیتهایی برای بررسی سایتمان باشند.
طراحی سایت به سبک مه ویژن
به این صورت که لیستی از کلمات کلیدی مورد نظرتان را به این ربات ارتقاء سئو میسپارید تا جایگاه (صفحه) سایت شما را در نتایج جستجوی گوگل (برای تک تک آن عبارات کلیدی) به شما گزارش دهد. و با انجام همه روزه این کار فرایند رشد یا افت سایت تان در عبارت کلیدی مختلف را جلوی چشم خواهید داشت. در مورد کلمات کلیدی کم رقابت، استفاده از ربات افزایش ورودی گوگل قطعاً سبب بالا آمدن سایت شما (ورود به صفحه اول و حتی آمدن به رتبه نخست) میشود اما در کلمات کلیدی پُر رقابت، قضیه آنقدرها آسان نیست. زیرا کسب رتبه در کلمات کلیدی پُر رقابت تنها به ورودی گرفتن از گوگل وابسته نیست و به عواملی نظیر اعتبار دامنه، اعتبار صفحه، بک لینکها و عوامل متعدد دیگر بستگی دارد. با این حال اگر سایت شما در یک کلمه کلیدی پر رقابت در صفحه سوم یا چهارم گوگل باشد استفاده از ربات شاید بتواند آنرا به صفحه دوم یا اول بیاورد اما نمیتواند آنرا به رتبه های نخست صفحۀ اول برساند. یک Robots.txt درواقع یک فایل متنی ساده است که در مسیر اصلی فضای سایت شما یا روت دایرکتوری قرار میگیرد.
هر چه در طول روز تعداد بیشتری محتوا در وبسایتتان قرار بگیرد و تغییرات سایت اهمیت زیادی داشته باشد، رباتهای جستجوگر دفعات بیشتری به سایت شما مراجعه میکنند. برای مثال، در وبسایتهای خبری که همیشه در حال انتشار خبر و بهروزرسانی اخبارشان هستند رباتها با سرعت بیشتری صفحات را بررسی و ایندکس میکنند. پروتکل نقشه سایت کمک میکند تا مطمئن شوید که ربات های عنکبوتی وب در هنگام خزیدن یک وب سایت چیزی را از دست نمیدهند، اما رباتها همچنان روند خزیدن معمول خود را دنبال میکنند.