اگر صفحات وبسایت خود را در فایل Robots.txt نوایندکس کنید، گوگل باز هم آن را در نتایج جستجو نمایش میدهد. گوگل به کمک انکرتکست هر لینک و سایر فاکتورها رتبهای به این صفحه در جستجوهای مرتبط میدهد. معمولاً این نوع صفحات در نتایج جستجو بدون توضیحات متا ظاهر میشود چون گوگل محتوای صفحه و توضیحات متا را ذخیره نکرده است. یک فایل robots.txt حاوی دستورالعملهایی برای رباتها است که به آنها میگوید به کدام صفحات وب میتوانند دسترسی داشته باشند و به کدام صفحات نباید بروند. فایلهای robots.txt برای خزندههای وب موتورهای جستجو مانند Google مرتبط هستند. گوگل برای وبمسترها و صاحبان وبسایتها چند راه برای دسترسی به نقشه سایت گذاشته است.
- نادرست تنظیم شده باشد، می تواند باعث اشتباه در ایندکس شدن صفحات سایت شود.
- چرا که تمام بخش های سایت و هاست، تحت تاثیر هزارن ربات قرار گرفته است.
- را فعال کنید تا دسترسی تمامی رباتها به سایت شما مسدود شود.
- این فایل درست مثل هر فایل متنی معمولی است و شما میتوانید آن را با یک ویرایشگر متن ساده مانند Notepad باز کنید.
- در همین صفحه، حجم دانلود شده توسط رباتها و همینطور زمان بارگذاری صفحهها را میتوانید ببینید.
پس مدیریت و بهینه سازی فایل robots.txt می تواند سرعت خزش و ایندکس صفحات سایت شما را افزایش دهد. با مسدود کردن خزش ربات های گوگل در صفحات و مسیرهای غیر ضروری مانند پلاگین ها ، تم ها ، مدیریت وردپرس می توانید این مشکل را برطرف کنید. اینکار به موتورهای جستجو کمک می کند تا در هر جلسه صفحات بیشتری از سایت شما را جستجو و خزش کنند و با سرعت بیشتر بتوانند صفحات ضروری را ایندکس کنند. اگر در فایل Robots دستور دهید که رباتهای گوگل اجازه دسترسی به صفحاتی را ندارند، این صفحات کلاً بررسی نمیشوند اما هیچ تضمینی وجود ندراد که این صفحه در نتایج جستجوی گوگل ظاهر نشود. امکان دارد رباتها از طریق لینکهایی که به همان صفحه داده شدهاند و کمک گرفتن از همان انکر تکست لینک، صفحه را ایندکس کنند.
آموزش ساخت فایل robots.txt سایت
وقتی این درخواستها از حد توان سرور سایت ما خارج شوند اتفاق از دسترس خارج شدن سایت رخ میدهد. اما این چیزی نیست که ما دنبال آن باشیم، بنابراین باید بتوانیم به کمک فایل robots قوانینی را مشخص کنیم که باب میل ما هستند. و با یک ویرایشگر متن ساده مثل Notepad یا TextEdit آن را ویرایش کنید.
Crawl Budget در حقیقت تعداد صفحاتی از وب سایتتان است که ربات گوگل در یک روز آنها را خزیده و بررسی میکند. بودجه شما، یا همان تعداد صفحاتی که توسط Googlebot مشاهده می شوند، بر اساس حجم وبسایت شما (تعداد صفحات)، سلامت آن (عدم بروز خطا) و تعداد بکلینکهای سایتتان تعیین میشود. مثلاً مهمترین ربات گوگل یا همان Googlebot کارش پیدا کردن صفحههای جدید در اینترنت و دریافت آن برای بررسیهای بیشتر توسط الگوریتمهای رتبهبندی کننده است. پس رباتها نه تنها ضرری برای سایت شما ندارند، بلکه باید خیلی هم از آنها استقبال کرد. پروتکل دیگری که برای فایلهای robots.txt استفاده میشود، پروتکل Sitemaps است. نقشههای سایت به خزنده وب نشان میدهند که در کدام صفحات میتوانند بخزند.
HEO چیست؛ 10 نکتهای که درباره بهینهسازی سایت برای کاربر باید بدانید
معمولا موتورهای جستجو محتویات فایل robotx.txt را ذخیره میکنند تا به دانلود مجدد آن نیاز نداشته باشند، با این حال روزانه چندبار نسخه جدید فایل را بارگذاری میکنند. پس انعکاس تغییرات اعمال شده در فایل Robots.txt زمان زیادی نخواهد برد و سریعا اعمال میشود. حال که دانستید یک فایل ایده آل و بهینه شده فایل robots.txt به چه شکل است، بیایید نگاهی به نحوه ایجاد یک این فایل در وردپرس بیندازیم.
این صفحات برای وب سایت شما ضروری هستند ولی نمی خواهید در گوگل فهرست بندی شوند. معمولا یکبار قوانین و محدودیتهای فایل robot مشخص میشود و تا زمانی که محدودیتهای این فایل مشکل ساز نشدهاند نیازی به اصلاح و تغییر فایل robots.txt نیست. در این قسمت شما میتوانید به صورت زنده تغییرات مورد نظرتان را در محتویات فایل robots.txt انجام دهید و سپس از طریق بخش پایینی بررسی کنید که آیا تغییرات انجام شده دقیقا همان چیزی هستند که به دنبال آن هستید یا خیر. برای گذاشتن کامنت و یادداشت در داخل فایل ربات میتوانیم از علامت # استفاده کنیم، به این ترتیب جلوی هشتگ هرچیزی که بنویسیم توسط رباتها و خزندهها نادیده گرفته میشود.
فایل Robots.txt، در واقع یک فایل متنی ساده است که در مسیر اصلی سایت یا روت دایرکتوری قرار می گیرد. همانطور که میدانید در یک سایت صفحات بی شماری وجود دارد که لزوما همه این صفحات برای ما ارزشمند نیستند. ربات های گوگل نیز بطور پیشرفض وظیفه دارند تمامی صفحات سایت را بررسی کنند. زمانی که محدودیتی برای خزش و کراول صفحات توسط ربات های گوگل تعریف نکنیم، قطعا در ایندکس سایت و بررسی صفحات مهم سایت توسط ربات های گوگل با مشکل مواجه می شویم.
اگر این کارها را با موفقیت انجام دهید، ساعت و تاریخ آخرین بررسی فایل ربات به زمانی بعد از درخواست تغییر میکند. برای اطمینان هم میتوانید دوباره از همین ابزار برای مطمئن شدن استفاده کنید. بعد از انتخاب وبسایت به صفحهای هدایت میشوید که آخرین محتوای فایل Robots.txt که گوگل دریافت و بررسی کرده را نمایش میدهد.
درواقع در گزارش سئو شما میتوانید از روند فعالیتهای انجامگرفته و بازخوردهای آن اطلاعاتی به دست بیاورید و البته مهمترین کارها در بهینه سازی سایت است. اگر بعد از وارد کردن این آدرس در مرورگر با یک صفحه 404 روبرو شدید، باید خودتان اقدام به ساخت robots سایت کنید. همینطور اگر صفحه ای خالی را مشاهده کردید، نیاز دارید فایل robots سایت را در هاست خودتان پیدا کرده و آن را ویرایش کنید. خب، تا اینجا متوجه شدیم که فایل robots.txt چیست، چه کاربردی دارد و چه زمانی باید از آن استفاده کنیم. در ادامه اول از همه یاد میگیریم که چطور وجود داشتن و نداشتن این فایل در سایت را بررسی کنیم.
از آنجاییکه ممکن است توضیح این موارد (در قالب نوشتار) کمی طولانی باشد، نکات لازم را در قالب یک فایل صوتی (وُیس) برای شما تهیه کرده ایم… همانطور که از مستندات گوگل پیداست تمام کلیک هایی که روی نتایج گوگل انجام میشوند به عنوان رفتار یا واکنش کاربران تلقی شده و تاثیر مستقیم بر رتبه بندی سایتها خواهد داشت. اگر میخواهید نقشه سایت خود را به موتورهای جستجو نشان دهید، پس باید از این فایل استفاده کنید. ما به شدت توصیه میکنیم اگر فایل robots.txt را در سایت خود ندارید، بلافاصله آن را ایجاد کنید. فایل robots.txt سایت شما نقش مهمی در عملکرد کلی سئو شما دارد. این فایل شما را قادر میسازد تا با موتورهای جستجو ارتباط برقرار کنید و به آن ها نشان دهید که چه بخشی از سایت شما را باید ایندکس کنند و چه بخشهایی را نباید ایندکس کنند.