آشنایی با صفحات Blocked by robots و نحوه رفع آن‌ها


صفحات بلاک شده یا Blocked by robots نشان‌دهنده صفحاتی ضعیف هستند که توسط ربات گوگل خزش نشده‌اند. در واقع دلیل اصلی عدم خزش همین مسدود‌شدن صفحات است که می‌تواند به دلایل مختلفی اتفاق افتد. اگر صفحات وب‌سایت شما چنین اخطاری را نشان دهند، خبر بدی خواهد بود. این اخطار نشان‌دهنده این است که وب‌سایت شما در نتایج گوگل نشان داده نخواهد شد. مشکل این صفحات ایندکس شده اگرچه توسط ربات مسدود شده‌اند اما قابل حل هستند. می‌توانید URL های آسیب دیده خود را در نتایج جستجو مشاهده کنید حتی اگر با دستورالعمل‌های سخت‌تر مسدود شده‌‌اند. شایان ذکر است که مسئله بلاک صفحات ارتباط مستقیمی با ایندکس آن‌ها دارد. از آنجا که رفع این مشکلات در قلب ایجاد یک استراتژی خزش و نمایه‌سازی است بیایید تا کمی بیشتر در این خصوص بحث کنیم.

فهرست مطالب

خطای Blocked by robots چیست؟

در زمان طراحی سایت باید فایل Robots.txt را در مسیر درست آن قرار داد تا کار به‌راحتی جلو رود. قطعا دیدن چنین خطایی برای کاربر هم کلافه‌کننده است و صاحب کسب‌و‌کار دیجیتال را با سختی‌های زیادی مواجه می‌کند. این خطا مستقیما با ایندکس‌بودن یا نبودن سایت مورد نظر در ارتباط است؛ بنابراین اهمیت زیادی دارد. ممکن است تمام استراتژی‌های لازم را به‌کار گرفته باشید، اما باز هم با چنین خطایی مواجه شوید. وقتی با این خطا مواجه می‌‌شوید به این معنی است که فایل Robots.txt در وب‌سایت از خزش آن جلوگیری می‌کند. به‌طور کلی وقتی ایجاد می‌شود که فایل مورد نظر از پیکربندی خوبی برخوردار نیست. اما رابطه ایندکس‌کردن و بلاک صفحات بسیار مهم است که در ادامه به‌صورت مختصر به آن‌ها پرداخته‌ایم.  

blocked by robots.txt

چطور می‌توان خطای Blocked by robots را تشخیص داد؟

 نکته مهمی که در این باره وجود دارد این است که به‌راحتی می‌توان خطای مورد نظر را یافت. تنها کافیست به سرچ کنسول گوگل سر بزنید و با سرچ خطا آن را در این بخش پیدا کنید. البته راهکار دیگری هم وجود دارد تا در فرصتی کوتاه‌تر به هدف خود برسید. در واقع می‌توان از وضعیت فهرست در Rank Math Analytics استفاده و خطا را در این بخش یافت.

ایندکس‌کردن چه ربطی به بلاک صفحات دارد؟

درحالی که رابطه بین robots.txt و فرآیند نمایه‌سازی ممکن است گیج‌کننده باشد، درک مفاهیم عمیق به یادگیری آن کمک می‌کند. در اینجا به برخی از مهم‌ترین این مفاهیم اشاره شده است:

کشف، خزیدن و نمایه‌سازی چطور کار می‌کند؟

قبل از اینکه یک صفحه ایندکس شود، خزنده‌های موتور جستجو باید سایت و صفحه را کشف و به خزش آن کمک کنند. در مرحله کشف خزنده متوجه می‌شود که یک URL مشخص وجود دارد و باید روی آن کار کند. در حین خزش بات گوگل از آن URL دیدن می‌کند و اطلاعات آن را به‌دست می‌آورد. تنها کمی پس از آن URL به فهرست جستجو می‌رود و در میان سایر نتایج دیده می‌شود. البته این نکته را باید ذکر کرد که روند مذکور همیشه تا این حد کامل و بی‌نقص نیست و با مشکلات متعددی مواجه می‌شود.

پارامتر txt.Robots چیست؟

پارامتر یا فایل Robots.txt فایلی است که جهت کنترل نحوه خزیدن ربات گوگل در وب‌سایت استفاده می‌شود. هر زمان که دستور Disallow را در آن قرار می‌دهید بات گوگل می‌داند از صفحات زیرمجموعه آن بازدید کند. شایان ذکر است که این فایل نمایه‌سازی را کنترل نمی‌کند و تاثیر چندانی روی این مورد ندارد.

دلیل ایندکس‌شدن صفحات بلاک شده در سرچ کنسول گوگل

گاهی گوگل تصمیم می گیرد که یک صفحه کشف شده را با وجود اینکه نمی‌تواند بخزد و محتوای آن را درک کند ایندکس کند. در این سناریو معمولا گوگل توسط پیوندهای زیادی که به صفحه مسدود شده مرتبط هستند تحریک می‌شود. این پیوندها به مرور به امتیازی برای رنکینگ پیج تبدیل می‌شوند. در این شرایط ربات‌های گوگل آن را بررسی می‌کنند که مطمئن شوند یک صفحه مهم است یا اهمیتی ندارد. از طرفی با استفاده از الگوریتم‌های رنکینگ پیج پیوندهای داخلی و خارجی را در نظر می‌گیرد. در این وضعیت ممکن است صفحه‌ای را که خیلی مهم است در فهرست جستجو قرار دهد. پس ایندکس‌بودن یک فایل تاثیر قابل توجهی در جلوگیری از Blocked by robots خواهد داشت که نباید نادیده گرفته شود.

blocked by robots.txt

صفحات ایندکس شده با وجود خطای بلاک با ربات تاثیر منفی دارند

وضعیت یک صفحه ایندکس شده با وجود خطای blocked by robot یک مشکل جدی است که باید بررسی شود. شاید تصور کنید که موضوع پیچیده و عجیبی نیست، اما همین موضوع به ظاهر ساده سئوی سایت شما را تحت تاثیر قرار می‌دهد. در واقع چنین صفحاتی کیفیت کار و قدرت وب‌سایت شما را تحت‌الشعاع قرار می‌دهند و باید در اولین فرصت رفع شوند. ظاهر ضعیف اصلی‌ترین دلیل عدم موفقیت چنین وب‌سایتی است. چنانچه یک صفحه را به اشتباه مسدود کرده باشید ولی ایندکس شود به معنی ضعف گوگل در تشخیص گوگل نیست. این صفحات به محض انتشار با ظاهری نامناسب نشان داده می‌شوند و این سندی بر ضعف کاری شما است.

در واقع چنین صفحاتی به‌هیچ عنوان جذاب نیستند و کسب‌و‌کار و برند مورد نظر را زیر سوال می‌برند. گوگل قدرت نمایش برخی بخش‌‌ها مانند برچسب عنوان، توضیحات متا و اطلاعات اضافی را ندارد. بدون این عناصر کاربران نمی‌دانند پس از ورود به صفحه چه چیزی در انتظارشان است و چه می‌‌بینند. حتی این احتمال وجود دارد که وب‌سایت‌های رقیب را انتخاب کنند که در نتیجه CTR شما به شدت کاهش می‌یابد. د‌رحالی که صفحات ایندکس شده‌اند، اما بدون هیچگونه اطلاعات مهمی نمایش داده نمی‌شوند و این یک ضعف است. این به‌دلیل عدم توانایی گوگل در خزش صفحات است و اطلاعات نادرست را نشان می‌دهد.

چگونه خطای Blocked by robots رفع می‌شود؟

پیش از هرگونه اقدام جهت رفع این مشکل از پیکربندی سایت مطمئن شوید و آن را به‌درستی بررسی کنید. می‌توان با استفاده از ابزار تست این فایل را آزمایش و مورد ارزیابی قرار دهید و از دقیق‌بودن دستورالعمل‌های آن مطمئن شوید. چنانچه از وجود دستورالعمل‌هایی در فایل robot.txt مطلع شدید که مانع دسترسی سایت به بات گوگل می‌شود آن‌ها را حل کنید. حذف این دستورالعمل‌ها یا جایگزین‌کردن آن راهکاری عالی خواهد بود. برای حل این مشکل می‌توان روش‌های زیر را دنبال کرد:

فایل تست Robot.txt را باز کنید

فایل تستی که جهت ارزیابی این ربات دارید را باز و در میان وب‌سایت‌های مختلف وب‌سایت خود را انتخاب کنید. با این کار دستور بارگذاری سایت خود را به گوگل داده‌اید که خود در بررسی دقیق آن کمک می‌کند.

آدرس وب‌سایت را وارد کنید

در قسمت پایینی از فایل تست یک نوار سرچ وجود دارد که می‌توان از این طریق URL سایت خود را وارد کرد. حتما نام سایت را با دقت کامل و با تمام جزئیات وارد کنید؛ چرا که احتمال وجود سایت مشابه است و باید بررسی شود.

گزینه User Agent را وارد کنید

در قسمت راست کادر این ابزار تست یک منوی کشویی وجود دارد که به آن User Agent می‌گویند. از این طریق می‌توان گزینه مورد نظر خود یعنی Googlebot را انتخاب کرد.

اعتبارسنجی کنید

در مرحله آخر با کلیک روی دکمه Test می‌توان فایل را ارزیابی و اعتبارسنجی کرد. چنانچه ربات خزنده فایل مورد نظر به آدرس سایت دسترسی داشته باشد اعتبارسنجی خیلی سریع اتفاق می‌افتد. بنابراین با کلیک روی دکمه Test مشخص می‌شود که سایت شما بلاک شده یا تاییدیه گرفته است.

ویرایش کنید

ممکن است در این مسیر ربات ارزیاب با مشکلاتی مواجه شود و کد یا بخشی را نادرست بزند. بهترین کار این است که دستور را داخل ویرایشگر کد ویرایش و بار دیگر مراحل را از اول اجرا کنید.

علاوه‌بر مواردی که ذکر شد گاهی علت ایجاد خطای مذکور وارد‌کردن اشتباه دستورات یا کاربرد غلط آن‌ها است. در این میان می‌توان به مهم‌ترین دستور یعنی Disallow اشاره کرد که به دو شکل به‌کار می‌رود و موجب این خطا می‌شود:

استفاده اشتباه از دستور Disallow

در این شرایط اگر به‌دنبال رفع خطا هستید باید دستور مذکور را حذف کنید؛ چرا که موجب مسدود‌شدن صفحه می‌شود. چنانچه تعداد زیادی URL دارید حتما آن‌ها را در گوگل فیلتر کنید. با کلیک روی وضعیت و انتخاب نماد هرم معکوس آدرس مورد نظر را انتخاب کنید. می‌توان تمام صفحاتی که دچار این خطا هستند را فیلتر کرد. بهتر است مسیر هر URL را در جای خود قرار دهید و از دستورالعمل‌ها پیروی کنید. در زمان تغییر ربات دستورالعمل‌های مورد نظر را با استفاده از ابزار تست ارزیابی کنید.

فراموش نکنید که ابزارهای تست فایل شما را به صورت اتوماتیک تغییر نمی‌دهند، پس باید دستورالعمل‌ها را به‌صورت دستی وارد کنید. یک افزونه مهم به نام Robots Exclusion Checker وجود دارد که می‌توان روی گوگل کروم نصب کرد. این افزونه به شما کمک می‌کند تا صفحات بلاک شده را برای هر دامنه‌ای که مد نظر دارید مشاهده کنید. با این کار می‌توان حتی URL های بلاک شده خود را یافت و آن‌ها را تنظیم کرد.

blocked by robots.txt

استفاده عمدی از دستور Disallow

می‌توان با نادیده‌گرفتن وضعیت Blocked by robots.txt در سرچ کنسول گوگل وضعیت فوق را ادامه دهید. فراموش نکنید که مسدودکردن ربات به دلیل محتوای کم یا غیراستاندارد کاملا طبیعی و عادی است.  این عامل موجب عدم خزش توسط ربات‌ها خواهد شد، پس باید فکری به حال این وضعیت کرد. برای این کار پیشنهاد می‌شود که برای وب‌سایت خود یک استراتژی خزیدن درست انتخاب کنید. این کار کمک می‌کند تا بودجه خزش خود را بهینه کنید و حتی آن را بهبود دهید.   

چگونه مانع تکرار خطا شویم؟

همان‌طور که تا اینجا خواندید مشاهده چنین اخطاری موجب کلافگی و دردسر شما خواهد شد؛ بنابراین از تکرار آن جلوگیری کنید. برای این کار بهتر است به صورت مداوم robot.txt وب سایت خود را مرور و به‌روز کنید. با این کار مطمئن خواهید شد که تمام اطلاعات و نکات مربوط به سایت شما آپدیت می‌شوند. با کمک ابزارهای تست روزانه یا دوره‌ای می‌توان این کار را انجام داد. به‌‌طور کلی جهت پرداختن به این مشکل باید دو رویکرد را بررسی کرد:

  1. در‌صورتی که به‌دنبال ایندکس صفحه هستید.
  2. در‌صورتی که قصد ایندکس صفحه را ندارید.

رفع خطای Blocked by robots به‌کمک راهکارهای طلایی کافه سئو

طبق نکاتی که در مقاله حاضر به آن‌ها اشاره شد یکی از خطاهای رایج و تاثیرگذار در وب‌‌سایت خطای Blocked by robots است. این خطا در بسیاری از موارد موجب تنزل جایگاه وب‌سایت شما خواهد شد و آن را به رتبه‌های پایین می‌کشاند. نکته جالب اینجاست که بسیاری از سایت‌هایی که با این خطا مواجه هستند ایندکس شده‌اند. در واقع خطای مذکور کمی بیشتر از حد انتظارات ما قدرتمند است و باید از پا در آید. نیازی به نگرانی نیست، با کمک کارشناسان خبره ما در کافه سئو می‌توانید این مشکل را در کوتاه‌ترین زمان حل کنید. شایان ذکر است که پیش از هر کاری بهتر است از فردی متخصص کمک بگیرید و خود اقدامی انجام ندهید.