وبلاگ

موتور جستجو چگونه کار می‌کند؟

در پاسخ به این سوال که موتور جستجو چیست باید گفت موتور جستجو ماشین پاسخ به سوالات کاربران است. موتورهای جستجو برای تشخیص، درک و سازماندهی محتوای اینترنت طراحی شده‌اند تا مرتبط‌ترین نتایج را برای کوئری‌ها و پرسش‌های کاربران ایجاد کنند.

فهرست محتوا پنهان

برای اینکه محتوای سایت شما در نتایج جستجو نمایش داده شود، اول از همه باید این محتوا برای موتورهای جستجو قابل مشاهده باشد و این، مهم‌ترین قطعه از پازل سئو محسوب می‌شود چون اگر امکان پیدا کردن سایت شما وجود نداشته باشد، راهی برای نمایش آن در صفحه نتایج جستجو وجود ندارد.

موتورهای جستجو چگونه کار می‌کنند؟

برای آشنایی با موتورهای جستجو باید بدانید که آنها دارای سه عملکرد کلی هستند:

  1. خزش کردن یا خزیدن (Crawl): در این فرایند محتوای اینترنت جستجو و پیمایش شده و محتوا یا کد همه نشانی‌های وب که موتور جستجو پیدا می‌کند، مورد تحلیل و بررسی قرار می‌گیرد.
  2. فهرست کردن (Index): محتوای پیدا شده در مرحله خزش ذخیره و سازماندهی می‌شود. وقتی صفحه‌ای در فهرست ایندکس قرار گرفته باشد، وارد مرحله نمایش داده شدن برای کوئری‌های مرتبط می‌شود.
  3. رتبه بندی (Rank): ارائه محتوایی که بهترین پاسخ را برای کوئری مورد نظر ایجاد کنند. یعنی نتایج به ترتیب تناسبشان برای کوئری مورد نظر مرتب می‌شوند.

در ادامه با این ویژگی های موتورهای جستجو بیشتر آشنا خواهید شد.

خزش موتور جستجو چیست؟

خزش (Crawling) به فرایند جستجو و اکتشافی گفته می‌شود که در آن موتور جستجو یک تیم از ربات‌ها (که به آنها خزشگر یا عنکبوت گفته می‌شود) را مأمور پیدا کردن محتوای جدید و بروزرسانی شده می‌کند. این محتوا می‌تواند انواع مختلفی – مثل صفحه وب، عکس، ویدیو، پی دی اف و غیره – داشته باشد اما صرف نظر از فرمت آن همیشه با استفاده از لینک اکتشاف می‌شود.

خزش موتور جستجو crawl

ربات گوگل کار را با واکشی (fetching) چند صفحه شروع کرده و سپس لینک‌های آن صفحه را دنبال می‌کند تا نشانی‌های (URL) جدید را پیدا کند. خزشگر می‌تواند با دنبال کردن مسیر این لینک‌ها محتوای جدید را پیدا کرده و به فهرست لینک‌هایش که به آن کافئین گفته می‌شود – دیتابیسی بزرگ متشکل از URLهای شناسایی شده – اضافه کند تا بعداً وقتی کاربری در حال جستجوی اطلاعاتی باشد که این URL تطبیق خوبی با آن دارد، نمایش داده شود.

ایندکس موتور جستجو چیست؟

ایندکس (Index) به معنی اطلاعات فهرست شده است. موتورهای جستجو در مرحله ایندکس، محتوای صفحاتی که لینک آنها در مرحله قبل در فهرست خزشگر قرار گرفته را پیدا نموده، پردازش و ذخیره می‌کنند و دیتابیسی عظیم متشکل از همه محتوای شناسایی شده که برای نمایش به جستجوکننده‌ها مناسب به نظر می‌رسد، تشکیل می‌دهند که به این دیتابیس، ایندکس موتور جستجو گفته می‌شود.

رتبه بندی موتور جستجو

وقتی کاربری جستجویی انجام می‌دهد، موتورهای جستجو ایندکس‌های خودشان را بررسی می‌کنند تا محتوای مناسب را پیدا کنند سپس این محتوا را مرتب می‌کنند به این امید که بتوانند کوئری جستجو کننده را حل کنند. این مرتب کردن نتایج بر حسب میزان تناسب آنها رتبه بندی نام دارد. در مجموع می‌توان این طور گفت که سایتی با تناسب بیشتر برای کوئری مورد نظر، رتبه بالاتری کسب می‌کند.

دسترسی خزشگرها

می‌توانید دسترسی خزشگرها به همه بخش‌های سایت خودتان را محدود کنید یا به موتورهای جستجو دستور دهید که از ذخیره کردن بعضی صفحات در ایندکس خودشان خودداری کنند. هر چند انجام این کار دلایل خاص خودش را دارد اما اگر می‌خواهید کاربران قادر به پیدا کردن محتوای سایت شما باشند، اول از همه باید مطمئن باشید که خزشگرها به این اطلاعات دسترسی داشته و این محتوا قابل ایندکس شدن هستند در غیر این صورت محتوای سایت شما قابل مشاهده نخواهد بود.

در انتهای این مقاله از سایت آرکاد، اطلاعات لازم برای همکاری با موتورهای جستجو را کسب می‌کنید.

از نظر سئو همه موتورهای جستجو یکسان نیستند

خیلی از افراد مبتدی درباره اهمیت موتورهای جستجوی مختلف دچار تردید می‌شوند. اکثر ما در جریان هستیم که گوگل سهم عمده‌ای از بازار موتورهای جستجو را در اختیار دارد اما بهینه‌سازی برای موتور جستجو بینگ یا موتور جستجوگر یاهو و سایر موتورهای جستجو چقدر مهم است؟ واقعیت این است که بیش از ۳۰ موتور جستجوی مهم داریم اما جامعه سئو فقط به موتور جستجوگر گوگل توجه دارد چون اکثر کاربران وب برای جستجو از گوگل استفاده می‌کنند. با در نظر گرفتن سرویس‌هایی مثل Google Images، Google Maps و یوتیوب (که متعلق به گوگل است) متوجه می‌شویم که بیش از ۹۰ درصد جستجوهای وب با گوگل انجام می‌شوند – یعنی ۲۰ برابر بینگ و یاهو با هم، بنابراین می‌توان گوگل را بعنوان بهترین موتور جستجو معرفی کرد.

شما را به یک چالش جالب دعوت می‌کنم. نتایج یک موتور جستجوگر خارجی مانند گوگل یا موتور جستجو aol را برای یک کلمه کلیدی خاص با نتایج موتور جستجوی فارسی مانند جستجوگر پارسی جو یا موتور جستجو پارسیک مقایسه کنید تا متوجه تفاوت الگوریتم‌ها، کیفیت و مرتبط بودن نتایج‌شان بشوید.

موتور جستجو تخصصی یکی از انواع موتورهای جستجو است که اطلاعات تخصصی را در زمینه های خاص در اختیار مخاطبین قرار می‌دهد. مانند:

  • موتور جستجو حقوقی
  • موتور جستجو خانه
  • موتور جستجو خرید کالا
  • موتور جستجو شعر
  • موتور جستجوی پزشک
  • موتور جستجوی خودرو
  • موتور جستجو مخصوص فیلم
  • موتور جستجوی قرآن

شاید برای شما جالب باشد که تعداد زیادی موتور جستجو ایرانی هم داریم. مانند:

  • موتور جستجو پارسیک
  • موتور جستجو ترب
  • موتور جستجو جس جو
  • موتور جستجو ذره بین
  • موتور جستجو ریسمون
  • موتور جستجو زال
  • موتور جستجو زومیت
  • موتور جستجو سلام
  • موتور جستجو فارسی جو
  • موتور جستجو گردو
  • موتور جستجو یوز
  • موتور جستجوی پارسی جو

من در اینجا برخی از آنها را معرفی کردم و این به معنای تائید عملکرد آنها نیست و خواستم با موتور جستجوی ایرانی هم آشنا شوید.

خزش: آیا موتورهای جستجو قادر به پیدا کردن صفحات سایت شما هستند؟

همانطور که اشاره شد وجود قابلیت خزش و ایندکس شدن سایت جزء پیش شرط‌های لازم برای نمایش سایت در صفحه نتایج موتورهای جستجو است. اگر سایتی دارید کار را با بررسی تعداد صفحات سایت که در ایندکس گوگل قرار دارند شروع کنید که این کار اطلاعات ارزشمندی درباره اینکه آیا گوگل قادر به خزش و پیدا کردن صفحات سایت شما هست یا خیر فراهم می‌کند.

یکی از روش‌های بررسی صفحات ایندکس شده استفاده از site:yourdomain.com است که جزء عملگرهای پیشرفته جستجو است. برای انجام این کار در کادر جستجوی گوگل عبارت site:yourdomain.com را تایپ کنید تا ایندکس‌های ایجاد شده توسط گوگل برای سایت مورد نظرتان مشخص شود:

ایندکس موتور جستجو index

تعداد نتایج ایجاد شده توسط گوگل دقیق نیست (بخش About XX results) اما به شما درباره اینکه چه صفحاتی از سایتتان ایندکس شده و اینکه در حال حاضر چه وضعیتی در نتایج جستجو دارند کمک می‌کند.

برای دستیابی به نتایج دقیق‌تر می‌توانید از گزارش Index Coverage (یا پوشش ایندکس) در سرچ کنسول استفاده کنید. با این ابزار می‌توانید سایت مپ خودتان را ارسال کنید و بررسی کنید که چه تعداد از صفحات سایتتان به ایندکس گوگل اضافه شده‌اند.

اگر سایت شما در نتایج موتور جستجو نمایش داده نمی‌شود، ممکن است این مشکل به دلایل مختلفی ایجاد شده باشد از جمله اینکه:

  • سایت شما کاملاً تازه کار است و هنوز مورد خزش قرار نگرفته است.
  • هیچ وبسایت خارجی لینک سایت شما را در محتوای خودش درج نکرده است.
  • طراحی سایت شما به نحوی است که باعث شده ربات‌های خزشگر نتوانند به راحتی آن را پیمایش کنند.
  • سایت شما حاوی کدهای خاصی است که مانع دسترسی موتور جستجوگر می‌شود.
  • به دلیل استفاده از تاکتیک‌های اسپمی، سایت شما توسط گوگل جریمه شده است.

به گوگل اعلام کنید که سایت شما را چگونه خزش کند

اگر عملگر site:domain.com را برای سایتتان استفاده کرده و متوجه شدید که بعضی از صفحات مهم سایت شما در ایندکس موجود نیستند یا بعضی از صفحات غیرمهم به اشتباه ایندکس شده‌اند، می‌توانید برای راهنمایی هر چه بیشتر ربات گوگل جهت پویش سایت خودتان از روش‌های مختلفی استفاده کنید. اعلام نحوه پویش سایت به موتورهای جستجو امکان کنترل بیشتر بر نحوه ایندکس شدن سایت را فراهم می‌کند.

اکثر افراد تصور می‌کنند پیدا شدن صفحات مهم توسط گوگل کفایت می‌کند اما شاید صفحاتی هم باشند که نخواهید ربات گوگل آنها را پیدا کند مثل لینک‌های قدیمی که حالا محتوای ضعیفی دارند، URLهای تکراری (مثل پارامترهای مرتب سازی و فیلتر برای فروشگاه‌های آنلاین)، صفحات مربوط به یکسری کدهای تبلیغاتی خاص، صفحه تست، صفحه تشکر و غیره.

برای راهنمایی ربات گوگل جهت دور ماندن از بعضی بخش‌های سایت، از robots.txt استفاده کنید.

فایل Robots.txt

فایل‌های Robots.txt در پوشه روت وبسایت‌ها قرار دارند (مثل yourdomain.com/robots.txt) و نشان می‌دهند که چه بخش‌هایی از سایت شما باید توسط موتورهای جستجو خزش شوند یا نشوند و سرعت خزش سایت شما چقدر باشد.

ربات گوگل چطور با فایل‌های robots.txt برخورد می‌کند؟

  • اگر ربات گوگل نتواند فایل robots.txt را برای یک سایت پیدا کند، شروع به خزش سایت می‌کند.
  • اگر ربات گوگل فایل robots.txt را پیدا کند، معمولاً از دستورات آن تبعیت می‌کند و به همان روش خزش سایت را انجام می‌دهد.
  • اگر ربات گوگل حین دسترسی به فایل robots.txt با خطا روبرو شود و نتواند وجود یا عدم وجود آن را تشخیص دهد، سایت را خزش نمی‌کند.

بهینه سازی بودجه خزش

بودجه خزش میانگین تعداد URLهایی است که ربات گوگل پیش از ترک سایت شما آنها را پویش می‌کند بنابراین بهینه‌سازی بودجه خزش این اطمینان را ایجاد می‌کند که وقت ربات گوگل برای بررسی صفحات غیرمهم سایت شما تلف نمی‌شود تا خطر عدم پویش صفحات مهم ایجاد نشود. بودجه خزش برای سایت‌های بزرگی با ده‌ها هزار URL اهمیت بیشتری دارد اما بهتر است در هر صورت مانع از دسترسی خزشگرها به محتوایی شوید که برای شما مهم نیست. فقط مطمئن شوید که دسترسی خزشگر را به صفحاتی که دستورالعمل‌های خاصی برای آنها اضافه کردید مثل تگ‌های noindex یا Canonical محدود نکنید. اگر دسترسی ربات گوگل به صفحه‌ای محدود شود، امکان مشاهده دستورالعمل‌های آن صفحه را نخواهد داشت.

لزوماً همه ربات‌های وب از robots.txt تبعیت نمی‌کنند. ممکن است اشخاصی با اهداف و مقاصد نامطلوب (مثل خراش دهنده‌های[۱] ایمیل آدرس) ربات‌هایی بسازند که از این پروتکل تبعیت نکنند. در واقع بعضی از افراد بد نیت از فایل‌های robots.txt برای پیدا کردن محل درج محتوای حساس استفاده می‌کنند. هر چند منطقی است که دسترسی خزشگرها به صفحات خصوصی مثل صفحات لاگین و مدیریت سایت را محدود کنید تا در ایندکس نمایش داده نشوند، اما قرار دادن محل این URLها در فایل robots.txt که همه به آن دسترسی دارند باعث می‌شود که مهاجمان سایبری به راحتی به آن دسترسی پیدا کنند. به جای درج این صفحات در فایل robots.txt، بهتر است آنها را NoIndex کرده و پشت یک صفحه لاگین قرار دهید.

این مطلب را هم بخوانید  5 نوع محتوایی که باعث ایجاد بک لینک به سایت شما می شوند

تعریف پارامترهای URL در سرچ کنسول

بعضی از سایت‌ها (بیشتر سایت فروشگاه‌های آنلاین) با اضافه کردن یکسری پارامتر خاص به URLها، از یک محتوای خاص چندین بار در URLهای مختلف استفاده می‌کنند. اگر تا به حال خرید آنلاین انجام داده باشید به احتمال زیاد جستجوهای خودتان را با یکسری فیلتر خاص محدود کرده‌اید. مثلاً وقتی کلمه Shoes (کفش) را در سایت آمازون جستجو می‌کنید و بعد با انتخاب رنگ، اندازه و سبک، جستجو را محدود می‌کنید. در این حالت URL سایت کمی تغییر می‌کند، مثلاً:

https://www.example.com/products/women/dresses/green.htmhttps://www.example.com/products/w
women?category=dresses&color=greenhttps://example.com/shopindex.php?product_id=32&highlight=green+dress&cat_id=1&sessionid=123$affid=43

اما گوگل چطور تشخیص می‌دهد که کدام URL را به جستجو کننده‌ها نمایش دهد؟ واقعیت این است که گوگل به خوبی تشخیص می‌دهد که کدام URL مناسب‌تر است اما می‌توانید با استفاده از ویژگی URL Parameters در سرچ کنسول به گوگل اعلام کنید که دقیقاً می‌خواهید چه رفتاری با صفحات شما انجام دهد.

اگر از این قابلیت استفاده کنید تا به گوگل اعلام کنید که «هیچ نشانی با پارامترهای ____ را خزش نکن» در این صورت شما در واقع این محتوا را از ربات گوگل مخفی می‌کنید در نتیجه این محتوا از نمایش جستجو حذف می‌شود. برای پارامترهایی که منجر به ایجاد صفحات تکراری می‌شوند می‌توانید از این روش استفاده کنید اما این روش برای صفحاتی که تمایل دارید ایندکس شوند مناسب نیست.

آیا خزشگرها قادر به یافتن همه مطالب مهم هستند؟

حالا که با بعضی تاکتیک‌های پیشگیری از خزش صفحات غیرمهم آشنا شدید، به بهینه سازی‌هایی می‌پردازیم که به ربات گوگل برای پیدا کردن صفحات مهم کمک می‌کنند.

گاهی اوقات موتور جستجو می‌تواند بخش‌هایی از سایت شما را با خزش کردن پیدا کند اما ممکن است بعضی دیگر از صفحات یا بخش‌ها به دلایل خاصی مبهم باشند. پس باید اطمینان حاصل کنید که موتورهای جستجو قادر به تشخیص همه محتوایی که تمایل دارید ایندکس شود باشند نه فقط صفحه اصلی سایت.

پس از خودتان بپرسید که آیا ربات خزشگر می‌تواند کل سایت شما را به خوبی پویش کند؟

no index

آیا محتوای سایت پشت فرم‌های لاگین پنهان شده است؟

اگر قرار است کاربران برای دسترسی به بعضی مطالب خاص وارد سایت شده، فرمی پر کرده یا به نظرسنجی پاسخ دهند موتورهای جستجو هم قادر به مشاهده این صفحات نخواهند بود چون قطعاً خزشگر گوگل قادر به لاگین کردن نیست.

آیا به فرم‌های جستجو متکی هستید؟

ربات‌ها قادر به استفاده از فرم‌های جستجو نیستند. بعضی‌ها تصور می‌کنند که اگر یک کادر جستجو در سایتشان قرار دهند موتورهای جستجو می‌توانند هر آنچه کاربران جستجو می‌کنند را پیدا کنند.

آیا متن‌ها بین محتوای غیرمتنی مخفی شده‌اند؟

نباید از فرم‌های غیرمتنی (عکس، ویدیو، گیف و غیره) برای نمایش متنی استفاده کنید که می‌خواهید ایندکس شود. هر چند قدرت موتورهای جستجو برای تشخیص تصاویر بیشتر شده اما هنوز تضمینی وجود ندارد که قادر به خواندن و درک تصاویر باشند. بهتر است متون را در مارکاپ <HTML> صفحه درج کنید.

آیا موتورهای جستجو می‌توانند سایت شما را پیمایش کنند؟

درست همانطور که خزشگر باید سایت شما را از طریق لینک‌های درج شده در سایت‌های دیگر پیدا کند، برای حرکت از صفحه‌ای به صفحه دیگر هم نیاز به مسیری متشکل از لینک‌های مختلف دارد. اگر صفحه‌ای که مایل به ایندکس شدن آن هستید، هیچ لینکی از صفحات دیگر دریافت نکرده باشد، ربات گوگل قادر به مشاهده آن نیست. طراحان خیلی از سایت‌ها دچار این اشتباه می‌شوند که سایت را طوری سازماندهی می‌کنند که موتورهای جستجو قادر به دسترسی به همه صفحات آن نیستند در نتیجه امکان درج سایت در نتایج جستجو وجود ندارد.

crawling پیمایش یا کرال سایت

اشتباهات متداولی که مانع از دسترسی خزشگرها به کل سایت می‌شوند:

  • ایجاد نتایج متفاوت هنگام پیمایش سایت با موبایل و با کامپیوتر.
  • هر گونه پیمایشی که در آن آیتم‌های منو در HTML وجود ندارد مثل پیمایش با جاوااسکریپت. گوگل قابلیت‌های بیشتری برای درک و خزش جاوااسکریپت پیدا کرده اما هنوز به مرحله تکامل نرسیده است. مطمئن‌ترین راه برای پیدا شدن، درک و ایندکس شدن صفحات سایت توسط گوگل، استفاده از HTML است.
  • شخصی سازی یا نمایش روش پیمایش یا مرور خاص برای بعضی از بازدیدکنندگان که ممکن است باعث مخفی شدن محتوا از دید خزشگر شود.
  • فراموش کردن درج لینک صفحات مهم سایت برای ایجاد یک مسیر پیمایش کامل – به خاطر داشته باشید که لینک‌ها، مسیرهایی هستند که خزشگرها برای پیدا کردن صفحات جدید از آنها استفاده می‌کنند.

به همین علت سایت شما باید یک مسیر پیمایش واضح و ساختاری منظم داشته باشد.

آیا یک معماری اطلاعاتی تمیز و مرتب دارید؟

معماری اطلاعاتی به سازماندهی و برچسب گذاری محتوای سایت برای ارتقای بهره‌وری و امکان پیدا شدن آن توسط کاربران گفته می‌شود. یک معماری اطلاعاتی خوب شهودی و قابل درک است یعنی برای بررسی سایت جهت پیدا کردن یک آیتم خاص نیازی به گشتن و جستجوی بسیار زیاد سایت وجود ندارد.

آیا از سایت مپ استفاده می‌کنید؟

در مجموع سایت مپ (Sitemap) یک فهرست از URLهای سایت است که خزشگرها می‌توانند از آن برای پیدا کردن و ایندکس کردن محتوای سایت استفاده کنند. یکی از ساده ترین راه‌ها برای اطمینان از اینکه گوگل صفحاتی با بیشترین سطح اولویت را پیدا می‌کند ساختن فایلی است که با استانداردهای گوگل همخوانی دارد و سپس، ارسال کردن آن به سرچ کنسول. هرچند ارسال سایت مپ نمی‌تواند جایگزین امکان مرور سایت به روشی واضح و شفاف شود اما قطعاً می‌تواند به خزشگرهای گوگل برای پیدا کردن مسیر همه صفحات مهم سایت کمک کند.

سعی کنید فقط URLهایی را درج کنید که می‌خواهید موتورهای جستجو آنها را ایندکس کنند و حتماً مسیرهایی منسجم و درست در اختیار خزشگرها قرار دهید. مثلاً اگر URL خاصی را در robots.txt مسدود کرده‌اید آن را در سایت مپ درج نکنید یا URLهایی را درج نکنید که تکراری هستند و به جای آن نسخه کانونی اصلی (Canonical) را درج کنید.

اگر سایت شما هیچ لینکی از سمت سایت‌های دیگر ندارد، باز هم شاید بتوانید با ارسال سایت مپ XML آن به سرچ کنسول آن را ایندکس کنید. تضمینی وجود ندارد که گوگل URL ارسال شده را در ایندکس خودش درج کند اما قطعاً این کار ارزش امتحان کردن را دارد.

آیا خزشگرها برای دسترسی به URLهای شما با خطا روبرو می‌شوند؟

ممکن است خزشگر در فرایند خزش URLهای سایت با خطا روبرو شود. می‌توانید برای تشخیص URLهایی که چنین خطایی برای آنها ایجاد شده به گزارش Crawl Errors از سرچ کنسول مراجعه کنید – این گزارش خطاهای سرور و خطاهای پیدا نشدن محتوا را نشان می‌دهد. فایل‌های لاگ سرور هم این موضوع و مجموعه‌ای از اطلاعات جامع درباره بازه‌های اجرای فرایند خزش را در اختیار شما قرار می‌دهند اما از آنجایی که دسترسی به فایل‌های لاگ سرور و تحلیل آنها یک موضوع پیشرفته است در این مقاله به طور کامل آن را بررسی نمی‌کنیم.

پس لازم است پیش از هر چیزی مفهوم خطاهای سرور و خطاهای “پیدا نشد” (not found) را درک کنید.

کدهای ۴xx: وقتی خزشگرهای موتور جستجو به دلیل بروز خطای کلاینت قادر به دسترسی به محتوا نیستند.

خطاهای ۴xx خطای کلاینت هستند یعنی URL درخواستی حاوی غلط‌های ساختاری است یا امکان اجرای آن وجود ندارد. یکی از متداول ترین خطاهای ۴xx، خطای  “۴۰۴ – not found”است. برای مثال ممکن است این خطا به دلیل اشتباه تایپی، حذف شدن صفحه یا ایجاد مشکل در فرایند هدایت (redirect) به سمت یک URL دیگر رخ داده باشد. وقتی موتورهای جستجو با خطای ۴۰۴ روبرو می‌شوند قادر به دسترسی به URL نیستند. وقتی کاربران با خطای ۴۰۴ روبرو می‌شوند خسته شده و سایت را ترک می‌کنند.

کدهای ۵xx: وقتی خزشگرهای موتور جستجو به دلیل بروز خطای سرور قادر به دسترسی به محتوا نیستند.

خطاهای ۵xx خطای سرور هستند یعنی سروری که صفحه وب مورد نظر روی آن قرار گرفته قادر به برآورده کردن درخواست جستجو کننده یا موتور جستجو برای دسترسی به صفحه مورد نظر نیست. در گزارش Crawl Error سرچ کنسول یک تب اختصاصی برای این خطاها وجود دارد. معمولاً این خطاها به این دلیل رخ می‌دهند که مدت زمان سپری شده برای درخواست URL مورد نظر از آستانه مجاز فراتر رفته در نتیجه ربات گوگل این درخواست را رها می‌کند. برای کسب اطلاعات بیشتر جهت رفع مشکلات اتصال سرور، می‌توانید به مدارک گوگل مراجعه کنید.

خوشبختانه یک روش خاص برای اعلام جابجا شدن صفحه مورد نظر به موتور جستجو و کاربران وجود دارد یعنی ریدایرکت (دائم) ۳۰۱٫

ریدایرکت 301

ساختن صفحات ۴۰۴ سفارشی

می‌توانید با درج لینک صفحات مهم سایت، یکی از امکانات جستجوی سایت و حتی اطلاعات تماس صفحه ۴۰۴ را سفارشی سازی کنید. به این ترتیب احتمال اینکه کاربران پس از برخورد به خطای ۴۰۴ سایت شما را ترک کنند کاهش پیدا می‌کند.

ریدایرکت ۳۰۱

فرض کنید صفحه‌ای را از example.com/young-dogs/ به example.com/puppies/ منتقل می‌کنید. موتورهای جستجو و کاربران برای حرکت از URL قدیمی به جدید نیاز به یک پل دارند و این پل ریدایرکت ۳۰۱ است.

چه موقع ۳۰۱ را پیاده سازی کنید چه موقع ۳۰۱ را پیاده سازی نکنید
ارزش (برابری) لینکانتقال ارزش لینک از محل قدیمی صفحه به URL جدیدبدون ۳۰۱، اعتبار و ارزش از URL قبلی به نسخه جدید URL منتقل نمی‌شود
ایندکسینگبه گوگل برای پیدا کردن و ایندکس کردن نسخه جدید صفحه کمک می‌کند.وجود خطای ۴۰۴ در سایت شما به تنهایی آسیبی به عملکرد سایت در موتور جستجو وارد نمی‌کند اما وجود خطای ۴۰۴ برای صفحاتی با رتبه یا ترافیک زیاد می‌تواند باعث حذف آنها از ایندکس شده در نتیجه ترافیک و رتبه‌ها هم با ایندکس از بین می‌روند.
تجربیات کاربریمطمئن شوید که کاربران صفحه‌ای که در جستجوی آن هستند را پیدا می‌کنند.اگر به کاربران اجازه دهید روی لینک‌های مرده کلیک کنند باعث هدایت آنها به سمت صفحات خطادار می‌شوید که تجربه خوبی نیست.

کد وضعیت ۳۰۱ یعنی صفحه برای همیشه به یک محل جدید منتقل شده پس از ریدایرکت کردن URLها به سمت صفحاتی نامربوط خودداری کنید – یعنی URLهایی که دیگر محتوای URL قدیمی در آنها قرار ندارد. اگر صفحه برای یک کوئری خاص رتبه گرفته و آن را با ۳۰۱ به صفحه یک URL با محتوایی متفاوت هدایت کنید ممکن است رتبه صفحه ریزش کند چون محتوایی که باعث شده بود این URL برای کوئری مورد نظر مناسب باشد دیگر در آنجا نیست. ۳۰۱ ابزار قدرتمندی است – URLها را با دقت و مسئولیت پذیری جابجا کنید.

امکان ریدایرکت کردن ۳۰۲ را هم دارید اما باید این کد را برای جابجایی‌های موقت و وقتی بحث ارزش لینک (link equity) دغدغه چندانی محسوب نمی‌شود انجام دهید. ۳۰۲‌ها به نوعی شبیه به انحراف جاده محسوب می‌شوند. در واقع شما به صورت موقت ترافیک را به یک مسیر خاص هدایت می‌کنید اما نباید این کار همیشگی باشد.

مراقب زنجیره‌های ریدایرکت باشید!

اگر قرار باشد گوگل بات از طریق چندین ریدایرکت به صفحات شما دسترسی پیدا کند، کار این ربات سخت‌تر می‌شود. گوگل به این وضعیت زنجیره ریدایرکت می‌گوید و توصیه می‌کند تا حد امکان این زنجیره‌ها را محدود کنید. اگر example.com/1 را به example.com/2 منتقل کنید و بعد تصمیم بگیرید که آن را به example.com/3 منتقل کنید بهتر است حلقه واسط را حذف کرده و فقط example.com/1 را به example.com/3 هدایت کنید.

وقتی مطمئن شدید که سایت شما برای خزش بهینه سازی شده، کار بعدی اطمینان از قابل ایندکس بودن آن است.

ایندکسینگ: موتورهای جستجو صفحات شما را چگونه تفسیر و ذخیره می‌کنند؟

وقتی مطمئن شدید که سایتتان توسط موتور جستجو خزش شده، مرحله بعد اطمینان از قابل ایندکس بودن آن است. اینکه موتور جستجویی سایت شما را پیدا و خزش کرده لزوماً به این معنا نیست که سایت شما در ایندکس آن موتور جستجو ذخیره می‌شود. در بخش قبلی که درباره خزش صحبت کردیم، توضیح دادیم که موتورهای جستجو چگونه صفحات وب را پیدا می‌کنند. ایندکس، جایی است که صفحات پیدا شده در آن ذخیره می‌شود. بعد از اینکه خزشگر صفحه‌ای را پیدا کرد، موتور جستجو آن را مثل یک مرورگر تحلیل می‌کند. در این فرایند موتور جستجو محتوای صفحه را تحلیل کرده و همه اطلاعات پیدا شده را در ایندکسش ذخیره می‌کند.

ایندکس موتورهای جستجو

در ادامه به شما خواهیم گفت که ایندکسینگ چگونه کار می‌کند و چطور می‌توانید مطمئن شوید که سایت شما هم وارد این دیتابیس مهم می‌شود.

این مطلب را هم بخوانید  اسکیما (Schema) چیست و چرا برای سئو مهم است؟

آیا می‌توانیم نحوه مشاهده صفحات سایت توسط خزشگر گوگل بات را مشاهده کنیم؟

بله، نسخه کش شده صفحات سایت شما نشان دهنده یک اسنپ شات از آخرین باری است که گوگل بات آن را خزش کرده است.

گوگل در بازه‌های زمانی مختلف صفحات وب را خزش و ایندکس می‌کند. وبسایت‌های مهم و شناخته شده که دائماً مطلب منتشر می‌کنند مثل https://www.nytimes.com نسبت به سایت‌های کمتر شناخته شده در فواصلی کوتاه‌تر خزش می‌شوند. می‌توانید با کلیک کردن روی فلش کنار URL در نتایج جستجو و انتخاب گزینه Cached نسخه کش شده سایتتان را مشاهده کنید:

می‌توانید نسخه فقط متنی سایتتان را هم مشاهده کنید تا از خزش و کش شدن محتوای مهم سایتتان مطمئن شوید.

کش نتایج جستجو

آیا صفحات از ایندکس حذف می‌شوند؟

قطعاً بله! امکان حذف صفحات از ایندکس به این دلایل وجود دارد:

  • URL مورد نظر خطای not found  (4XX)یا خطای سرور (۵XX) ایجاد می‌کند. ممکن است این خطا تصادفی باشد (صفحه جابجا شده و ریدایرکت ۳۰۱ تنظیم نشده) یا عمدی (صفحه حذف شده و برای حذف از ایندکس دچار خطای ۴۰۴ شده است).
  • به URL مورد نظر تگ متای noindex اضافه شده – مالک سایت می‌تواند این تگ را اضافه کند تا به موتور جستجو اعلام کند صفحه را از ایندکسش حذف کند.
  • URL مورد نظر به دلیل نقض قوانین وب مستر موتور جستجو با جریمه دسترسی روبرو شده در نتیجه از ایندکس حذف شده است.
  • اضافه شدن پسورد برای دسترسی به صفحه مورد نظر باعث شده که امکان خزش URL مورد نظر وجود نداشته باشد.

اگر معتقد هستید که یکی از صفحات سایت شما قبلاً در ایندکس گوگل بوده و حالا جایی در آن ندارد، می‌توانید از ابزار URL Inspection برای کسب اطلاعات بیشتر درباره آن صفحه استفاده کنید یا از Fetch as Google استفاده کنید که یک قابلیت به اسم Request Indexing دارد که می‌توان URLهای دلخواه را برای ایندکس شدن به آن ارسال کرد (ابزار fetch سرچ کنسول هم گزینه‌ای به اسم render دارد که با استفاده از آن می‌توانید مشکلات احتمالی به وجود آمده برای گوگل در تحلیل صفحه را بررسی کنید).

به موتورهای جستجو اعلام کنید که صفحات سایتتان را چگونه ایندکس کنند

دستورات متای ربات‌ها

دستورات متا (یا تگ‌های متا) راهنمایی‌ها و دستوراتی هستند که شما در رابطه با نحوه برخورد موتور جستجو با صفحات سایتتان به موتورهای جستجو می‌دهید.

می‌توانید به موتورهای جستجو اعلام کنید که “این صفحه را در نتایج جستجو ایندکس نکن” یا “هیچ ارزش لینکی را به هیچ لینک درون صفحه‌ای ارسال نکن”. این دستورات از طریق Robots Meta Tags در بخش <head> از صفحه HTML اجرا می‌شوند (که روش پرکاربردتر است) یا از طریق X-Robots-Tag در هدر HTTP.

تگ متای Robots

می‌توانید از تگ متای robots در بخش <head> از صفحه HTML سایتتان استفاده کنید. این تگ می‌تواند همه یا بعضی از موتورهای جستجوی دلخواه را استثناء کند. در ادامه متداول ترین دستورات متا را همراه با شرایط استفاده از آنها مشاهده می‌کنید.

index/noindex به موتور جستجو اعلام می‌کند که آیا صفحه مورد نظر باید خزش شده و در ایندکس موتور جستجو حفظ شود یا خیر. اگر از noindex استفاده کنید در واقع به خزشگرها اعلام می‌کنید که می‌خواهید صفحه مورد نظر در نتایج جستجو قرار نداشته باشد. موتورهای جستجو در حالت پیش فرض تصور می‌کنند که می‌توانند همه صفحات را ایندکس کنند پس استفاده از مقدار index ضرورتی ندارد.

  • چه موقع از این صفت استفاده می‌کنیم؟ اگر به هر دلیلی بخواهید صفحه‌ای را از ایندکس گوگل حذف کنید (مثلاً صفحات پروفایل ساخته شده توسط کاربران) اما باز هم بخواهید که بازدیدکنندگان به آن دسترسی داشته باشند از noindex استفاده می‌کنید.

follow/nofollow به موتورهای جستجو اعلام می‌کند که آیا باید لینک‌های درون یک صفحه خاص را دنبال کنند یا خیر. Follow باعث می‌شود که ربات‌ها لینک‌های درج شده در صفحات را دنبال کرده و ارزش لینک‌ها را از طریق URLها منتقل کنند یا می‌توانید از حالت nofollow استفاده کنید تا موتور جستجو لینک‌ها را دنبال نکرده و ارزش لینک را منتقل نکند. همه موتورهای جستجو در حالت پیش فرض صفت follow را در نظر می‌گیرند.

  • چه موقع از این صفت استفاده می‌کنیم؟ معمولاً از nofollow همراه noindex و در مواقعی استفاده می‌کنیم که بخواهیم مانع از ایندکس شدن یک صفحه و مانع از دنبال کردن لینک‌های آن صفحه توسط خزشگرها شویم.

Noarchive برای پیشگیری از ذخیره کردن نسخه کش شده صفحه توسط موتورهای جستجو استفاده می‌شود. در حالت پیش فرض موتورهای جستجو نسخه‌ای از همه صفحات ایندکس شده ذخیره می‌کنند که از طریق لینک مربوط به محتوای کش شده در نتایج جستجو، در دسترس جستجوکننده‌ها قرار می‌گیرد.

  • چه موقع از این صفت استفاده می‌کنیم؟ اگر یک فروشگاه آنلاین دارید و قیمت محصولات شما دائماً تغییر می‌کند، سعی کنید برای پیشگیری از مشاهده قیمت‌های قدیمی‌توسط کاربران موتورهای جستجو از تگ noarchive استفاده کنید.

در ادامه یک نمونه از تگ noindex, nofollow را مشاهده می‌کنید:

<!DOCTYPE html><html><head><meta name="robots" content="noindex, nofollow" /></head><body>...</body></html>

این مثال باعث می‌شود که همه موتورهای جستجو از ایندکس کردن صفحه و دنبال کردن لینک‌های درون آن خودداری کنند. اگر می‌خواهید فقط چند خزشگر مثل ربات گوگل و بینگ را از انجام این کار منع کنید می‌توانید از چند تگ مشابه استفاده کنید که هر کدام برای یکی از موتورهای جستجوی مورد نظر نوشته شده باشد.

X-Robots-Tag

تگ x-robots در هدر HTTP از URL استفاده می‌شود و نسبت به تگ‌های متا برای مسدود کردن وسیع موتورهای جستجو مناسب‌تر است چون می‌توانید در این تگ از عبارات باقاعده استفاده کنید، فایل‌های غیر HTML را مسدود کنید و تگ noindex در سطح سایت داشته باشید.

مثلاً می‌توانید به راحتی همه انواع فایل یا پوشه‌های مورد نظر را از فهرست ایندکس خارج کنید (مثلاً moz.com/no-bake/old-recipes-to-noindex)

<Files ~ “\/?no\-bake\/.*”> Header set X-Robots-Tag “noindex, nofollow”</Files>

می‌توان از دستورات استفاده شده در تگ متای robots در X-Robots-Tag هم استفاده کرد.

یا انواع فایل خاصی را مشخص کرد (مثل پی دی اف):

<Files ~ “\.pdf$”> Header set X-Robots-Tag “noindex, nofollow”</Files>

یک نکته برای وردپرس:

در بخش Dashboard> Settings> Reading چک کنید که گزینه “Search Engine Visibility”  تیک نخورده باشد چون این تنظیمات مانع از ورود موتورهای جستجو به سایت شما از طریق فایل robots.txt می‌شود.

درک روش‌های تأثیرگذاری بر خزش و ایندکس سایت به شما برای پیشگیری از انجام اشتباهات متداولی که مانع از پیدا شدن صفحات مهم می‌شوند کمک می‌کند.

رتبه بندی: موتورهای جستجو چگونه به URLها رتبه می‌دهند؟

موتورهای جستجو چطور اطمینان حاصل می‌کنند که وقتی یک کوئری در نوار جستجو درج می‌کنید، یک نتیجه مرتبط به شما نمایش می‌دهند؟ این کار با فرایند رتبه‌بندی یا مرتب کردن نتایج جستجو بر حسب مرتبط‌ترین تا کم ربط‌ترین نتایج انجام می‌شود.

رتبه بندی موتور جستجو ranking

آنها برای تعیین میزان تناسب و ارتباط محتوا، از فرمول یا فرایندی استفاده می‌کنند که با استفاده از آن اطلاعات مرتب شده بازیابی شده و به روشی معنادار مرتب می‌شود. این الگوریتم‌ها در سال‌های اخیر تغییرات زیادی کرده‌اند تا کیفیت نتایج را ارتقاء دهند. مثلاً گوگل هر روز الگوریتم‌های خودش را تغییر می‌دهد – بعضی از آپدیت‌ها جزئی و بعضی مهم و گسترده‌تر هستند و برای رفع مشکلی خاص طراحی می‌شوند مثل الگوریتم پنگوئن برای برخورد با لینک های اسپم.

اما چرا این الگوریتم‌ها اینقدر تغییر می‌کنند؟ هر چند خود گوگل توضیحات خاصی درباره دلیل انجام این تغییرات ارائه نکرده اما در جریان هستیم که هدف کلی گوگل ارتقای کیفیت جستجو است. به همین دلیل گوگل هم در پاسخ به پرسش‌های مطرح شده درباره این تغییرات معمولاً می‌گوید: “ما همیشه در حال انتشار آپدیت‌های کیفی هستیم.” این نشان می‌دهد که اگر پس از انتشار یک الگوریتم خاص سایت شما متضرر شده، می‌توانید دستورالعمل‌های کیفی گوگل یا دستورالعمل‌های کیفی رتبه بندی گوگل را بررسی کنید که هر دو اطلاعات خیلی خوبی درباره خواسته‌ها و انتظارات این موتور جستجو در اختیار شما قرار می‌دهند.

موتورهای جستجو چه خواسته‌ای دارند؟

خواسته موتورهای جستجو همیشه یک چیز بوده: ارائه پاسخ مفید برای سوالات جستجوکننده‌ها در فرمت‌های مفیدتر. اگر این موضوع صحت دارد چرا امروزه حوزه سئو نسبت به چند سال پیش تغییر یافته است؟

می‌توان این بحث را مثل یادگرفتن یک زبان جدید دانست.

اول، درک زبان آموز از زبان مورد نظر بسیار محدود است اما به مرور زمان درک او عمیق‌تر شده و مفاهیم را یاد می‌گیرد – یعنی معنای پشت زبان و روابط بین کلمات و عبارات. در نهایت با تمرین کافی، زبان آموز به مرحله‌ای می‌رسد که می‌تواند ظرافت‌ها را درک کند و حتی به سوالات مبهم یا ناقص هم پاسخ دهد.

وقتی موتورهای جستجو تازه یاد گرفتن زبان ما رو شروع کرده بودند، بازی دادن این سیستم‌ها با استفاده از ترفندها و تاکتیک‌هایی بر خلاف دستورالعمل‌های کیفی این موتورها کار آسانی بود. مثلاً با استفاده از روش پرکردن محتوا از کلمات کلیدی. در آن دوره اگر می‌خواستید برای کلمه کلیدی مثل “لطیفه‌های خنده دار” رتبه بگیرید، این کلمه کلیدی را چندین بار به محتوای صفحه اضافه کرده و برجسته می‌کردید به این امید که رتبه خودتان برای آن کلمه کلیدی را ارتقاء دهید:

به سایت لطیفه‌های خنده‌دار خوش آمدید! ما خنده‌دارترین لطیفه‌های دنیا را داریم. این لطیفه‌های خنده‌دار بامزه و جالب هستند. لطیفه‌های خنده‌دار منتظر شما هستند. این لطیفه‌های خنده‌دار را بخوانید چون لطیفه‌های خنده‌دار شما را شاد و سرگرم می‌کنند….

چنین تاکتیکی تجربیات کاربری را به شدت تنزل می‌داد و کاربران به جای خواندن لطیفه‌های خنده‌دار با متنی روبرو می‌شدند که آنها را عصبانی می‌کرد و خواندنش سخت بود. شاید قدیم چنین روشی کار می‌کرد اما این چیزی نبود که موتورهای جستجو واقعاً به دنبال آن باشند.

نقش لینک‌ها در سئو

وقتی درباره لینک صحبت می‌کنیم در مجموع دو نوع لینک در نظر داریم. (۱) بک لینک یا لینک جاذبه‌ای یعنی لینک‌هایی که از سمت سایر سایت‌ها به سایت شما ایجاد می‌شوند و (۲) لینک‌های داخلی در سایت خود شما که صفحه‌ای را به صفحه دیگر لینک می‌کنند (در همان سایت).

نقش لینک ها در سئو

لینک‌ها همیشه در سئو نقش مهمی داشته‌اند. در اولین روزهای سئو، موتورهای جستجو برای تشخیص URLهای قابل اعتمادتر نیاز به کمک داشتند تا نتایج جستجو را به بهترین شکل ممکن رتبه بندی کنند. محاسبه تعداد لینک‌هایی که به یک سایت خاص اشاره دارند، به آنها برای رسیدن به این هدف کمک می‌کرد.

بک لینک‌ها شباهت زیادی به تبلیغات دهان به دهان دارند. برای مثال یک کافی شاپ را در نظر بگیرید. مثلاً قهوه جِنی (Jenny’s Coffee)

  • تبلیغ و توصیه کافی شاپ توسط دیگران = نشانه‌ای از معتبر بودن
    • مثال: خیلی از مردم اعلام کردند که کافی شاپ جنی بهترین کافی شاپ شهر است.
  • تبلیغ و توصیه توسط خود شما = جانب گرایانه است و نشانه چندان خوبی نیست
    • مثال: جنی ادعا می‌کند که قهوه جنی بهترین قهوه در شهر است
  • تبلیغ و توصیه از سمت منابع بی ربط یا کم کیفیت = نشانه چندان خوبی نیست و حتی ممکن است نوعی اسپم تلقی شود.
    • مثال: جنی به اشخاصی که هیچ وقت به کافی شاپ او نرفته‌اند پول داده تا از کافی شاپش تعریف کنند.
  • عدم وجود تبلیغ و توصیه = نامشخص بودن میزان اعتبار
    • مثال: شاید قهوه جنی خوب باشد اما نمی‌توان جایی درباره آن نظری پیدا کرد پس نمی‌توان نسبت به آن مطمئن بود.

به همین دلیل بود که PageRank شکل گرفت. PageRank (بخشی از الگوریتم اصلی گوگل) یک الگوریتم تحلیل لینک است که نام آن برگرفته از نام یکی از بنیانگذاران گوگل به نام Larry Page است. PageRank اهمیت صفحه را با ارزیابی کیفیت و کمیت لینک‌هایی که به آن اشاره دارند ارزیابی می‌کند. فرض بر این است که هر چقدر صفحه‌ای متناسب‌تر، مهم‌تر و قابل اعتمادتر باشد، لینک‌های بیشتری به دست می‌آورد.

هر چقدر لینک‌های طبیعی‌تری از وبسایت‌هایی با اقتدار بالا (قابل اعتماد) به دست آورید، شانس شما برای کسب رتبه‌های بالاتر در نتایج جستجو بیشتر می‌شود.

این مطلب را هم بخوانید  چگونه تحقیق کلمات کلیدی را در 3 مرحله ساده انجام دهید؟

نقش محتوا در سئو

اگر لینک‌ها کاربران را به سمت هیچ محتوایی هدایت نکنند، وجودشان بی فایده است. البته محتوا بسیار فراتر از کلمات است و هر چیزی را شامل می‌شود که جستجو کننده‌ها بتوانند از آن استفاده کنند – مثل محتوای ویدیویی، عکس و البته متن. اگر موتورهای جستجو ماشین پاسخ به سوالات باشند، محتوا ابزاری است که با استفاده از آن موتورهای جستجو پاسخ را ارائه می‌کنند.

هر زمان شخصی جستجویی انجام می‌دهد، هزاران نتیجه ممکن برای او وجود دارد اما موتورهای جستجو چطور می‌توانند تشخیص دهند که چه صفحه‌ای برای مخاطب مورد نظر ارزشمندتر است؟ یکی از عوامل مهم در پاسخ دادن به این سوال، میزان تطبیق محتوای صفحه با قصد کاربر از جستجو است. به عبارت دیگر آیا این صفحات با کلماتی که جستجو شده‌اند تطبیق دارند و به جستجوگر برای دستیابی به هدفش کمک می‌کنند؟

به خاطر همین تمرکز بر رضایت کاربران و انجام کار مورد نظر، هیچ شاخص دقیقی درباره اینکه طول محتوا باید چقدر باشد، چند بار باید کلمه کلیدی در آن درج شود یا چه کلماتی را باید در تگ‌های هدر درج کنید وجود ندارد. همه این عوامل می‌توانند بر عملکرد صفحه در نتایج جستجو تأثیرگذار باشند اما باید تمرکز اصلی کاربرانی باشند که محتوا را مطالعه می‌کنند.

امروزه با وجود صدها یا حتی هزاران سیگنال رتبه بندی، سه سیگنال مهم همچنان ثابت است یعنی: لینک‌های ایجاد شده به سایت شما (که به نوعی مثل نشانه معتبر بودن سایت شما عمل می‌کنند)، محتوای درون صفحه (محتوای باکیفیتی که با هدف جستجوگر تطبیق داشته باشد) و RankBrain.

RankBrain چیست؟

رنک برین (RankBrain) یکی از اجزای مبتنی بر یادگیری ماشینی در الگوریتم اصلی گوگل است. یادگیری ماشینی نوعی نرم‌افزار است که به مرور زمان و با بررسی مشاهدات و داده‌های آموزشی پیش بینی‌های خودش را ارتقاء می‌دهد. به عبارت دیگر چنین الگوریتمی همیشه در حال یادگیری است و به همین دلیل نتایج ایجاد شده توسط آن هم دائماً باید رو به بهبود باشد.

مثلاً اگر RankBrain متوجه شد که یک URL با رتبه پایین‌تر نسبت به URL با رتبه بالاتر نتیجه بهتری ایجاد می‌کند، به احتمال بسیار زیاد ترتیب نتایج را تغییر می‌دهد تا نتایج مرتبط‌تر صعود کرده و بالاتر از صفحاتی با نتایج غیرمرتبط قرار بگیرد.

الگوریتم رنک برین گوگل

همچون بیشتر موارد مرتبط با موتورهای جستجو، درباره RankBrain هم اطلاعات دقیقی در دست نیست حتی خود کارمندان گوگل هم کاملاً از این موضوع مطلع نیستند.

این موضوع چه پیامدهایی برای سئو دارد؟

از آنجایی که گوگل از RankBrain برای ترویج و تبلیغ محتوای مرتبط‌تر و مفیدتر استفاده می‌کند، پس ما هم باید بیشتر از همیشه سعی کنیم نیاز و خواسته جستجوکننده‌ها را رفع کنیم. پس سعی کنید بهترین اطلاعات و تجربه ممکن را در اختیار جستجوکننده‌هایی قرار دهید که ممکن است وارد سایت شما شوند و کارهای لازم برای ارتقای عملکرد خودتان در دنیای RankBrain را انجام دهید.

معیارهای تعامل: همبستگی، علیت یا هر دو؟

به احتمال زیاد معیارهای تعامل در رتبه بندی‌های گوگل ترکیبی از همبستگی و علیت هستند.

منظور از معیارهای تعامل داده‌هایی است که نشان می‌دهند جستجوگرها چطور با سایت شما در نتایج جستجو تعامل برقرار می‌کنند و این معیارها عبارتند از:

  • کلیک (بازدیدهای انجام شده از طریق جستجو)
  • زمان سپری شده در صفحه (میزان زمانی که بازدیدکننده قبل از ترک سایت در یک صفحه سپری کرده است)
  • نرخ دفع (درصد همه سشن‌هایی از سایت که در آنها کاربران فقط یک صفحه را مشاهده کرده‌اند)
  • پوگو استیکینگ (Pogo-sticking) (کلیک روی یکی از نتایج جستجو و بعد برگشت سریع به صفحه نتایج جستجو برای انتخاب یک نتیجه دیگر)

خیلی از آزمایش‌ها از جمله “نظرسنجی عوامل رتبه بندی سایت Moz” نشان داده‌اند که معیارهای تعامل با رتبه بالاتر تعامل دارند اما بحث علیت به میزان زیادی مورد تردید است. آیا خوب بودن وضعیت معیارهای تعامل جزء ویژگی‌های سایت‌هایی با رتبه بالا است یا این سایت‌ها به دلیل خوب بودن وضعیت معیارهای رتبه‌بندی‌شان رتبه بالایی کسب کرده‌اند؟

نظر موتور جستجو گوگل چیست؟

هر چند گوگل هیچ وقت از اصطلاح “سیگنال مستقیم رتبه بندی” استفاده نکرده اما بدون شک جهت اصلاح نتایج جستجو برای نتایجی خاص، از اطلاعات مربوط به کلیک‌های کاربران استفاده می‌کند.

به گفته Udi Manber مدیر قبلی کیفیت جستجوی گوگل:

“خود رتبه بندی هم تحت تأثیر اطلاعات کلیک قرار دارد. اگر متوجه شویم که برای یک کوئری خاص ۸۰ درصد اشخاص روی نتیجه دوم کلیک کرده و فقط ۱۰ درصد روی اولین نتیجه کلیک می‌کنند، پس از مدتی متوجه می‌شویم که به احتمال زیاد نتیجه دوم چیزی است که مردم به دنبال آن هستند پس نتایج را جابجا می‌کنیم.”

نظر دیگری از Edmond Lau مهندس قبلی شرکت گوگل:

“واضح است که هر موتور جستجوی مسئولیت پذیری از اطلاعات مربوط به کلیک‌های روی جستجو برای ارتقای هر چه بیشتر رتبه‌ها و بهبود کیفیت نتایج جستجو استفاده می‌کند. طرز استفاده دقیق از اطلاعات مربوط به کلیک مشخص نیست اما گوگل اعلام کرده که از اطلاعات مربوط به کلیک‌های کاربران برای سیستم‌هایی مثل رتبه بندی نتایج جستجو استفاده می‌کند.”

از آنجایی که گوگل باید کیفیت جستجو را حفظ کرده و ارتقاء دهد بدیهی است که معیارهای تعامل فراتر از همبستگی هستند اما ظاهراً به این دلیل گوگل معیارهای رتبه بندی را یک “سیگنال رتبه بندی” نمی‌نامد که از این معیارها برای ارتقای کیفیت جستجو استفاده شده و رتبه URLها صرفاً یک محصول جانبی از این رویکرد است.

چه تست‌هایی تأیید شده‌اند؟

تست‌های مختلف نشان داده‌اند که گوگل در واکنش به تعامل جستجوگرها، نتایج جستجو را تنظیم می‌کند:

  • آزمون سال ۲۰۱۴ Rand Fishkin باعث شد نتیجه هفتم صفحه سرچ گوگل پس از کلیک کردن حدود ۲۰۰ نفر روی لینک آن در نتایج جستجو، به جایگاه اول حرکت کند. جالب اینجاست که نتایج جستجو برای افرادی با موقعیت‌های جغرافیایی مختلف، متفاوت بود. مثلاً این رتبه در کشور آمریکا که بیشتر شرکت کنندگان در آزمایش در آن کشور حضور داشتند ارتقاء یافت اما در کانادا، استرالیا و غیره پایین باقی ماند.
  • مقایسه Larry Kim از بالاترین صفحات و وضعیت آنها قبل و بعد از پیاده سازی الگوریتم RankBrain نشان داد که الگوریتم یادگیری ماشینی گوگل رتبه صفحاتی را که کاربران زمان زیادی در آنها صرف نمی‌کنند، کاهش داد.
  • آزمایش Darren Shaw هم تأثیر رفتار کاربران بر جستجوهای محلی را نشان داد.

با توجه به مشخص بودن استفاده از معیارهای تعامل کاربران برای تنظیم نتایج جستجو و تغییر رتبه‌ها در اثر آن می‌توان گفت که مسئولان سئو هم باید به دنبال بهینه سازی نرخ تعامل باشند. تعامل منجر به تغییر کیفیت صفحه نمی‌شود بلکه نشان دهنده ارزش صفحه شما نسبت به سایر نتایج برای جستجوگرها است. به همین دلیل حتی اگر تغییری در صفحات یا بک لینک‌های شما ایجاد نشود، اگر رفتار جستجوگرها نشان دهد که سایر صفحات برای آنها بهتر هستند، ممکن است شاهد افت رتبه سایتتان باشید.

از نظر رتبه بندی صفحات وب، معیارهای تعامل مثل یک ابزار بررسی حقایق عمل می‌کنند. عوامل موضوعی مثل لینک‌ها و محتوا اول از همه رتبه صفحات را مشخص می‌کنند و بعد از آن معیارهای تعامل قرار دارند و به گوگل نشان می‌دهند که رتبه بندی را درست انجام داده یا خیر.

تحول نتایج جستجو

وقتی موتورهای جستجو فاقد پیچیدگی و امکانات امروزی بودند، اصطلاح “۱۰ لینک آبی” ابداع شد که ساختار ساده صفحه نتایج جستجو را نشان می‌داد. هر زمان جستجویی انجام می‌شد، گوگل صفحه‌ای با ۱۰ نتیجه غیر تبلیغاتی نشان می‌داد که همگی یک قالب داشتند.

صفحه نتایج موتور جستجو گوگل serp

در حوزه سئو، کسب جایگاه اول جام مقدس محسوب می‌شد اما ناگهان گوگل شروع به اضافه کردن نتایج جدید با فرمت‌های مختلف کرد که به آنها امکانات صفحه نتایج جستجو (SERP features) گفته می‌شود. بعضی از این امکانات به این شرح هستند:

  • تبلیغات پرداختی
  • Featured snippet یا پاسخ برجسته
  • کادرهای “مردم همچنین می‌پرسند”
  • نقشه‌های محلی
  • پنل دانش
  • سایت لینک‌ها

و گوگل دائماً در حال اضافه کردن این امکانات است. حتی اخیراً صفحه‌ای با صفر نتیجه را امتحان کرد که در آن فقط گراف دانش نمایش داده می‌شود و هیچ نتیجه‌ای پایین آن قرار ندارد به غیر از گزینه “مشاهده نتایج بیشتر”.

اضافه شدن این امکانات باعث شد عده‌ای به دو دلیل دچار وحشت شوند. اول اینکه خیلی از این امکانات جدید باعث می‌شد نتایج ارگانیک و طبیعی به رده‌های پایین‌تر حرکت کنند. بعلاوه، کاربران کمتری روی نتایج ارگانیک کلیک می‌کردند چون خود صفحه به خواسته آنها پاسخ می‌دهد.

اما دلیل انجام این کار توسط گوگل به تجربیات کاربران برمی گردد. رفتار کاربران نشان می‌دهد که برای بعضی از کوئری‌ها فرمت‌های محتوایی خاصی مناسب‌تر هستند. توجه کنید که چطور امکانات مختلف صفحه نتایج جستجو برای هر کوئری و برای مقاصد مختلف کاربران از جستجو متفاوت است.

قصد جستجو قابلیتی که برای آن فعال می‌شود
اطلاعاتینتیجه برجسته
اطلاعاتی با یک پاسخگراف دانش/ پاسخ فوری
محلینقشه
تراکنشیخرید

توجه داشته باشید که می‌توان پاسخ جستجوگرها را به فرمت‌های مختلفی ارائه کرد و ساختار محتوای شما تأثیر چشمگیری بر فرمت مورد استفاده برای نمایش آن در نتایج جستجو دارد.

جستجوهای محلی

موتور جستجویی مثل گوگل، ایندکس اختصاصی خودش را دارد که از داخل آن نتایج جستجوهای محلی را ایجاد می‌کند.

اگر کار سئوی محلی (Local SEO) را برای کسب و کاری انجام می‌دهید که یک شعبه فیزیکی دارد (مثل دندانپزشکی) یا کسب و کاری که خودش برای بازدید از مشتریان جابجا می‌شود (مثل لوله کشی) حتماً کسب و کارتان را در فهرست مشاغل گوگل (Google My Business Listing) ثبت و بهینه سازی کنید.

گوگل برای تعیین رتبه‌های چنین نتایجی سه شاخص دارد:

  1. میزان تناسب
  2. فاصله
  3. برجستگی

میزان تناسب

میزان تناسب یعنی اینکه کسب و کار محلی شما چقدر با آنجه جستجوگران به دنبالش هستند تناسب دارد. برای اطمینان از اینکه کسب و کارتان هر آنچه می‌تواند را در اختیار مشتریان محلی قرار می‌دهد مطمئن شوید که اطلاعات آن را به صورت دقیق و کامل پر کرده‌اید.

فاصله

گوگل از موقعیت مکانی شما برای ارائه بهترین نتایج جستجو استفاده می‌کند. نتایج جستجوهای محلی به شدت نسبت به مجاورت حساس هستند و اینکه محل جستجوکننده و یا محل مشخص شده در کوئری (اگر جستجوگر آن را درج کرده باشد) در این نتایج تأثیر چشمگیری دارند.

نتایج جستجوهای ارگانیک نسبت به محل جغرافیایی جستجوگر حساس هستند اما به ندرت شبیه به نتایج local pack محسوب می‌شوند.

برجستگی

با توجه به اینکه برجستگی هم جزء عوامل رتبه بندی محسوب می‌شود این یعنی گوگل به دنبال رتبه دادن برای کسب و کارهایی است که در دنیای واقعی هم شناخته شده باشند. علاوه بر اعتبار و برجستگی در دنیای واقعی، گوگل برای رتبه دادن به کسب و کارهای محلی یکسری فاکتور از دنیای آنلاین را هم در نظر می‌گیرد از جمله:

نظرات

تعداد نظرات دریافت شده توسط یک کسب و کار محلی و جو احساسی این نظرات که تأثیری چشمگیر بر رتبه گرفتن دارد.

ارجاع و توصیه

business citation یا business listing مرجعی آنلاین حاوی نام، آدرس و شماره تلفن مشاغل محلی در پلتفرم‌های مکانی سازی شده (مثل Yelp، Acxiom، YP، Infogroup، Localeze و غیره) است.

این رتبه‌ها تحت تأثیر تعداد ارجاعات قرار دارند. گوگل این اطلاعات را از منابع مختلف استخراج کرده و به صورت پیوسته شاخص کسب و کارهای محلی خودش را به روزرسانی می‌کند. وقتی گوگل چندین ارجاع منسجم به نام، محل و شماره تلفن یک کسب و کار پیدا کند اعتماد آن نسبت به اعتبار این داده‌ها بیشتر می‌شود. در نتیجه گوگل با درجه اطمینان بیشتری آن کسب و کارها را نمایش می‌دهد. همچنین گوگل از اطلاعات به دست آمده از سایر منابع وب مثل لینک‌ها و مقالات هم استفاده می‌کند.

رتبه‌های ارگانیک

اصول سئو برای کسب و کارهای محلی هم صدق می‌کند چون گوگل هنگام تعیین رتبه کسب و کارهای محلی، موقعیت سایت در نتایج ارگانیک را هم در نظر می‌گیرد.

نکته پایانی، تعامل

هر چند گوگل مستقیماً میزان تعامل را جزء فاکتورهای مهم در رتبه بندی ذکر نکرده اما تأثیر این فاکتور به مرور زمان بیشتر می‌شود. گوگل سعی دارد با استفاده از داده‌های لحظه‌ای و بلادرنگ مثل زمان‌های محبوب و پرکاربرد و میانگین مدت زمان بازدید، این داده‌ها را غنی‌تر کند.

popular time

و حتی به کاربران امکان می‌دهد پرسش‌های بیزنسی مطرح کنند.

Questions & Answers

بدون شک حالا بیشتر از همیشه نتایج محلی تحت تأثیر داده‌های واقعی قرار دارند. یعنی واکنش کاربران به نتایج مربوط به کسب و کارهای محلی بسیار مهم‌تر از ارائه اطلاعات ساده‌ای مثل لینک‌ها و ارجاعات است.

از آنجایی که گوگل به دنبال ارائه بهترین و مرتبط‌ترین نتایج است کاملاً طبیعی است که از داده‌های لحظه‌ای و بلادرنگ برای تعیین میزان کیفیت و تناسب محتوا استفاده کند.

هیچکدام از ما از عملکرد داخلی الگوریتم‌های گوگل مطلع نیستیم اما با کسب اطلاعات درباره نحوه یافتن، تفسیر، مرتب سازی و رتبه بندی محتوا می‌توانیم جایگاه خودمان را در صفحه نتایج جستجو ارتقاء دهیم.


[۱] scrapers

منبع: سایت Moz.com

اشتراک گذاری:

دیدگاهتان را بنویسید