آشنایی با الگوریتم های گوگل و تاثیر آن بر نتایج جستجو

آشنایی با الگوریتم های گوگل و تاثیر آن بر نتایج جستجو
چکیده این مطلب : زمان مطالعه : 13 دقیقه 2 نظر 6,537 بازدید

آیا می‌دانید که موتورهای جستجو بر چه اساسی کار می‌کنند و چه اتفاقی می‌افتد که از نظر گوگل وب سایتی نسبت به وب‌ سایت دیگری ارجحیت پیدا می‌کند؟ شما در این مطلب با الگوریتم های گوگل آشنا شده و خواهید دید گه تاثیرشان بر نتایج جستجو چگونه است؟

اخیراً یکی دیگر از الگوریتم های گوگل تحت عنوان Google MEDIC UPDATE منتشر شده است و این نشان می‌دهد که گوگل مدام در حال به روز رسانی الگوریتم های خود است. این الگوریتم‌ها به گوگل کمک می‌کنند که نسبت به مطالب و شرایط مختلف عکس العمل نشان داده و بهترین شرایط برای کاربران به وجود بیاورد. البته یکی از دیدگاه‌های اشتباهی که در مورد الگوریتم های گوگل وجود دارد این است که اکثر کاربران و وبمستران فکر می‌کنند که هر کدام از این الگوریتم‌ها یک سیستم مجزا بوده که همیشه بر روی گوگل باقی می‌مانند.

 این در حالی است که هر کدام از این الگوریتم‌ها یک آپدیت یا بروز رسانی از سیستم کلی گوگل است، که با وجود باقی ماندن آپدیت‌های قبلی، یک آپدیت جدید به آن اضافه می‌شود. به منظور درک بیشتر این موضوع و آشنایی شما با الگوریتم های گوگل، مروری کلی بر همه الگوریتم های به وجود آمده از سال 2003 تا کنون خواهیم داشت و نشان خواهیم داد که هر کدام از این الگوریتم‌ها با چه هدفی به وجود آمده‌اند.

 

الگوریتم های گوگل چه هستند؟

 قبل از هر چیزی باید بدانیم که الگوریتم های گوگل چه هستند و با چه سیستمی کار می‌کنند؟ بطور کلی الگوریتم به یک سیستم ریاضی گفته می‌شود که در جریان آن می‌توان چند موضوع دیگر را تعریف کرد و آنها را به نتیجه رساند. به عنوان مثال، فرض بگیرید که فردی می‌خواهد به یک آدرس مشخص برسد، اگر این فرد از شما بپرسد که از چه مسیری عبور کند، می‌توانیم پیشنهاد پیاده رفتن، استفاده از مترو و همچنین استفاده از اتوبوس را که سه پیشنهاد متفاوت است، به او ‌دهیم. هر سه روش او را به مقصد می‌رساند و تنها زمان رسیدن در هر کدام از آنها متفاوت است. ما می‌توانیم اسم هر کدام از این مسیرها را یک الگوریتم بنامیم.

 الگوریتم‌های گوگل به همین شیوه عمل می‌کنند و به کاربران این نکته را نشان می‌دهند که نحوه رسیدن به بهترین رتبه در گوگل به چه صورت است. تفاوتی که در این الگوریتم‌ها وجود دارد این است که او در مورد آن‌ها اطلاعات چندانی بروز نمی‌دهد تا وبمسترها فقط بر روی آنها متمرکز نشوند. این موضوع باعث می‌شود که همیشه کاربر و بازدیدکننده در اولویت قرار گیرد و مطالب مناسب دریافت کند. حالا برویم تا تک‌تک الگوریتم‌ها را با هم بشناسیم.

 

1. الگوریتم بوستون (Google Boston)

الگوریتم بوستون به عنوان اولین آپدیت و بروزرسانی الگوریتم های گوگل بود که در سال 2003 در یک کنفرانس علمی مهندسی ارائه شد. این الگوریتم، تصمیم گرفت که در روند بررسی، مطالب را به صورت ماهانه یا حتی زودتر انجام دهد. در گام‌های بعدی تغییراتی در این الگوریتم بوجود آمد که در جریان آن مطالب به صورت روزانه بررسی می‌شد و کاربران به فکر انتشار روزانه محتوا در وب سایت خود بودند.

 

2. الگوریتم فلوریدا (Google Florida)

 این الگوریتم در ماه نوامبر سال 2003 منتشر شد و به نوعی وبمسترهای آن زمان را تحت تأثیر قرار داد. در واقع در این الگوریتم به وبمسترها نشان داده شد که از چه تکنیکی برای جذب ترافیک ارگانیک استفاده کند. به عنوان مثال، استفاده از کلمات کلیدی یا حتی استفاده از لینک‌های داخلی و خارجی مواردی بود که در این الگوریتم رنگ واقعیت به خود گرفت.

 

3. الگوریتم شخصی سازی نتایج جستجو (Google Personalized Search)

این الگوریتم در ژوئن سال 2005 از طرف گوگل منتشر شد و در آن کاربران می‌توانستند از تاریخچه‌ جستجوی خود برای جستجوهای جدید استفاده کنند. در واقع، تلاش‌ها و جستجوهای قبلی کاربران در این الگوریتم ذخیره شده و گوگل در جستجوهای بعدی این موارد را به آنها نشان می‌داد. این الگوریتم نشان دهنده دسترسی گوگل برای اولین بار به تاریخچه جستجوی کاربران است.

 

4. الگوریتم جستجوی کلی (Google Universal Search)

 این الگوریتم در ماه می سال 2007 برای سهولت کاربران گوگل راه‌اندازی شد و می‌توان آن را به عنوان یکی از بهترین به‌روزرسانی‌های گوگل در نظر گرفت. تا قبل از به وجود آمدن این الگوریتم، کاربران به هنگام جستجو، نتایجی شامل تصاویر، اخبار، کتاب‌ها و موارد مشابه دریافت می‌کردند. این در حالی است که الگوریتم جستجوی کلی باعث تفکیک هر کدام از این نتایج بود و ما از این تاریخ به بعد می‌توانیم اخبار، تصاویر گوگل یا هر مطلب متفرقه دیگری را به صورت مجزا بگیریم. تصویر زیر نشان می‌دهد که منظور این الگوریتم چیست.

 

 

5. الگوریتم پیشنهاد گوگل (Google Suggest)

 پس از 4 سال استفاده آزمایشی، بالاخره الگوریتم پیشنهاد گوگل در آگوست سال 2008 راه اندازی شد. در این الگوریتم، تمرکز بر روی استفاده از عبارات کلیدی یا همان کوئری (Query) بود. این الگوریتم به کاربران کمک می‌کرد که علاوه بر کلمه یا عبارت کلیدی خود، کلمات کلیدی محبوب را نیز ببیند و از بین آنها گزینه‌های بهتر را انتخاب کنند. این الگوریتم به عنوان مقدمه برای الگوریتم Google Instant بود که در سال 2010 پیشنهاد شد و نوع پیشرفته دیگری از الگوریتم های گوگل است.

 

6. الگوریتم کافئین (Google Caffeine)

تا قبل از به وجود آمدن الگوریتم کافئین، سیستم ارائه محتوا در گوگل و نتایج جستجو به صورت لایه لایه بود که فقط سایت‌های دارای رتبه بالاتر در همان جستجوی اول نشان داده می‌شدند و اغلب سایت‌های جدید دیده نمی‌شدند. گوگل برای حمایت از وب سایت‌های جدید و وب سایت‌های ضعیف‌تر، در سال 2009 یک الگوریتم به نام الگوریتم کافئین معرفی کرد که راه اندازی آن به ژوئن 2010 موکول شد. در این سیستم دیگر خبری از لایه بندی بودن سایت‌ها با توجه به قیمت آنها نبود و در حقیقت جستجوی کاربران به صورت کلی و در بین همه سایت‌ها انجام می‌گرفت.

 

7. الگوریتم پاندا (Google Panda)

الگوریتم پاندا در ابتدا با نام Farmer منتشر شد که به نوعی به صورت غیرمستقیم ریز شدن گوگل در مزارع محتوا و ارائه یک محتوای با کیفیت توسط وی را نشان می‌داد. اما در هر صورت این الگوریتم در سال 2011 با نام رسمی پاندا ارائه شد که نام آن از نام مهندس سازنده الگوریتم برگرفته شده است. در حقیقت این الگوریتم در پاسخ به تعداد روز افزون شکایت جامعه جهانی به سایت‌های با محتوای بی‌کیفیت ساخته شد. پاندا عمدتاً به سراغ سایت‌هایی با محتوای ضعیف می‌رود که مطالب سایر سایت‌ها را کپی کرده و به عنوان محتوای خود منتشر می‌کنند. الگوریتم پاندا یکی از مهم‌ترین ابزارهای بود که با هدف مبارزه با نتایج جستجوی خاکستری یا همان سئو کلاه خاکستری به وجود آمد.

 

 

 

8. الگوریتم پنگوئن (Google Penguin)

الگوریتم پنگوئن را می‌توان الگوریتم تراشکار گوگل معرفی کرد که هدف اصلی آن کاهش رتبه بندی سایت‌هایی بود که از طریق غیر قانونی و با نقض دستورالعمل‌های کیفی گوگل خود را به رتبه‌های بالاتر رسانده بودند. این الگوریتم در ماه آوریل سال 2012  منتشر شد و هنوز هم به عنوان یکی از مهمترین اصول کار گوگل شناخته می‌شود.

اصولاً سایت‌هایی که از تکنیک‌های مختلف مانند روش‌های اسپم، به کار بردن بیش از حد کلمات کلیدی و همچنین لینک‌های غیرقانونی استفاده می‌کنند، آمار بازدیدها و ترافیک و ارگانیک را کاهش می‌دهند. این به روزرسانی در الگوریتم های گوگل سایت‌های مختلف استفاده کننده از سئو کلاه سیاه را به شدت مجازات می‌کند. بنابراین وبمسترها مجبور هستند که سایت‌هایی با کیفیت محتوای بالا ایجاد کنند و تجربیات مثبتی در اختیار کاربران قرار دهند تا تجربه کاربری وب سایت نیز رشد کند.

به طور کلی، مبارزه با لینک‌های به دست آمده از سایت‌های اسپم، تشخیص لینک‌های پولی و یا کلیک‌های خریداری شده و همچنین تشخیص بهینه سازی بیش از حد، از نقاط قوت پنگوئن هستند.

 

9. الگوریتم Google Knowledge Graph

این مورد از الگوریتم های گوگل به این دلیل راه اندازی شده که کاربران و جستجوگران خیلی راحت‌تر و سریع به اطلاعات علمی دسترسی داشته باشد. الگوریتم Google Knowledge Graph در ماه می سال 2012 معرفی شد و روال کار آن بدین صورت است که‌ یک نمودار از اطلاعات در سمت راست نتایج به کاربر نشان می‌دهد. گوگل اعلام کرده است که این الگوریتم به درک بهتر جستجوگران از جهان واقعی و روابط آنها با یکدیگر کمک می‌کند. جالب است بدانید که این الگوریتم در هنگام راه‌اندازی، اطلاعات مربوط به 500 میلیون شی خاص و همچنین اطلاعات درباره ارتباط بین سه و نیم میلیارد مورد مختلف را، به‌طور کامل داشته است.

برای درک این موضوع توصیه می‌کنم که کلمه مدیر وب را در گوگل سرچ کنید. نتایج جستجو علاوه بر اطلاعات و موارد معمولی که در هر حالتی نشان داده می‌شوند، یک نمودار مجزا در سمت راست را نیز نمایش می‌دهد که به عنوان اطلاعات تکمیلی به شما داده می‌شود. این اطلاعات معمولاً شامل آدرس، نوع کسب و کار و حوزه فعالیت کلمه کلیدی جستجو شده است.

 

 

10. الگوریتم مرغ مگس خوار (Google Hummingbird)

 به مرور زمان، گوگل متوجه شد که عکس العمل جستجوگران نسبت به کوئری ها بسیار خاص و منحصر به فرد است و ترجیحاً آنها به شکلی است که فقط به سراغ یک عبارت یا چند کلمه مربوطه بروند. این موضوع نشان می‌داد که کاربران نسبت به نتایج جستجو حساسیت بالایی دارند و ترجیح می‌دهند که نتایج بسیار نزدیک‌تر و دقیق‌تر باشد. بنابراین یکی دیگر از الگوریتم های گوگل تحت عنوان الگوریتم مرغ مگس خوار در سال 2013 منتشر شد.

 این الگوریتم نسبت به مدل‌های قبلی تغییر آن چنانی و بسیار بزرگی نداشت، اما توانایی آن بسیار مهم و تاثیرگذار بود که باعث جلب رضایت کاربران می‌شد. جستجو‌های گوگل نشان می‌دهد که استفاده از الگوریتم مرغ مگس خوار تقریباً نزدیک به 90 درصد از نتایج جستجو را تحت تأثیر قرار داده و نتایج بهینه شده را به کاربران عرضه می‌کنند.

 

11. الگوریتم کبوتر (Google Pigeon)

 توصیه می‌کنم که در همین ابتدا به کبوتر نامه بر فکر کنید تا درک درستی از این الگوریتم داشته باشد. الگوریتم کبوتر ژوئن سال 2014 توسط شرکت گوگل معرفی شد که برای جستجوهای محلی طراحی شده است. این الگوریتم جدید به گوگل این امکان را می‌دهد که از بین نتایج مختلف، بهترین گزینه را از نظر موقعیت مکانی و جغرافیایی پیشنهاد دهد. در واقع الگوریتم کبوتراز قابلیت الگوریتم پیشنهاد گوگل، الگوریتم نمودار دانش، الگوریتم تشخیص زبان و همچنین الگوریتم مرغ مگس‌خوار خود استفاده می‌کند تا بهترین گزینه ممکن را با توجه به موقعیت مکانی جستجوگر، به او پیشنهاد دهد. این یکی از جامع‌ترین و بهترین الگوریتم های گوگل در جستجوهای محلی است.

 

12. الگوریتم Mobilegeddon

 شرکت گوگل با توجه به پیش بینی‌هایی که در مورد استفاده از گوشی‌های هوشمند و روند رو به رشد کاربرد آنها داشته است، یک الگوریتم به همین موضوع اختصاص داده است. الگوریتم جدید Mobilegeddon در ماه آوریل سال 2015 پخش شد و وظیفه آن بررسی وب سایت‌های مرتبط با تلفن همراه و محتوای آنهاست. در واقع این الگوریتم در نگاه کلی به وب سایت این نکته را مد نظر قرار می‌دهد که سایت مورد نظر تا چه اندازه متناسب با گوشی‌های هوشمند و تبلت‌ها طراحی شده است. حتماً بحث ریسپانسیو بودن طراحی سایت را شنیده‌اید که دقیقاً برای تناسب با این الگوریتم مطرح شده‌است.

 

13. الگوریتم رنگ برین (Google RankBrain)

شرکت گوگل الگوریتم رنک برین را بدین شکل معرفی می‌کند که یک سیستم هوش مصنوعی یادگیری ماشین است که موتورهای جستجو را در ایجاد رابطه بین کلمات مختلف کمک کرده و نتایج را بهینه سازی می‌کند. کاری به معنی تحت اللفظی این الگوریتم نداریم و بیشتر می‌خواهیم عملکرد آنها را بررسی کنیم. فرض بگیرید که شما در مورد الگوریتم های گوگل جستجو می‌کنید. در الگوریتم رنک برین، نتایج مختلفی با توجه به این کلمه کلیدی بررسی می‌شود و نزدیک‌ترین آنها را به شما پیشنهاد می‌دهد. در واقع، این الگوریتم مانع می‌شود که نتایج مربوط به خود کلمه گوگل یا خود کلمه الگوریتم در نتایج اصلی آورده شود تا کاربر نتایج را به صورت دقیق و مرتبط دریافت کند.

 

 

14. الگوریتم موش کور (Possum)

الگوریتم موش کور را می‌توان نسخه بهبود یافته الگوریتم کبوتر معرفی کرد که در سپتامبر سال 2016 معرفی شد. این الگوریتم پا را فراتر گذاشته و محدوده جستجوهای محلی را بسیار کوچک‌تر کرده است. به عنوان مثال، این الگوریتم به شما این امکان داده می‌شود که کسب و کارهای خارج شهر را از کسبوکارهای داخل شهر تفکیک کنید. حتی با کمک این ابزار امکان تعیین مسافت تا محل مورد نظر نیز به جستجوگران داده می‌شوند. به طور کلی مزایای استفاده از الگوریتم موش کور در سه مورد خلاصه می‌شود:

این الگوریتم مشاغل و کسب و کارهای خارج از محدوده شهری را نسبت به مشاغل داخل شهر تفکیک می‌کنند تا تناسب آنها با کلمه‌ کلیدی بهتر باشد؛

از این الگوریتم برای فیلتر کردن مکان‌های نزدیک به هم و دارای آدرس یکسان استفاده می‌شود؛

محل فیزیکی فرد جستجوگر یا تایپ کننده تأثیر زیادی بر نتایج دارد. این یعنی اگر شما در منطقه خاصی از تهران به دنبال رستوران بگردید، بدون شک الگوریتم موش کور شما را به سراغ گزینه‌هایی می‌برد که به منطقه مورد نظر نزدیک‌تر باشد.

 

15. الگوریتم پنگوئن نسخه 4

 بروزرسانی و آپدیت کردن فقط به معنای معرفی نسخه‌های جدید نیست و می‌توان الگوریتم های گوگل را با شیوه‌های مختلف به روز رسانی کرد. یکی از این موارد، الگوریتم پنگوئن 4 است که در سال 2016 و در سپتامبر معرفی شد. این نسخه از الگوریتم پنگوئن دو مزیت بزرگ دارد که یکی از آنها به کار بردن جستجوی زمان لحظه‌ای در نتایج است. یعنی در این لحظه نتایج جستجو با 5 دقیقه دیگر ممکن است تفاوت داشته باشد.

همچنین در نسخه 4 این الگوریتم برای کسانی که در نسخه‌های قبلی متضرر شده‌اند راهکارهایی پیشنهاد شده است که بتواند رتبه‌های قبلی خود را به دست می‌آورند. در واقع اگر این افراد یا وب سایت‌ها اقدامات لازم برای پاکسازی لینک‌های اسپم و دیدگاه‌های بدون هویت انجام دهند، به همان رتبه قبلی خود برمیگردند.

 

16. الگوریتم Intrusive Interstitial Penalty

 ظهور الگوریتم Intrusive Interstitial Penalty در ماه ژانویه سال 2017 را می‌توان بهترین خبر برای جستجوگران و بازدیدکنندگان در نظر گرفت. در حقیقت، این یکی از بهترین الگوریتم های گوگل برای ایجاد تجربه کاربری خوب و مناسب بین کاربران است. حتماً این تجربه را داشته‌اید که با مراجعه به یک سایت، بلافاصله یک پاپ آپ باز می‌شود یا یک صفحه مزاحم جلوی چشم شما قرار می‌گیرد که حتماً باید آن را ببندید. این موضوع بارها و بارها تکرار می‌شود و در نتیجه کاربر از حضور در چنین سایتی پشیمان می‌شود.

گوگل برای جلوگیری از این موضوع، الگوریتم Intrusive Interstitial Penalty را معرفی کرده است. این الگوریتم سه دسته از وب سایت‌ها را مجازات می‌کند:

وب سایت‌هایی که دارای یک صفحه نمایش پنجره‌ای هستند که بلافاصله پس از ورود کاربر به وب سایت، باز شده و کاربر مجبور است که آن را ببندد؛

وب سایت‌هایی که یک کادر و مستطیلی تبلیغاتی در جلوی چشم کاربر قرار می‌دهند و بازدیدکننده مجبور است که برای رسیدن به محتوای اصلی آن را رد کند؛

وب سایت‌هایی که در بخش فوقانی صفحه اصلی خود یک کادر می‌گذارند که محتوای آن با محتوای اصلی وب سایت متفاوت است و ممکن است کاربر را از موضوع اصلی دور کند.

 

 

17. الگوریتم فرد (Google Fred)

به روز رسانی الگوریتم فرد در ماه مارس سال 2017 رخ داد. این الگوریتم بیشتر سایت‌های را مورد هدف قرار می‌داد که کسب درآمد و تبلیغات را بیش از تجربه کاربران در اولویت خود قرار می‌دهند. استفاده از اسم فرد برای این الگوریتم توجیه خاصی ندارد و در واقع طراح آن، به نوعی از یک اسم شوخی و غیر رسمی برای آن استفاده کرده است.

وب سایت‌هایی با محتوای بی‌کیفیت، دارای لینک‌های نامطلوب و نرخ تبدیل بیش از حد، پاپ آپ ها وشیوه های تبلیغاتی بیش از حد بر روی صفحه، به اصطلاح به دنبال کم کردن ترافیک ارگانیک و بردن کاربران به سمت انتقال بازدید هستند. جالب است بدانید که بعضی از این سایت‌ها تا 90 درصد از ترافیک خود را به جاهای دیگر منتقل می‌کنند و از حربه‌هایی مانند تبلیغات بنری و تبلیغات کلیکی استفاده می‌کند.

 الگوریتم فرد به این وب سایت‌ها اجازه کار نمی‌دهد و معتقد است که این موضوع به کاربران گوگل لطمه می‌زند. بنابراین، وب سایت‌هایی که از این شیوه استفاده می‌کنند، باید در انتظار مجازات گوگل باشند که همان پنالتی شدن است.

 

18. الگوریتم Google BROAD CORE

در 1 آگوست سال 2018، گوگل در توییتر تأیید کرد که در این هفته به روز رسانی الگوریتم های مرکزی به شکل گسترده انجام گرفته است. با وجود اینکه گوگل هر روز تغییراتی به صورت ریز و غیر محسوس در نتایج خود به وجود می‌آورد، اما برخی از آنها گسترده‌تر و متمرکزتر هستند. این مورد باعث می‌شود که الگوریتم های جدیدی به وجود بیایند که این الگوریتم نیز در بین آنها قرار می‌گیرد. کارایی الگوریتم Google BROAD CORE این است که هیچ کدام از وب سایت‌ها محل امنی برای حضور ندارند و اگر یک وب سایت بتواند محتوای عالی و با کیفیت و البته «تخصصی» تولید کند، بدون توجه به رتبه سایت، می‌تواند خود را به بالاترین رتبه ممکن برساند.

 

19. الگوریتم Google MEDIC UPDATE

 این الگوریتم بخشی از الگوریتم اصلی Google BROAD CORE است که همزمان با آن شروع به کار کرده است. در ابتدا از این الگوریتم با عنوان Medic یاد می‌شد، زیرا بیشتر وب سایت‌های مربوط به بخش پزشکی و بهداشتی را تحت تأثیر قرار می‌دهد. اما بعد از مدتی گوگل با تغییراتی در آن، اعلام کرد که حوزه‌های دیگر صنعتی و حقوقی را نیز توسط این الگوریتم تحت تأثیر قرار می‌دهد.

این در واقع یک ترفند از طرف گوگل برای تقویت سایت‌های تخصصی است. اما می‌بینید که برای این یک مطلب پزشکی تخصصی وقتی جستجو می‌کنید، بیشتر وبلاگ‌هایی بالا می‌آیند که رتبه بهتری دارند. با وجود الگوریتم Medic، این موضوع منتفی شده و شما برای هر بحث تخصصی به همان وبسایت تخصصی آن هدایت می‌شوید.

 

 

 

نتیجه‌گیری

 پس می‌بینیم که روند رشد الگوریتم های گوگل بیشتر به سود کاربران و برای به دست آوردن مطالب مرتبط است. در حقیقت، گوگل این موضوع را در نظر گرفته که اکثر جستجوگران، افرادی با سطح دانش معمولی هستند که تنها کلید واژه را وارد می‌کنند و با جستجوی تخصصی آشنایی ندارند. حالا باید منتظر بمانیم تا ببینیم که گوگل در سال‌های بعدی چه تغییراتی در الگوریتم های خود به وجود می‌آورد. 

 

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *