آپدیت الگوریتم های گوگل بدون دانش فنی

مهمترین الگوریتم‌های گوگل و آپدیت‌هایی که هر ساله روی آنها اعمال می‌شود

استفاده هوشمندانه از این فرصت‌ها می‌تواند به افزایش ترافیک ارگانیک و ارتقای تجربه کاربری کمک کند. استفاده از روش‌های اخلاقی و منطبق با دستورالعمل‌های گوگل اهمیت زیادی دارد. این روش‌ها شامل تولید محتوای اورجینال و ارزشمند، لینک‌سازی طبیعی، و اجتناب از تکنیک‌های کلاه سیاه مانند پرکردن کلمات کلیدی یا خرید لینک‌های بی‌کیفیت است. به عنوان مثال قبلا اگر یک رستوران در تهران بود، دیگر در نتایج شهر شیراز نمایش داده نمی‌شد، اما بعد از ظهور این الگوریتم، این رستوران در نتایج سایر شهرها نیر قابل مشاهده است. موتور جستجوی گوگل با آپدیت کردن مدام الگوریتم‌های خود، توانسته به هدف خود که نشان دادن جستجوهای مرتبط به کاربران است، برسد و تجربه مثبت را برای آن‌ها فراهم کرده است. گوگل از دو الگوریتم یعنی الگوریتم معمولی و core algorithm برای بررسی محتوای وب‌سایت‌ها استفاده می‌کند.

به همین دلیل است که اکثر این الگوریتم‌ها، تشویقی نیستند؛ بلکه اگر آن‌ها را رعایت نکنید، با کاهش رتبه‌ در گوگل مواجه می‌شوید. این الگوریتم عمدتا برای سایت هایی با شکایت های چندگانه درباره محتویات ساخته شده است. الگوریتم دزد دریایی به تنهایی قادر به تغییر رتبه بندی صفحه نتایج گوگل نیست. اکثر سایت های تحت تاثیر این الگوریتم حاوی فیلم، موسیقی یا کتاب های موجود برای دانلود یا مشاهده هستند. گوگل همچنین شامل ردیاب های تورنت و جمع آوری لینک های سرویس مشترک به این دسته از سایت ها می باشد.

گوگل تاریخچه‌ای طولانی از به‌روزرسانی‌های معروف الگوریتم‌ها، تغییرات در شاخص‌های جستجو و تازه‌سازی‌ها دارد. Google Hummingbird نگاهی عمیق و کلی‌تر روی محتواها دارد و با درک مفاهیم موجود روی وبسایت‌های مختلف، کاربران را به هدف‌شان نزدیک‌تر می‌کند و محتواهای بهتری را در اختیار آنان قرار می‌دهد. اگرچه در ابتدای امر این تاثیر کوچک بود اما پس از آن گوگل از تاریخچه جستجو کاربران برای مقاصد مختلفی استفاده کرد. اگرچه صفحات مکان‌های گوگل (Google places) در شهریور 1388 (سپتامبر 2009) معرفی شدند اما در آن زمان فقط بخشی از گوگل مپ (Google Maps) بودند. راه اندازی گوگل پلیس (Google Places) مرکز کسب و کارهای محلی (Local Business Center) گوگل را هم باز تعریف کرد.

گوگل گفت که وب سایت ها نباید انتظار داشته باشند که در نتیجه این به روز رسانی تغییرات قابل توجهی را مشاهده کنند و هرگونه کاهش یا بهبود ناگهانی باید تدریجی اتفاق بیفتد. سیستم بازبینی، برای ارزیابی مقالات، پست‌های وبلاگ، صفحات یا سایر محتوای مستقل نوشته شده با هدف ارائه توصیه‌ها، نظرات یا تجزیه و تحلیل طراحی شده. این سیستم بررسی های شخص ثالث، مانند آنچه توسط کاربران در بخش بررسی یک صفحه محصول یا خدمات ارسال شده رو ارزیابی نمی کنه. زیرا دانستن اینکه الگوریتم های گوگل در سئو چه کاربردی دارند، میانبری است که می‌توانید از جریمه شدن توسط گوگل در امان باشید. اگر رتبه سایت شما بعد از آپدیت‌های گوگل افت کرده است، برای شناسایی مشکل و حل آن می‌توانید از مشاورین ما کمک بگیرید.

رشته کاربرعامل (User Agent) مربوط به GoogleProducer به‌روزرسانی شد تا با مقدار واقعی استفاده شده در فچ‌های آتی هماهنگ شود. راهنمای مربوط به اسکرول بی‌نهایت از پست وبلاگ به مستندات گوگل منتقل شد. 29 نوامبرحذف مستندات جعبه جستجوی Sitelinksچه چیزی تغییر کرده؟مستندات مربوط به جعبه جستجوی Sitelinks حذف و قانون nositelinkssearchbox بایگانی شد. چرا این تغییر انجام شده؟اگرچه این اطلاعات قبلا به صورت پست وبلاگ منتشر شده بود، اما هرگز به‌طور رسمی در مستندات قرار نگرفته بود. چرا این تغییر انجام شده؟اگرچه این اطلاعات پیش‌تر به‌صورت پست وبلاگ منتشر شده بود، اما تاکنون به‌طور رسمی در مستندات قرار نگرفته بود.

سئو محلی تأثیر قابل توجهی بر رونق کسب و کارهای کوچک و همچنین تجربه کاربران در دریافت نتایج بهتر از جستجوهای خود داشته است. یادداشت‌هایی اضافه شده که توضیح می‌دهد هر کرالر بر کدام محصول تأثیر می‌گذارد و قطعه‌ای از robots.txt برای هر کرالر جهت استفاده از توکن‌های کاربرعامل آورده شده است. Google Trends به شما کمک می‌کند تا بهتر درک کنید مردم چگونه اطلاعات را در جستجوی گوگل پیدا می‌کنند. این ابزار می‌تواند در توسعه استراتژی محتوای شما و بهبود ارتباط با مخاطبانتان مفید باشد. اما آپدیت‌های الگوریتم گوگل معمولا تاثیر بزرگ‌تر و قابل توجه‌تری دارند. آپدیت‌های الگوریتم گوگل می‌توانند منجر به پیروزی‌ها یا شکست‌های بزرگ در رتبه‌بندی، ترافیک و درآمد شوند.

سیستمی که طراحی شده تا اطمینان حاصل شود که مردم محتوای اصلی و مفید را بهتر می‌بینند، نه محتوایی که اساساً برای به دست آوردن ترافیک موتورهای جستجو ساخته شده است. هدف سیستم‌های جستجوی Google جلوگیری از ارائه صفحات وب تکراری یا تقریباً تکراری است. و چون سبکی که استفاده می‌کنم بر پایه واقعیات سئو و ارائه ارزش به کاربر است. من بعد از هر آپدیت گوگل خوشحال میشوم چرا که افزایش ترافیک یا رتبه دارم. بعضی از افراد، دچار وسواس در مورد پیگیری الگوریتم‌های گوگل شده‌اند و مدام در حال پیگیری تغییرات و آپدیت‌‌های جدید هستند. آشنایی با این الگوریتم‌های قدیمی به شما امکان می‌دهد تا درک بهتری از سئو امروزی پیدا کنید.

در واقع، روش گوگل این بود که با استفاده از الگوریتم هیلتاپ، سایت‌های منابع مرجع را تشخیص داده و سپس از طریق آن‌ها سایت‌های معتبر را شناسایی می‌کرد. این سایت‌ها اغلب از محتوای ناکارآمد به عنوان منبع ترافیک خود استفاده می‌کردند. معمولاً، ما می‌شنویم که گوگل به مردم توصیه می‌کند که این کار را انجام دهند. برای دسترسی آسان‌تر به این راهنما که پیش‌تر تنها در مستندات مربوط به جاوااسکریپت و سایت‌های موبایلی ذکر شده بود. توضیح داده شد که AI Overviews در گزارش عملکرد کنسول جستجو ثبت می‌شوند.

علاوه بر این، تا قبل از انتشار آپدیت الگوریتم برت، رنک برین مهم‌ترین تغییر در آپدیت الگوریتم گوگل به شمار می‌رفت. مت کاتس به‌روزرسانی داده‌های الگوریتم پنگوئن را اعلام کرد که کمتر از 0.1 درصد از جستجوهای انگلیسی را تحت تأثیر قرار می‌دهد. وب‌سایت‌هایی که رتبه‌بندی خود را مشاهده کردند در اولین راه‌اندازی پنگوئن کاهش یافتند و آن‌هایی که در پاک کردن پروفایل لینک خود فعال بودند، بهبودهایی را تجربه کردند. به عنوان مثال محتوایی که در خصوص موقعیت جغرافیایی تهران توضیح می­‌دهد نیاز به آپدیت ندارد؛ این در حالی است که اگر وب سایتی در خصوص معرفی شهردار فعلی تهران محتوایی ارائه داده است، بدون شک باید به روز باشد. توجه داشته باشید گوگل با استفاده از الگوریتم­ تازگی محتوا مطالب تازه و به روز را به کاربران  ارائه می­دهد و برای صفحاتی که اطلاعات منسوخ شده ارائه داده‌اند، رتبه‌ای در نظر نمی‌گیرد.

علاوه بر تعداد پیوندها، اهمیت و اعتبار صفحاتی که پیوندها را ارائه می‌دهند نیز در نظر گرفته می‌شود. بنابراین، صفحاتی که بیشترین و معتبرترین پیوندها را دریافت می‌کنند، امتیاز بالاتری در الگوریتم پیج رنک به دست می‌آورند. الگوریتم هیلتاپ، یکی از الگوریتم‌های قدیمی و مهم گوگل است که در سال ۲۰۰۳ معرفی شد و باعث تأثیرات قابل توجهی در نتایج موتورهای جستجو شد. از قبیل تغییرات و جدیدترین آپدیت ها و بروزرسانی ها تا مواردی و تاثیرات این الگوریتم ها بر روی نتایج جستجو. چرا این تغییر انجام شده؟توصیه می‌کنیم سیستمی را پیاده‌سازی کنید که تنها امتیازات و بررسی‌هایی را بپذیرد که همراه با یک نظر (Review Comment) و نام نویسنده ارائه شوند. این روش می‌تواند به کاربران کمک کند تا بهتر زمینه و مفهوم یک امتیاز خاص را درک کنند.

به طور مشترک سه شرکت گوگل، یاهو و ماکروسافت اعلام کردند که از تگ کنونیکال پشتیبانی خواهند کرد تا به این ترتیب وبمستران بتوانند بدون تاثیر بر کاربران، URLهای قانونی و اصلی را برای ربات‌های موتورهای جستجو مشخص کنند. این بار گوگل می‌توانست به صورت زنده و واقعی برخی از جدیدترین توییت‌ها، اخبار گوگل (google news)، محتواهای اخیرا ایندکس شده را در برخی از صفحات نتایج جستجو خود نمایش دهد. همچنین گوگل تلاش می‌کند تا از منابع بیشتری همانند شبکه‌های اجتماعی برای گسترش این ویژگی خود استفاده کند. یک هفته بعد از پاندا 3.5، گوگل بار دیگر یک بروزرسانی برای داده‌های مربوط به پاندا ارائه کرد. پیامدهای این به روزرسانی نامشخص بود و به نظر می‌رسد که تأثیرات این آپدیت نسبتاً اندک هستند. در نمایشگاه بازاریابی جستجو (Search Marketing Expo) مت کاتس (Matt Cutts) نوید یک به روز رسانی جدید برای پاندا داد.

بعد از راه اندازی مرکز کسب و کارهای محلی (Local Business Center به اختصار LBC) در اسفند 1383 و تشویق مشاغل برای بروز رسانی اطلاعاتشان، گوگل داده‌های نقشه خود را (Google Maps) در LBC ادغام کرد. اقدامی که در نهایت باعث ایجاد تغییرات زیادی در سئو محلی (Local SEO) شد. البته این بروزرسانی در نهایت در اوایل سال 2010 در ایالات متحده منتشر شد. بعد از چندین ماه گوگل یک بروزرسانی دیگر برای الگوریتم پاندا خود ثبت کرد تا این بروزرسانی هفتمین آپدیت الگوریتم پاندا از زمان معرفی رسمی آن نامگذاری شود. اگرچه اطلاعات دقیقی از این بروزرسانی در دسترس نبود، اما تعدادی از سایت‌ها خبر از تغییرات شدید ترافیک و رتبه خود دادند. این آپدیت هم شامل تغییر در الگوریتم و هم استفاده از داده‌های تازه‌تر می‌شود.

و با توجه به اینکه 92% جستجوهای انجام شده در دنیای دیجیتال توسط موتور جستجوی گوگل انجام می‌شود، این نکته برای کسب و کار شما بسیار حیاتی است که حتماً شانس دیده شدن خود را در این پلتفرم افزایش دهید. برای اینکه همیشه از رقبای خود جلوتر باشید، نیاز دارید اطلاعات و داده‌های خود را به روز کرده و از تغییرات الگوریتم گوگل آگاه باشید. در چنین شرایطی می‌توانید فعالیت‌های مربوط به سئو سایت خود را در مسیری مطمئن و رو به رشد ادامه دهید. وب‌مسترها و رتبه‌بندی‌های سئو در 19 تا 20 آگوست نوساناتی را تجربه کردند که می‌تواند نشان دهنده بهبود کیفیت دیگری (تایید نشده) گوگل باشد. در میان بازنده‌های اصلی این به روزرسانی می‌توان به صفحه‌های دسته‌بندی ضعیف، صفحات یا برگه های عادی ضعیف، تبلیغات، محتوای با کیفیت پایین و سایر تجربیات ضعیف کاربر، توسط Glenn Gabe، رئیس GSQi Analysis اشاره کرد. برخی فرضیه ها وجود دارد که گوگل آزمایش این الگوریتم را از 14 آگوست آغاز کرده است زیرا صفحات آسیب دیده امروز 19 آگوست بیشتر تحت تأثیر قرار می گیرند.

الگوریتم گوگل فرد به ترغیب سایت‌ها به تولید محتوای با معنا و با ارزش برای جستجوگرها و نیز تغییر سیاست‌های سئو سایت‌های تجاری کمک زیادی کرد. از نظر این الگوریتم تبلیغات بیش از حد، محتواهای وبلاگی صرفاً برای رتبه گیری از گوگل، محتواهای کوتاه و کم حجم، تجربه کاربری نامناسب، ناسازگاری سایت با دیوایس های مختلف و محتواهای بی کیفیت اسپم شناخته می‌شود. در الگوریتم‌های مدرن، تمرکز بیشتری بر کیفیت محتوا و نحوه تعامل کاربران با سایت گذاشته شده است. الگوریتم‌هایی مانند RankBrain از هوش مصنوعی برای درک بهتر زبان و مفاهیم جستجو استفاده می‌کنند، در حالی که Panda برای شناسایی محتوای بی‌کیفیت و تکراری طراحی شده است. الگوریتم Penguin به بررسی لینک‌های اسپم و روش‌های غیرمجاز لینک‌سازی می‌پردازد، و Hummingbird تلاش می‌کند تا هدف واقعی جستجوی کاربران را بهتر درک کند و نتایجی منطبق بر نیاز آنان ارائه دهد. این تکامل نشان‌دهنده اهمیت روزافزون معیارهایی مانند کیفیت محتوا، تجربه کاربری، سرعت سایت، سازگاری با موبایل و انطباق نتایج جستجو با قصد کاربر است.

قبل از الگوریتم گوگل پنگوئن، حجم و تعداد لینک‌های موجود در یک صفحه از سایت مهم‌تر از کیفیت محتوا بود. از این رو برخی از سایت‌ها برای دور زدن گوگل از خرید لینک و یا شرکت کردن در شبکه‌های لینکی استفاده می‌کنند. الگوریتم پنگوئن که اکنون یکی از الگوریتم‌های هسته‌ای گوگل محسوب می‌شود، کمک کرد تا این موتور جستجو کنترل بیشتری بر روی تکنیک‌های اسپم و محتواهای بی ارزش داشته باشد. الگوریتم‌هایی که در بخش‌های قبل معرفی شد، تنها بخشی از الگوریتم‌های مورد استفاده گوگل برای رتبه‌بندی نتایج جستجو هستند. وظیفه این الگوریتم‌ها، بررسی عملکرد و کیفیت وب‌سایت‌های مختلف است که هرکدام یک یا چند بخش خاص را بررسی می‌کنند و در نهایت با در نظر گرفتن همه عوامل، سایت‌ها در نتایج جستجو رتبه‌بندی می‌شوند.

نشونت در کنار شماست تا با خدمات دیجیتال مارکتینگ همچون طراحی سایت، سئو، تولید محتوا و ارائه مشاوره به شما کمک کنه بتونید این مسیر صحیح رو بدون دغدغه طی کنید. این به روز رسانی توسط گوگل تایید نشد، اگرچه ابزارها می گویند که در همان روز اتفاق افتاد. گوگل می گوید که این آخرین به روز رسانی قبل از اینکه پاندا بتواند مستقیماً به الگوریتم اصلی گوگل اضافه شود، خواهد بود. در عوض، Panda Data Refresh به صورت ماهانه در یک دوره 10 روزه بدون تأیید بیشتر از طرف Google شروع شد. اگرچه رنگ برین توسط گوگل از آوریل 2015 آزمایش شده است، اما آپدیت RankBrain به تازگی اعمال شد.

همینطور صفحات مکان‌ها (Places) هم با نتایج جستجو محلی ادغام شدند و گزینه‌های جدیدی همانند تبلیغات محلی (Local Advertising) هم اضافه شدند. اگرچه این اتفاق یک بروزرسانی مثل سایر آپدیت‌های گوگل نیست باعث شد که یک دامنه بتواند بیشتر از یکبار در نتایج جستجو گوگل ظاهر شود. تا پیش از این، دامنه‌ها محدود به 1-2 بار نمایش در نتایج گوگل و یا یکبار همراه با نتایج تورفته محدود بودند. گوگل خبر از تغییر در نحوه برخورد با دامنه‌های کاملا منطبق (EMDs) داد. این تغییر به نحوی رهبری کننده یک جریان بزرگ در کاهش ارزش دامنه‌های کاملا منطبق یا Exact-Match Domains بود. داده‌های MozCast کاهش 10 درصدی حضور دامنه‌های کاملا منطبق (EMDs) را در نتایج گوگل نشان می‌داد.

حدود 90 دقیقه بعد، او اعلام کرد که به روز رسانی در حال انجام است و 1-2 هفته زمان نیاز دارد تا عرضه شود. Google Search Liaison از طریق توییتر اعلام کرد که قسمت دوم آپدیت اسپم آنها از 28 ژوئن آغاز شده و احتمالاً در همان روز به پایان خواهد رسید. اعلامیه اولیه درباره پستی در وبلاگ مرکزی جستجوی گوگل بود که در آوریل 2021 درباره نحوه مبارزه گوگل با جستجوهای هرزنامه تا سال 2020 به روز شد. هدف از سیستم محتوای مفید، پاداش بهتر به محتوایی است که بازدیدکنندگان احساس می کنند تجربه رضایت بخشی داشته است، در حالی که محتوایی که انتظارات بازدیدکنندگان را برآورده نمی کند، عملکرد خوبی نخواهد داشت. این آپدیت که 29 روز طول کشید، تاثیر لینک سازی اسپم رو خنثی کرد و بسیاری از سایتها دچار تغییر رتبه های شدیدی شدند. سیستم مدیریت محتوا (CMS) ابزاری کاربردی برای ایجاد، مدیریت و به‌روزرسانی وب ...

به طور کلی، الگوریتم گورخر گوگل زمانی به وجود آمد تا با سایت‌های فروشگاهی کیفیت پایین روبرو شود و هدف آن جلب اعتماد کاربران بود. برخی از وب‌سایت‌های فروشگاهی کیفیت پایین و نامعتبر از روش‌های کلاهبرداری و تقنیت‌های مختلف استفاده می‌کردند. بنابراین، با به‌روزرسانی الگوریتم زبرا، گوگل شروع به مبارزه با وب‌سایت‌های فروشگاهی نامعتبر و تقلبی کرد. بنابراین، هدف از طراحی الگوریتم زبرا حذف فروشگاه‌های آنلاین کیفیت پایین و نامعتبر است. در میان تمامی آپدیت الگوریتم های گوگل، Google BERT را می‌توان یک تغییر اساسی در روند پردازش زبان طبیعی دانست. این الگوریتم به موتورهای جستجوی گوگل اجازه می‌دهد که توانایی خود در جستجو را بهبود بخشند و کاربران را به نتایجی دقیق‌تر و مرتبط‌تر هدایت کنند.

گوگل به سرکوب تاکتیک‌های کلاه سیاه سئو داخلی از جمله متن نامرئی و تکرار زیاد کلمات کلیدی در تگ متا ادامه داد. برخی‌ها حدس می‌زدند که گوگل الگوریتم هیل تاپ (Hilltop) را وارد بازی کرده و به طور جدی‌تری بر روی ارتباط بین صفحات متمرکز شده است. اگرچه این تاریخ مربوط به یک بروزرسانی در الگوریتم‌های گوگل نیست، اما یک رویداد تاریخی مهم در شرکت گوگل محسوب می‌شود. در این روز گوگل 19 میلیون سهام فروخت، 1.67 میلیارد دلار سرمایه جمع کرد و ارزش بازار گوگل به بیش از 20 میلیارد دلار رسید. بعدها گوگل از قابلیت Suggest خود برای راه اندازی و قدرت بخشیدن به سرویس Google Instant استفاده کرد.

“موبایل” را با “کاربر” تعویض کنید و به راحتی می‌توانیدبیشتر این الزامات را متوجه شوید. این بروزرسانی سازگار با موبایل یعنی Mobilegeddon، در سال 2015 عرضه شد و از آن زمان تاکنون، از یک شاخص جدید و جداگانه برای وب سایت های سازگار با موبایل صحبت شده است. سرانجام در سال 2018 وب سایت هایی که برای آن آماده شده بودند به سرعت در این فهرست جدید اضافه شدند. سایت‌های جدید ممکن است برای این عبارت جستجو در نظر گرفته شوند؛ سایت‌های قدیمی دیگر در نظر گرفته نمی‌شوند. هدف کاربر (داده‌های کلیک) برای این عبارت جستجو ممکن است تغییر کرده باشد، موجودیت‌های جدید ممکن است مرتبط با این عبارت جستجو در نظر گرفته شوند، نمودار پیوند ممکن است تغییر کرده باشد و غیره. همانطور که می‌بینید، این نوع به‌روزرسانی‌ها برای متخصصان سئو اصلاً مفید نخواهد بود حتی اگر آنها را درک کنند.

پس از به‌روزرسانی ونیز، گوگل شروع به گنجاندن نتایج جستجو بر اساس مکان فیزیکی جستجوگر یا آدرس IP کرد. گوگل همچنین بهتر می تواند تعیین کند که آیا یک پرس و جو یا وب سایت دارای هدف یا ارتباط محلی است یا خیر. گوگل تایید کرده است که پاندا در الگوریتم اصلی گوگل که به عنوان بخشی از راه اندازی کند پاندا 4.2 دیده می شود، درگیر است. به عبارت دیگر پاندا دیگر فیلتری نیست که پس از انجام وظیفه در الگوریتم گوگل کار کند، بلکه به عنوان سیگنال رتبه بندی اولیه گنجانده شده است. برخی از اعضای جامعه جستجو گزارش دادند که وب سایت های آنها بین 12 تا 14 دسامبر تحت تأثیر به روز رسانی قرار گرفته است.

در مورد به روز رسانی لینکسازی اسپم (به روز رسانی ای که به طور خاص مربوط به پیوندهای هرز هست)، تغییرات ممکنه منجر به بهبود نشه. یعنی اینطور نیست که شما لینک سازی اسپم کنید و بعد دیساوو کنید یا اینکه لینک های ساخته شده رو حذف کنید. در ادامه فهرست کاملی از به روزرسانی های الگوریتم‌های گوگل بر اساس تاریخ آپدیت ها در طول سال‌های مختلف گردآوری کردیم. بعد از ظهور این الگوریتم گوگل این توانایی را پیدا کرده که مانند یک انسان زبان مخاطب را بفهمد. این الگوریتم به کل جمله یا عبارت نگاه می‌کند و روابط بین کلمات را در نظر می‌گیرد. این به معنای آن است که برت می‌تواند منظور واقعی شما را از جستجو بفهمد و مطالب مرتبط با آن را به شما نشان دهد.

آژانس نمو مارکتینگ، در سال 1399 فعالیت خود را در شهر شیراز آغاز کرد و اکنون بیش از ده‌ها پروژه موفق در کارنامه خود دارد. این مجموعه تیمی حرفه‌ای در اختیار دارد و خدمات حرفه‌ای طراحی سایت، سئو سایت و دیجیتال مارکتینگ به کسب‌وکارها ارائه می‌دهد. Panda Algorithm برای مقابله با محتواهای کوتاه، ضعیف و کپی‌شده، سرقت ادبی، استفاده بیش از حد کلمات کلیدی، مزرعه‌های محتوا (Content Farms)، حجم زیاد تبلیغات نسبت به محتوا در صفحات وب توسط شرکت گوگل ساخته شد. فرد، نامی برای به روز رسانی های جزئی و کوچک در الگوریتم جستجوی گوگل است که هر روز ساخته می‌شوند. با این حال، یکی از این به روزرسانی های بدون نام نشان داد بیشتر از بقیه مشکل ساز است بنابراین در ادامه به معرفی فرد Fred می‌پردازیم. این موضوع به تلاش برای جلوگیری از مشکلات مربوط به محتوای تکراری با بازنویسی متن از سایت دیگر اشاره دارد.

الگوریتم هسته گوگل با انجام عملکردهایی باعث تغییرات در رتبه‌‎بندی شما می‌شود. Google Freshness الگوریتمی است که در سال ۲۰۱۱ معرفی شد و هدف آن، ارائه‌ی محتوای به‌روزتر و مرتبط‌تر به کاربران است. این الگوریتم به‌ویژه برای جستجوهایی طراحی شده است که نیاز به ارائه‌ی اطلاعات دقیق و آپدیت دارند.به‌عنوان مثال موضوعات حوزه‌ی اخبار روز، بررسی محصولات جدید و همچنین رویدادهای ورزشی، نیاز به آپدیت مداوم دارند. این الگوریتم باعث شد تا کاربران همیشه به اطلاعات و محتواهای دست اول دسترسی داشته باشند. الگوریتم های گوگل (Google Algorithm) به مجموعه قوانینی گفته می‌شود که این موتور جستجو برای جریمه کردن وب‌سایت‌های متخلف و همچنین نحوه‌ی امتیازدهی به وب‌سایت‌ها در نظر می‌گیرد.

گوگل از به‌روزرسانی الگوریتم برت به عنوان بزرگ‌ترین تغییر در سرچ گوگل طی پنج سال گذشته یاد می‌کند. الگوریتم دزد دریایی (Pirate) در سال 2012 منتشر شد و وظیفه اصلی آن شناسایی سایت‌هایی است که قانون کپی رایت را نقض می‌کنند. این الگوریتم مطمئن می‌شود که سایت‌هایی که در بستر اینترنت فعالیت می‌کنند قوانین کپی رایت را رعایت می‌کنند و به انتشار موسیقی، فیلم، کتاب و ... که شامل کپی رایت می‌شوند، در سایت خود نمی‌پردازند و در صورت شناسایی، این سایت‌ها رتبه خود را از دست می‌دهند. البته شناسایی همه این سایت‌ها امکان‌پذیر نیست، چون تعداد آن‌ها در حال افزایش است؛ اما این الگوریتم به‌طورکلی توانسته به خوبی وظیفه خود را انجام دهد و گوگل همواره سعی در بهبود این الگوریتم دارد. پس از مدتی گوگل متوجه شد که در مورد برخی موضوعات باید سخت‌گیرانه‌تر عمل کند و محتواهایی که مربوط به سلامت یا مسائل مالی هستند باید از نظر درستی و اعتبار، تایید شوند.

سرانجام گوگل اعلام کرد که موبایل فرست ایندکس (ایندکس اولیه سایت‌ها در نسخه موبایل) منتشر شده است. سئوی محلی و رعایت اصول آن بین مدیران بیزینس های دیجیتال طرفدار بسیار زیادی در بین استراتژی‌های سئو دارد. به همین دلیل نیز گوگل با ارائه آپدیت POSSUM ارتباط این نوع سئو را با نتایج سرچ افزایش داد. گوگل در سال 2018 بار دیگر سراغ متن متای توضیحات وب سایت ها رفت و مقدار مجاز آن را به همان میزان قبلی یعنی 150 تا 160 کاراکتر بازگردانی کرد. در 13 ژانویه 2020، ابزار moz توانست تغییرات به شدت گسترده و بزرگی را در سطح وب شناسایی کرده و یک آپدیت هسته دیگر توسط گوگل را شناسایی کند. در این بخش، چند مثال از نحوه عملکرد الگوریتم Passage Ranking را بررسی می‌کنیم.

گوگل هرگونه انتشار آپدیت جدید را رد کرد و جزییات بیشتری درباره این موضوع منتشر نشد. این هم یکی دیگر از بروزرسانی ها برای افزایش اعتبار وب سایت هایی بود که برای دیده شدن در صفحات نمایش مختلف مثل موبایل و تبلت بهینه سازی شده اند. البته با توجه به اینکه وبمستران قبلا خودشان را برای موبایل گدون آماده کرده بودند، این بروزرسانی تاثیرات خیلی خاصی نداشت. این جدول نشان می‌دهد که چگونه الگوریتم گراف دانش به گوگل کمک می‌کند تا اطلاعات دقیق‌تر و مرتبط‌تر را به کاربران ارائه دهد. هدف اصلی گراف دانش، ارائه نتایج جستجوی دقیق‌تر و شفاف‌تر است؛ به‌ویژه زمانی که کاربران به دنبال اطلاعات خاص یا جزییات دقیق در مورد افراد، مکان‌ها، اشیاء و مفاهیم هستند. MUM تحولی بزرگ در بهبود تجربه کاربران و ارائه نتایج جستجوی هوشمندتر و مرتبط‌تر ایجاد کرده است.

بطور معمول، بروزرسانی های هسته چند روز (یا هفته) طول می‌کشد تا به‌طور کامل منتشر شوند، و گوگل یک اعلامیه در ابتدا و دیگری در پایان آن منتشر می‌کند. این امر همواره متخصصان سئو و صاحبان سایت را در این فکر می‌گذارد که بروزرسانی هسته چگونه بر رتبه‌بندی آنها تأثیر گذاشته است. این سیستم باعث می‌شود وب‌سایت‌هایی که حجم بالایی از درخواست‌ حذف محتوا (از سوی کاربران) دارند تنزل داده شوند. اگر سبک سئو شما مبتنی بر ارائه ارزش و کیفیت به کاربر است نیاز نیست با ارائه هر آپدیت نگران شوید. در این صفحه توضیح می‌دهم الگوریتم گوگل یا آپدیت گوگل چیست و سپس با مفاهیم بسیار مهمی در مورد نحوه کار الگوریتم‌های گوگل و آخرین وضعیت سیستم‌ها و الگوریتم‌های گوگل آشنا می‌شوید.

گوگل به تازگی اعلام کرده است که از الگوریتم “تطبیق عصبی” برای بهبود درک مفاهیم در جستجوها استفاده می‌کند. دنی سالیوان از گوگل اعلام کرده است که این الگوریتم برای تقریباً 30 درصد از جستجوها به کار گرفته می‌شود. بعدها این الگوریتم وب اسپم از طریق یک توییت از مت کاتس، که در آن زمان رئیس تیم وب اسپم گوگل بود، به عنوان به‌روزرسانی الگوریتم پنگوئن شناخته شد. برای وب‌سایت‌های بزرگی که نسخه‌های HTML موبایل و دسکتاپ جداگانه دارند، اگر نسخه موبایل شامل تمام لینک‌های موجود در نسخه دسکتاپ نباشد، کشف صفحات جدید می‌تواند با سرعت کمتری انجام شود. یک بهترین روش (Best Practice) به مستندات مربوط به مدیریت بودجه خزش (Crawl Budget) اضافه شده است که توصیه می‌کند تمام لینک‌ها در نسخه موبایل وب‌سایت نیز حضور داشته باشند.

E-A-T به اختصار نشان‌دهنده، Expertise (تخصص)، Authoritativeness (اعتبار) و Trustworthiness (اعتمادپذیری) است. الگوریتم فرشنس باعث شد تا نتایج رتبه‌‌بندی برای کوئری‌هایی که هدف کاربر از وارد کردن آن، دیدن محتوای جدیدتر است، بر اساس زمان مرتب شود. در واقع به گوگل کمک کرد تا برای برخی از کوئری ها که قصد کاربر از جستجویشان دیدن محتوای جدید بود این محتواهای جدید در نتایج جستجو نشان داده شوند. بنابراین این طور نیست که برای تمام کوئری ها بروز بودن محتوا اهمیت داشته باشد. به‌روزرسانی تازگی گوگل (Google’s Freshness Update) یک تغییر قابل توجه در الگوریتم رتبه‌بندی گوگل بود که باعث بهبود دقیق‌تر نتایج جستجو و پاسخگویی به نیازهای کاربران شد.


https://daroromiekojast.ir/who-is-the-best-seo-in-urmia/