الگوریتم پنگوئن
یکی از معروف ترین الگوریتم های گوگل که کار تشخیص لینک های بد و لینک سازی غیر اصولی و اسپم را بر عهده دارد الگوریتم پنگوئن است. این الگوریتم اگر تشخیص دهد که سایتی برای موفقیت در نتایج گوگل دست به لینک سازی غیر حرفه ای زده است می تواند آن سایت را از نتایج گوگل حذف و به اصطلاح پنالتی نماید.
الگوریتم پنگوئن پاسخ گوگل برای افزایش استفاده از روشهای سئو کلاه سیاه و لینکسازیهای غیرطبیعی است.Matt Cutts در جریان کنفرانس SMX سال 2012 در این مورد گفته بود:
“ما به این فکر کردیم که چطور با محتوای بی کیفیت مبارزه کنیم و برای حل این موضوع الگوریتم پاندا را معرفی کردیم. اما بعد از معرفی این الگوریتم متوجه شدیم که این شروع کار است و هنوز وبسایتهای اسپم زیادی وجود دارند. سپس برای حل این مشکل الگوریتم پنگوئن را طراحی کردیم.”
هدف این الگوریتم به طور دقیق، کاهش تاثیرگذاری روشهای کلاه سیاه و به دست گرفتن کنترل اوضاع توسط گوگل بود. با درک بهترِ فرآیند دریافت لینک، پنگوئن توانست وبسایتهایی که اقدام به دریافت لینکهای طبیعی و معتبر کرده بودند را ارتقاء دهد و وبسایتهایی که لینکهای اسپم و ساختگی دریافت کرده بودند را از رتبههای بالا به قعر نتایج بکشاند.
در ابتدای کار، گوگل در این الگوریتم برای جریمه کردن سایتهای خاطی، تمرکز خود را تنها بر لینکهای دریافتی قرار داده بود و به هیچ وجه توجهی به لینکهای خروجی وبسایتها نداشت.
الگوریتم پنگوئن یک کار انجام نمیدهد! درست است که پنگوئن گوگل در ابتدای کار تنها هدف شناسایی لینک های مخرب و بمبارات کلمه کلیدی را بر عهده داشت. ولی با به روزرسانی های متعدد (حدود 8 آپدیت) سازوکار پنگوئن پیچیده تر و بیشتر شد.
الگوریتم پاندا
این الگوریتم شاید معروف ترین الگوریتم گوگل می باشد که می تواند تاثیر مستقیم بر روی نتایج سئو داشته باشد، کار الگوریتم پاندا این است که محتوا های بی ارزش را تشخیص داده و آن ها را در نتایج گوگل حذف می نماید. پس باید دقت کنیم که نکاتی را که این الگوریتم بررسی میکند در سایت خود رعایت نماییم.
الگوریتم پاندا چه فاکتورهایی را بررسی میکند؟
در زیر به برخی از مهمترین عواملی که توسط الگوریتم پاندا بررسی میشود، میپردازیم:
محتوای کمحجم (Thin Content)
وجود محتوای بسیار ضعیف با متن نوشتاری بسیار کم و بدون ذکر منبع موثق در وبسایتها.
محتوای تکراری (Duplicate Content)
عبارت است از محتوایی که در بیش از یک مکان آشکار میشود. معضل محتوای تکراری ممکن است در یک وبسایت نیز اتفاق بیفتد. نظیر حالتی که وبسایت شما ۵ صفحه دارد و شما در هر صفحه جملاتی مشابه با اندکی تغییر نوشتهاید.
کیفیت محتوا (Content Quality)
منظور محتوایی است که دانش بسیار کمی به خوانندگان خود اضافه میکند. محتوای بیکیفیت اصلاً اطلاعاتی به مخاطب ارائه نمیدهد.
اعتبار سایت (Trustworthiness)
که منظور از آن محتوایی است که منابع آنها قطعی و معتبر نیستند. اگر سایتها بخواهند از جریمه پاندا در امان بمانند، باید همه تلاش خود را بکنند تا به عنوان مرجعی معتبر در صنف خود شناخته شوند تا کاربران راحتتر بتوانند به آنها اعتماد کنند و اطلاعات شخصی خود را با آنها به اشتراک بگذارند.
مزرعه محتوا (Content Farm)
منظور پیجهایی است که سطح کیفی بسیار پایین دارند و مطالب آنها از سایتهای دیگر جمعآوری میشوند. معمولاً اینگونه وبسایتها تولیدکنندههای محتوایی را استخدام میکنند که با دستمزد بسیار پایین محتوای گسترده و بیکیفیت برای وبسایت تولید میکنند. هدف اینگونه وبسایتها رضایت و نیازهای مخاطب نیست، بلکه آنها فقط میخواهند هر کوئری که مخاطب جستجو میکند در صفحه نتایج نمایش داده شوند.
محتوای باکیفیت پایین تولید شده توسط کاربران
شاید شما هم وب سایتهایی را دیده باشید که پستهای وبلاگ مهمان را منتشر میکنند. پستهای حاوی جملات کوتاه که فاقد هرگونه اطلاعات معتبر بوده و بیشتر نوعی اظهار نظر شخصی به شمار میروند.
نسبت بالای تبلیغ به محتوا
شاید شما هم پیجهای بسیاری دیدهاید که پر از تبلیغات پولی هستند در حالی که محتوای چندانی ندارند.
بهینهسازی بیش از حد (Over Optimization)
محتوایی که خوب بهینهسازی شده و مرتبط باشد میتواند عامل مهمی برای قرار گرفتن در جایگاه بالا در صفحه نتایج باشد. بهینهسازی بیش از حد موتور جستجو عبارت است از کاربرد افراطی عواملی که پیشرفتهای سئو برای سایت محسوب میشوند. در این مواقع همین بهینهسازیها به رتبهبندی آن آسیب جدی میرسانند. بهینهسازی بیش از حد میتواند مخاطب شما را از دیدن ارزش واقعی محتوای شما محروم کند و همین امر میتواند بر رنکینگ طبیعی سایت اثر منفی بگذارد.
سیگنالهای کاربران (User Signals)
بسیاری از کاربران انسانی روزانه تعداد زیادی از وبسایتها را یا به طور مستقیم یا توسط افزونه کروم مسدود میکنند. دلیل این امر عمدتاً کیفیت بسیار پایین محتواست.
عدم تطابق با کوئری مدنظر کاربر
منظور پیجهایی هستند که در انکرتکست چیز دیگری نشان میدهند طوری که به نظر میرسد با کلیک روی آنها به جوابهای مرتبط دست پیدا میکنید اما وقتی وارد صفحه میشوید خبری از جواب نیست. برای مثال وبسایتی که ادعا میکند برای یک جشنواره تخفیفاتی در نظر گرفته در حالی که وقتی شما آنها را باز میکنید هیچ خبری از کوپن تخفیف نیست.
الگوریتم مرغ مگس خوار
به بیان ساده الگوریتم مرغ مگس خوار به کاربران کمک میکند تا زمانی که کلمهای را سرچ میکنند، به سرعت به لینک ها، تصاویر، ویدئوها و… در ارتباط با آن کلمه دست یابند. همان طور که میدانید مرغ مگس خوار به دقت و سرعت مشهور است و علت نامگذاری این الگوریتم نیز این است که به سرعت و با دقت بالایی، مطالب مدنظر را حدس زده و به شما نشان میدهد.
الگوریتم مرغ مگس خوار با دقت و سرعت بالایی کلمات را بررسی میکند و مترادف آنها را تا حد زیادی میشناسد. مگس خوار در حالی که نزدیکترین نتایج را به شما نشان میدهد، صفحاتی را هم که بیش از حد از کلمات کلیدی استفاده کردهاند و محتوای درست و حسابی ندارند جریمه میکند.
باید این را بدانید که مرغ مگس خوار بیشتر به انسانها اعتماد دارد، تا رباتهای گوگل. یعنی چه؟ بگذارید با یک مثال ساده توضیح دهم.
وقتی کاربران عبارت “بازاریابی محتوا چیست” را در گوگل جستجو میکنند، به نتایج مختلفی برخورد میکنند. حال اگر تعداد کاربرانی که روی نتیجۀ چهارم کلیک میکنند بیشتر از تعداد کاربرانی باشد که روی نتیجۀ اول کلیک میکنند، پس از مدتی جایگاه نتیجه چهارم ارتقا پیدا میکند و در مقابل جایگاه نتیجه اول پایینتر میرود. این یعنی مرغ مگس خوار گوگل رفتار کاربران را تحلیل میکند و به آنها اعتماد میکند. پس سعی کنید هنگام تولید محتوا، در کنار الگوریتمها و رباتهای مختلف گوگل، مخاطبانتان را هم به طور جدی در نظر بگیرید و ببینید که به چه چیزهایی توجه بیشتری نشان میدهند. البته فقط تعداد کلیکها نیست که تعیین کننده است؛ عوامل مختلفی مثل نرخ پرش، میزان گردش در سایت، محبوبیت در شبکههای اجتماعی و … هم در سنجش میزان محبوبیت شما نزد کاربران دخیلند.
الگوریتم bert
برت (Bidirectional Encoder Representations from Transformers) یک الگوریتم یادگیری عمیق است که از پردازش زبان طبیعی (NLP) برای درک بهتر دادههای مربوط به جستجو استفاده میکند. درحقیقت، الگوریتم برت نوعی هوش مصنوعی است که به گوگل اجازه میدهد تا روابط بین عناصر زبان در یک کلمه یا عبارت جستجو شده توسط کاربر را بهتر درک کند.
برخلاف به روز رسانیهای قبلی مانند پاندا و پنگوئن، برت برای جریمه کردن وب سایتها در نظر گرفته نشده است بلکه به گوگل کمک میکند تا قصد جستجوگر را درک کند. گوگل از طریق برت میتواند معنای دقیق عبارات جستجو شده را با توجه به متن و ترتیب کلمات بفهمد. گوگل اکنون میتواند نتایج دقیقتر و بهتری را برای عبارات جستجوی طولانیتر و پیچیدهتر نشان دهد.
با توجه به هدف اصلی در پشت پرده اکثر بهروزرسانیهای الگوریتم گوگل، ارتقاء BERT به گوگل کمک میکند هنگام تایپ یک عبارت جستجو، آنچه را که به دنبال آن هستید را بهتر جستجو کنید.
هدف الگوریتم برت ارائه پاسخهای مستقیم به سوالات به جای تاکید زیاد بر روی کلمات کلیدی خاص است. اساساً، BERT قصد دارد به کاربر اجازه دهد به روشی طبیعیتر جستجو کند و به نتیجه برسد. درحقیقت، این الگوریتم در حال از بین بردن درک زبان ماشینی است و میخواهد به ماهیت طبیعی و واقعی زبان انسانی برسد.
الگوریتم برت گوگل از هوش مصنوعی، یادگیری ماشینی و پردازش زبان طبیعی استفاده میکند. برت از طریق این عناصر قادر است معنی و روابط بین کلمات و عبارات را درک کند و اصطلاحات قبل و بعد از هر کلمه را شناسایی کرده و در نظر بگیرد. این ویژگیها باعث میشود که برت بتواند به شکلی عمیقتر زبان انسان را با زبان عامیانه، مترادفها، عبارات، اختصارات، حروف ربط، حروف اضافه و حتی خطاهای املایی درک کند.
بنابراین، گوگل میتواند هر دو طرف سکه از جمله «هدف کاربران از جستجو» و «محتوای صفحات ایندکس شده» را هدف قرار دهد. به این ترتیب، برت بهترین پاسخ را نسبت به جستجوی کاربر ارائه میدهد.
نمونهای از پیشرفت به دست آمده از طریق الگوریتم BERT این است که گوگل حروف اضافه در کلمات کلیدی جستجو شده توسط کاربر را در نظر میگیرد. حروف اضافه قبلاً در نظر گرفته نمیشدند اما میدانیم که این حروف میتوانند معنای یک جمله را کاملاً تغییر دهند.
از این گذشته، برت حتی میتواند املای اشتباه کلمات کلیدی را نیز تشخیص دهید. این ویژگی هم برای جستجوی نوشتاری و هم برای جستجوی صوتی کار میکند. به عبارت دیگر، اگر کاربر هنگام جستجو کلمهای را اشتباه تلفظ کند، موتور جستجو احتمالاً آن را میفهمد و نتایج درست را نمایش میدهد.
الگوریتم گورخر
گورخر نام یکی از الگوریتم های گوگل است که به بررسی سایت های متقلب و سایت هایی که تبلیغاتشان زیاد است میپردازد.
الگوریتم گورخر گوگل (Google Zebra Algorithm) یکی از پرکاربردترین الگوریتمهای گوگل است که مسئول نظارت بر فروشگاههای اینترنتی و جلوگیری از کلاهبرداریهایی که از طریق فروشگاههای اینترنتی صورت میگیرد است. این الگوریتم با شناسایی فروشگاههای قلابی و بیکیفیت اینترنتی آنها را حذف میکند. این الگوریتم توسط مت کاتس (Matt Cutts)، مدیر سابق بخش اسپم گوگل در مارس 2013 جهت نظارت بر سایتهای فروشگاهی و تجاری ارائه شد.
با افزایش فروشگاههای اینترنتی امروزه اکثر مردم خریدهای خود را در بستر اینترنت انجام میدهند. بنابراین گوگل برای حفظ اعتماد کاربران خود، الگوریتم گورخر را آپدیت کرد.
درواقع الگوریتم گورخر گوگل زمانی به وجود آمد که گوگل تصمیم به مقابله با سایتهای فروشگاهی بیکیفیت گرفت و هدف خود را جلب اعتماد کاربر قرارداد و این به این دلیل بود که بعضی از وبسایتهای فروشگاهی بیکیفیت و نامعتبر توانسته بودند توسط استفاده از تکنیکها و روشهای کلاهسیاه، خود را به رتبههای اول گوگل برسانند که این باعث ناراحتی و نارضایتی کاربران شد. بنابراین گوگل با آپدیت الگوریتم گورخر (زبرا) به مبارزه با سایتهای فروشگاهی نامعتبر و قلابی پرداخت. بنابراین بهطور کلی هدف از طراحی الگوریتم گورخر یا زبرا حذف سایتهای فروشگاهی بیکیفیت و نامعتبر است.
نحوه کار الگوریتم گورخر به چه شکل است
در الگوریتم زبرا یا گورخر گوگل بیشتر به مسائل فنی سایت توجه میکند. بنابراین اگر شما سئو یک سایت فروشگاهی را به عهده دارید باید بیش از دیگران با نحوه کار و ساختار این الگوریتم آشنا شوید. اگر میخواهید توسط الگوریتم گورخر جریمه نشوید و از لیست نتایج گوگل حذف نشوید بهتر است اعتماد کاربران را با ارائه سرویسهای امن و مطمئن در سطح اینترنت جلب کنید. مثلا از SSL برای سایت خود استفاده کنید و امنیت اطلاعات کاربران را تضمین کنید. اگر نمیدانید SSL چیست پیشنهاد میکنم مقاله SSL چیست را مطالعه کنید.
الگوریتم گورخر به محض اینکه متوجه شود که سایت شما ناامن است یا قصد کلاهبرداری، فریب و سوء استفاده از اطلاعات کاربران را دارد خیلی سریع سایت شمارا حذف میکند. بنابراین اگر دارای یک سایت فروشگاهی هستید برای اینکه بتوانید در سطح گوگل باقی بمانید باید قوانین الگوریتم گورخر گوگل را رعایت کنید.
هدف اصلی الگوریتم گورخر چیست
همانطور که اشاره کردیم الگوریتم گورخر به مبارزه با سایتهای، بیاعتبار و ناامن میپردازد و از رتبه گرفتن سایتهای ناامن ، بیکیفیت، سطح پایین و کم اعتبار جلوگیری میکند. برای رسیدن به این منظور موارد زیر را مورد هدف قرار میدهد:
- حذف فروشگاههای اینترنتی که قصد سوء استفاده از اطلاعات کاربران را دارد.
- حذف فروشگاههای اینترنتی فیک و دروغین.
- حذف سایتهای فروشگاهی بیکیفیت و بی اعتبار.
- حذف سایتهای فروشگاهی که قوانین را دور میزنند.
- از بین بردن خردهفروشهای سطح پایین و ضعیف.
- جلوگیری از هک اطلاعات کاربران.
درواقع اهداف اصلی الگوریتمهای گوگل تمایز بین سایتهای بیکیفیت و بیاعتبار با سایتهای فروشگاهی باکیفیت و امن است. پس هدف الگوریتم زبرا فراهم کردن بستر خرید امن و راحت برای کاربران گوگل است.
الگوریتم RankBrain
کار الگوریتم rankbrain این می باشد که تشخیص دهد کاربر از جستجوی عبارت انجام شده واقعاً به دنبال چه چیزی است؟ برای مثال اگر فردی سرچ کند نتیجه مسابقه ایران، قطعاً به دنبال این بوده است که اگر در یک روز گذشته تیم فوتبال ایران مسابقه ای داشته است نتیجه آن را بداند.
رنک برین یک الگوریتم یادگیری ماشین است. در یادگیری ماشین، ابزار به جای اینکه دائما توسط انسان برنامهریزی شود، خودش از رفتار انسان چیزی که باید را یاد میگیرد و به این ترتیب در یک چرخه رشد مداوم و بهبود دائمی قرار خواهد گرفت.
قبل از اینکه گوگل الگوریتم رنک برین را معرفی کند، الگوریتمهای قبلی سعی میکردند به کمک کدگذاری مهندسان گوگل و توجه به یکسری شاخصها، مثلا اینکه فلان کلمه کلیدی بیشتر در کدام صفحه از وب تکرار شده یا «بک لینک» و… رتبه صفحات را در نتایج جستجو مشخص کنند. اما امروز این الگوریتم تلاش میکند با بررسی مفهوم صفحات و دقت به رفتار کاربر، به سایتهایی رتبه بدهد که ارزش بیشتری ایجاد میکنند. به این ترتیب دیگر سئوکارها نمیتوانند صرفا با تکرار بیمورد کلمه کلیدی در یک صفحه یا خرید تعداد زیادی بک لینک، صفحهشان را به رتبه اول نتایج برسانند!
الگوریتم RankBrain چطور کار میکند؟
الگوریتم رنک برین چند اقدام بسیار مهم انجام میدهد. اگر با نحوه کارکرد این الگوریتم آشنا باشید، خیلی راحتتر میتوانید سایتتان را برای دیده شدن در نتایج جستجو آماده کنید. پس اجازه بدهید به زبان ساده همه چیز را توضیح بدهم.
1_ توجه به رفتار کاربر
یکی از مهمترین تفاوتهایی که رنک برین ایجاد کرد، بررسی رفتار کاربر بود. همانطور که بالاتر هم گفته شد الگوریتمهای قبلی با توجه به چیزهایی مثل تعداد دفعات تکرار کلمه کلیدی در صفحه، بک لینک، تازه بودن محتوا، طول محتوای صفحه و… آن را رتبهبندی میکردند. اما الگوریتم رنک برین در کنار انواع شاخصهایی که عنوان شد، به یک شاخص دیگر که رفتار کاربر است، اهمیت زیادی میدهد. یعنی چه؟ اجازه بدهید مثال بزنم:
تصور کنید کاربر بعد از جستجوی کلمه مورد نظرش، وارد سایت لینک اول میشود، بعد به دلیل سرعت پایین صفحه از آن بیرون می آید. وارد سایت دوم شده و به دلیل پیدا نکردن محتوای کاربردی از آن هم خارج میشود. در نهایت وارد سایت سوم شده و به خاطر اینکه محتوای مورد نظرش را در آن پیدا میکند، زمان زیادی را در آن صرف کرده و حتی چند صفحه دیگر آن سایت را هم مشاهده میکند.
خب در این شرایط رنک برین متوجه خواهد شد که 2 سایت اول برای کاربر، بازدهی نداشتند اما سایت سوم توانست جواب او را بدهد. حالا اگر رفتار این کاربر توسط دیگر کاربران هم تکرار شود، رنک برین اهمیت دیگر شاخصهای رتبه بندی را کاهش داده و سایت لینک سوم را به لینک اول می آورد!
2_ توجه به مفهوم صفحه
در گذشته الگوریتمهای گوگل برای پیدا کردن صفحات نزدیک به جستجوی کاربران، صرفا در میان متن صفحات به جستجو میپرداختند. حالا این را در نظر بگیرید که حدود 15 درصد از کلماتی که در روز در گوگل جستجو میشود، برای اولین بار جستجو شدهاند! این یعنی 450 میلیون کلمه کلیدی ناآشنا برای الگوریتمهای گوگل و همین موضوع باعث میشد گوگل حسابی به مشکل بخورد. چون مثلا اگر کاربر عبارت “خرید خانه در منطقه مسکونی پایین شهر تهران” را در گوگل وارد میکرد، الگوریتمها به دنبال عباراتی مثل خرید خانه، منطقه مسکونی، پایین شهر تهران و… میگشتند و صفحات نهچندان دقیقی را به کاربر نشان میدادند.
اما امروز شرایط فرق کرده! در واقع امروز رنک برین به مفهوم کلماتی که شما جستجو میکنید توجه دارد و نه فقط خود عبارت! به همین دلیل است که امروز گوگل، هم در نتیجه جستجوی عبارت هدیه و هم عبارت کادو، یکسری نتیجه مشابه را به شما نشان میدهد!
همانطور که مشخص است، رنک برین به کمک یادگیری ماشین، سعی میکند منظور شما را از جستجو بفهمد و در نتیجه، صفحات نزدیکتری به جستجویتان را نشانتان بدهد. اگر میپرسید که دقیقا گوگل چطور به چنین فناوری خاصی دست پیدا کرده و چطور اینقدر دقیق منظور ما را متوجه میشود، جواب در یکسری الگوریتمهای پیچیده و البته سخت است که توضیحشان از حوصله این مقاله خارج است.
چطور سایتمان را برای رنک برین سئو کنیم؟
خب، احتمالا حتی اگر این بخش از مقاله را هم نخوانید خودتان تا حدودی متوجه شدهاید که دیگر الگوریتم رنک برین چطور کار میکند و ما چطور باید سایتمان را برای دیده شدن در آن سئو کنیم. اما با اینحال برای اینکه نکات ریز و مهم جا نیوفتد، در ادامه چیزهایی که باید بدانید را به شما توضیح میدهم.
1_ عنوانها را بهینه کنید
2_ برندسازی کنید
3_ سرعت را بهینه کنید
4_ تجربه کاربری را بهینه کنید
5_ محتوا بنویسید!
6_ به سراغ کلمات طولانی بروید
7_ اسکیماها را اضافه کنید
الگوریتم موبایل فرندلی
گوگل شرکتی است که همیشه با تغییرات رفتاری انسانیها همسو شده است و خود را با تغییرات وفق داده است! نمونهی این کار را میتوان در ایجاد و طراحی الگوریتم موبایل فرندلی Mobile First Index دانست.
الگوریتم موبایل فرندلی mobile-friendly گوگل نشان میدهد که کاربران ترجیح میدهند برای گذشت و گذار در اینترنت و استفاده از موتور جستجو گوگل از موبایل خود بجای مانیتورها و صفحه نمایشهای غول پیکر استفاده کنند. در واقع این الگوریتم موبایل فرندلی نتیجه تغییر سلیقه ما انسان هاست!
چگونه خودمان را برای الگوریتم موبایل Google آماده کنیم؟
- اطمینان حاصل کنید که Googlebot می تواند به محتوای شما دسترسی پیدا کرده و آن را رندرینگ بکند.
- متا تگ های استفاده شده در قالب تلفن همراه و دسک تاپ یکسان باشد.
- اطمینان حاصل کنید که meta robots tag مورد استفاده در صفحه نو ایندکس یا نو فالوو نباشد. در صورت نوایندکس بودن متا ربوت صفحه Googlebot نمی تواند محتوای صفحه را بفهمد.
- برای محتوای اصلی سایت از lazy-load استفاده نکنید.
- اطمینان حاصل کنید که URL را با دستورالعمل disallow مسدود نمی کنید.
- اطمینان حاصل کنید که محتوای نمایش داده شده در نسخه دسک تاپ و موبایل سایت یکسان است
- در ورژن موبایل از همان عناوین و تگ های هدینگ واضح و معنی دار که در نسخه دسک تاپ استفاده می کنید، استفاده کنید.
- اگر از استراکچر دیتا در سایت خود بهره می برید، مطمئن شوید که در هر دو نسخه سایت شما وجود دارد.
- از تصاویر خیلی کوچک یا وضوح پایین در سایت تلفن همراه استفاده نکنید.
- از تصاویر و ویدیوهای با فرمت های ناشناس برای گوگل در سایت استفاده نکنید.
- از URL های تصویری و ویدویی یکسان در هر دو نسخه سایت خود استفاده کنید.
- محتوای سایدبار و فوتر خود را جدی بگیرید.
الگوریتم eat
E.A.T اصطلاحی است که از دستورالعملهای سنجش کیفیت گوگل گرفته شده و صورت خلاصهشده Expertise، Authoritativeness و Trustworthiness است. این دستورالعملها توسط هزاران نفر از منتقدان فعال گوگل تدوین شدهاند. در واقع E.A.T الگوریتمی برای سنجیدن میزان اعتبار، تخصص و مورد اعتماد بودن سایت است.
هر چند فهمیدن فرایندهای داخلی گوگل کار سادهای نیست، بسیاری منابع موثق اعلام کردهاند که معیار الگوریتم E.A.T بیشتر مخصوص سایتهای YMYL (سایتهایی که به ارائه توصیههای پزشکی، سلامتی و مالی میپردازند) است.
طبیعتا گوگل ترجیح میدهد محتوایی را که ممکن است سلامتی یا وضعیت مالی کاربران را به خطر بیاندازد منتشر نکند. به همین دلیل بررسی کیفیت محتوای وب سایتهایی که به چنین مسائلی میپردازند از اهمیت ویژهای برخوردار است.
ممکن است فکر کنید اگر در چنین حوزههایی فعالیت ندارید، E.A.T روی سایت شما تاثیر نمیگذارد زیرا گوگل اعلام کرده است این فاکتور را در مورد وب سایتهایی که به مسائل سلامتی یا مالی نمیپردازند اعمال نمیکند.
این طور نیست!
به نظر من تخصصی بودن، معتبر بودن و موثق بودن محتوا باید در تمامی حوزههای کاری در نظر گرفته شود. کدام کسبوکاری است که نخواهد قابل اطمینان شناخته شود!؟
البته گوگل معمولا اصطلاحات را به صورت اختصاصی به کار میبرد. یعنی اصطلاح E.A.T منحصرا مربوط به حوزه مالی و سلامتی میشود اما مفهوم پشت این اصطلاح، یعنی معتبر و موثق بودن محتوا احتمالا در تمامی زمینهها موثر است.
کریس سیلور اسمیت معتقد است گوگل تا حدی از سیستم امتیازدهی عددی برای سنجش E.A.T استفاده میکند. بنابراین فاکتور E.A.T در مورد سایتهای حوزه سلامت و مالی بسیار سنگینتر از حوزههایی مثل سرگرمی اعمال میشود.
با این توضیحات، میتوانیم بگوییم الگوریتم E.A.T صرف نظر از حوزه فعالیتتان، روی سئو سایت اثر میگذارد. حتی اگر این طور نبود هم به نظر من تکنیکهای معتبر کردن محتوا باید بخشی از استراتژی سئو در هر حوزهای باشد.