اصطلاحات و مفاهیم کاربردی در سئو تکنیکال
سئو تکنیکال به معنی رعایت استانداردهای سئو در طراحی صفحات وب است. این تکنیک ها میتواند به محتوای صفحه، تگ های Head، طراحی ریسپانسیو، سرعت سایت و مواردی از این دست مرتبط باشد.
ریدایرکت 301 به معنی تغییر آدرس دائمی از سمت سرور است. این کار معمولا زمانی انجام میشود که یک صفحه برای همیشه حذف شده و یا آدرس آن تغییر کرده است. با مراجعه گوگل یا کاربر به این صفحه، سرور به صورت اتوماتیک او را به آدرس جدید منتقل میکند.
برای تغییر آدرس صفحات سایت معمولا از ریدایرکت 301 استفاده میکنیم زیرا با این کار گوگل به سرعت آدرس جدید را شناسایی کرده و لینکهایی که در گذشته به این صفحه ارجاع داده شده اند ارزش و اعتبار خود را از دست نمیدهند.
این عبارت به صورت سنتی برای صفحه اول روزنامه استفاده میشود. در دنیای سئو و طراحی سایت above the fold اولین نمایش صفحه است که کاربر بدون نیاز به اسکرول کردن مشاهده میکند.
اطلاعاتی که در این بخش نمایش داده میشود برای رباتهای گوگل اهمیت بسیار زیادی دارد و توصیه میشود که تگ h1 صفحه در این بخش قابل مشاهده باشد.
ضریب خروج هم برای صفحه و هم برای سایت (متوسط صفحات) محاسبه میشود. زمانی که یک کاربر صفحه سایت شما را باز کرده و بدون مشاهده هیچ صفحه دیگری از آن خارج میشود عملا Bounce اتفاق افتاده است. نسبت کاربرانی که سریعا از صفحه خارج میشوند به تعداد کل کاربرانی که وارد صفحه شده اند را ضریب خروج یا همان Bounce Rate مینامیم.
ضریب خروجی یک عدد بین 0 تا 100 است و به طور متوسط بسته به موضوع سایت شما میتواند بین 30 تا 70 درصد باشد.
Breadcrumb
ˈbrɛdkrʌm خرده ناناصطلاح خردهنان براساس یک داستان قدیمی در نظر گرفته شده است. در این داستان پدر بچهها قصد داشت آنها را به جنگل برده و رها کند ولی بچهها که از این تصمیم مطلع شده بودند تصمیم گرفتند تا در طی مسیر خردهنان بریزند تا مسیر برگشت را پیدا کنند. البته زمانی که قصد بازگشت داشتند متوجه شدند که پرندگان همه نانها را خوردهاند!
Breadcrumb به منوهای دسترسی سریع در بالا یا پایین صفحه گفته میشود که موقعیت کاربر در سایت را نشان داده و به او اجازه میدهد به بخشهای بالایی دسترسی داشته باشد.
بهعنوان مثال در بالا یا پایین صفحه نوار دسترسی سریع قرار داده میشود: “شما اینجا هستید: خانه / واژه نامه سئو / اصطلاحات عمومی”
Cache
kæʃ کَشسرویس Cache یکی از تکنولوژی های رایج در اینترنت است که کاربردهای متنوع ولی تعریف یکسانی دارد. با استفاده از کَش میتوان محتوایی شامل متن، تصویر و فایلهای جانبی را ذخیره کرد تا در بازدیدهای بعدی به سرعت برای کاربر در دسترس باشد. مهمترین کاربردهای کش عبارتند از:
- گاهی اوقات یک نسخه Cache از کل صفحه بر روی سرور قرار میگیرد تا بدون نیاز به ارتباط با دیتابیس اطلاعات به کاربر منتقل شود.
- در برخی سیستمها میتوان اطلاعاتی مانند تصاویر و فایل های CSS و Js را بر روی مرورگر کاربر Cache نمود تا بدون مصرف پهنای باند محتوای قبلا دانلود شده را مشاهده کند.
- موتور جستجوی گوگل نیز یک نسخه Cache از تمام صفحات وب تهیه و نگهداری میکند که برای آنالیز محتوا و تعیین رتبه از آن استفاده میکند.
اگر با جستجوی یک کلمه کلیدی دو یا چند صفحه از سایت ما در نتایج گوگل نمایش داده شود، اتفاق خوبی است؟ همیشه نه! در برخی موارد این اتفاق شبیه به یک فاجعه است؛ زیرا صفحات ما در حال رقابت و بلعیدن یکدیگر هستند!
در اغلب موارد Cannibalization زمانی رخ میدهد که دو یا چند صفحه از سایت ما برای یک کلمه کلیدی (شما بخوانید مفهوم کلیدی) یکسان یا چند کلمه کلیدی بسیار مشابه و نزدیک به یکدیگر بهینه شده باشند. در این صورت گوگل نمیتواند تشخیص دهد که کدام یک از این صفحات پاسخ بهتری برای عبارت جستجو شده ارائه میدهند و هر دو آنها را در نتایج گوگل نمایش میدهد تا خود کاربر در این مورد تصمیمگیری کند.
مشکل اصلی اینجاست که؛ اگر هر دو صفحه ما دارای موضوع و هدف یکسان باشند، کاربران نیز متوجه تفاوت آنها نخواهند شد به صورت تصادفی روی آنها کلیک میکنند. این موضوع شانس کسب آمار کلیک بیشتر و جایگاه بهتر را از این صفحات میگیرد. به این ترتیب صفحات سایت ما در حال بلعیدن فرصتهای رتبه گیری یکدیگر خواهند بود.
اگر در سایت ما چندین صفحه با محتوای مشابه یا نزدیک به هم وجود داشته باشد، با استفاده از تگ canonical به گوگل اعلام میکنیم که کدامیک از آنها نسخه اصلی بوده و اولویت بالاتری نسبت به بقیه دارد.
استفاده از تگ کنونیکال برای همه سایتها ضروری است نبود این تگ موجب تولید صفحاتی با محتوای یکسان ولی آدرسهای مجزا در سایت میشود. علاوه براین هرکسی میتواند با لینکسازیهای اشتباه به سایت ما صفحاتی جدید بر روی آن ایجاد و ایندکس کند!
Cloaking
ˈkloʊkɪŋ پنهان کاریورود رباتهای گوگل به یک صفحه از طریق اطلاعات دریافت شده در سرور قابل تشخیص است. یکی از تکنیکهای کلاهسیاه شناسایی رباتهای گوگل و نمایش محتوای متفاوت به آنها است.
در تکنیک Cloaking زمانیکه کاربر وارد صفحه میشود محتوای مناسبی را دریافت میکند ولی رباتهای گوگل ممکن است محتوایی کاملا متفاوت و سئو شده را مشاهده کنند. عملا یک نسخه از محتوا برای گوگل و نسخه دیگری برای کاربر ایجاد میگردد. گوگل قادر به تشخیص این روش بوده و استفاده از آن موجب جریمه سایت شما خواهد شد.
کدهای وضعیت HTTP یا Http Status Codes یا کدهای وضعیت صفحه در واقع پاسخهای سرور به درخواستهای مرورگر هستند. زمانی که در حال بازدید از یک وبسایت هستیم، مرورگر ما درخواستهایی را برای سرور سایت ارسال میکند. در مقابل سرور نیز با یک کد 3 رقمی به درخواستهای مرورگر پاسخ میدهد. این کدهای سه رقمی همان کدهای وضعیت Http هستند که در ادامه با معنا و کاربرد مهمترین آنها آشنا میشویم.
HTTP2
پروتکل HTTP2HTTP (مخفف Hypertext Transfer Protocol) یک پروتکل انتقال اطلاعات فرامتنی میان مروگر و سرور است. HTTP2 به عنوان نسخه جدید این پروتکل در سال 2015 معرفی شد و یک گام روبهجلو در بهبود سرعت سایت و در نتیجه تجربه بهتر کاربری برداشت. در این پروتکل جدید و پس از ایجاد اولین ارتباط میان مرورگر و سرور منابع و فایلهای مربوط به آن صفحه به صورت همزمان و موازی دریافت میشوند.
تگ توضیحات متا یا همان Meta Description Tag معمولا در هدر صفحه قرار میگیرد. این تگ و محتوای قرارگرفته در آن، به کاربر نمایش داده نمیشود ولی رباتهای گوگل آن را بررسی کرده و در نتایج جستجو به کاربر نمایش میدهند.
تگ توضیحات متا باید توصیفی از محتوای صفحه باشد و برای هر صفحه از سایت شما بهصورت کاملاً اختصاصی نوشته شود. اگر توضیحات درجشده برای یک صفحه از نظر گوگل مناسب نباشد، در نتایج جستجو نمایش داده نشده و رباتهای گوگل بخشی از محتوای صفحه را جایگزین آن خواهد کرد.
Page Speed
peɪʤ spid سرعت صفحهزمانیکه برای دانلود و نمایش یک صفحه اینترنتی به کاربر نیاز است را سرعت صفحه مینامیم. این زمان به حجم محتوای موجود در صفحه، سرعت اینترنت کاربر و از همه مهمتر رعایت استانداردهای بهینهسازی سایت مرتبط است.
به طور معمول اگر یک صفحه اینترنتی در کمتر از 2 ثانیه در دسترس کاربر باشد ایدهآل است و اگر این زمان بیش از 6 ثانیه باشد آزاردهنده خواهد بود. سرعت صفحه در حال حاضر یکی از فاکتورهای گوگل برای رتبه بندی نتایج بوده و مستقیما بر سئو تاثیرگذار است.
یکی از جذابترین بخشهای کار با گوگل سرچ کنسول، امکان گزارشگیریهای متنوع با فیلتر Regex است. اعمال فیلترینگهای خاص، مثلاً آغاز یا اتمام عبارتها با یک کلمه مشخص، فقط بااستفاده از فیلتر ریجکس برای کاربران شدنی است.
گوگل تابهحال، 12 عبارت قائدهدار برای فیلترهای مختلف رجکس معرفی کرده است که استفاده از آنها بهتنهایی و یا ترکیب آنها، گزارشهای متعدد و خلاقانهای را به کاربران ارائه خواهد داد.
اما پیش از آنکه بخواهیم عبارتهای Regular Expression را با هم ترکیب کنیم، بهتر است معنی هرکدام از کاراکترهای رجکس را بهدرستی بدانیم و استفاده از آنها را یاد بگیریم.
گاهی اوقات به دلایل مختلفی مثل هکشدن، تغییر محتوای صفحه یا موارد قانونی نیازمند حذف یک صفحه یا مجموعهای از صفحات از نتایج جستجو هستیم. Removal یکی از ابزارهای بسیار کاربردی سرچ کنسول است.
با وارد کردن URL یا Prefix میتوانیم آدرس یک صفحه از سایت را از نتایج جستجو حذف کنیم. البته این حذف موقتی است و پس از گذشت 6 ماه، مجدداً نتایج در گوگل نمایش داده خواهند شد.
یکی دیگر از بخشهای کاربردی ابزار، ارائه گزارشات مردمی درباره صفحاتی است که به دلیل اتمام تاریخ مصرف (مثل صفحه یک رویداد) یا محتوای خشن و مستجهن از نتایج جستجو پاک شدهاند.
Robots.txt
محدود کردن دسترسی گوگلرباتهای گوگل همچون کاربران عادی از منابع هاست و سرور ما استفاده میکنند. شاید تصور کنید که پهنای باند سایت آنقدر زیاد هست که بتواند پاسخگوی این نیاز باشد اما این همه ماجرا نیست. بودجه خزش فقط محدود به منابع سرور ما نیست بلکه برای گوگل نیز اهمیت زیادی داشته و برای هر سایتی متفاوت است. به عبارت دیگر؛
بودجهای که گوگل برای بررسی سایت و ایندکس صفحات در نظر میگیرد یکی از منابع محدود و بسیار ارزشمند برای ما است.
صفحات زیادی در سایت ما هستند که از منظر سئو هدف یا ارزش خاصی ندارند. بررسی مداوم این صفحات موجب میشود تا بودجه خزش سایت ما بیهدف مصرف شده و محتوایی که دوست داریم سریعتر در صفحه نتایج جستجو دیده شود با تاخیر بسیار زیادی ایندکس میشود.
اما چه راهی وجود دارد تا به رباتهای گوگل بگوییم که شما حق ورود به این صفحات را ندارید؟ بهترین راه استفاده از فایل Robots.txt است.
به عبارت دیگر فایل Robots.txt مثل یک تابلو ورود ممنوع عمل کرده و از گردش بیهوده رباتهای گوگل در صفحات وب جلوگیری میکند.
بزرگترین چالش گوگل برای ارائه بهترین نتایج به کاربران، بررسی و ایندکس صفحات وب است. رباتهای گوگل با میلیاردها صفحه اینترنتی روبرو هستند که نه تنها هر روز بر تعداد آنها افزوده میشود، بلکه صفحات قبلی نیز به صورت مداوم در حال تغییر و بهروزرسانی هستند. مثل گردشگری در تخت جمشید، اگر رباتها بدون هیچ برنامهای شروع به بررسی صفحات کنند، بسیاری از صفحات ارزشمند را نخواهند دید.
رباتهای گوگل بودجه مشخص و محدودی را برای بررسی و ایندکس هر سایت در نظر میگیرند که در بسیاری موارد موجب میشود تا هفتهها پس از انتشار محتوا منتظر بررسی و ایندکس آن توسط گوگل باشیم.
ما میتوانیم به خزندههای گوگل مسیر و برنامه بدهیم؛ چطور؟ با استفاده از نقشه سایت.
نقشهای که به کمک آن بتوانند در سریعترین زمان ممکن صفحات را بررسی و ایندکس کنند. در این مقاله از آکادمی وبسیما تلاش میکنیم تا به درک عمیقی از مفهوم سایت مپ و تاثیر آن بر ایندکس سایت توسط گوگل برسیم.
TLD یا Top Level Domain به پسوند انتهایی URL گفته میشود. TLDها در سه دسته عمومی، محدودشده و کشوری دستهبندی میشوند.
محبوبترین و پراستفادهترین TLD در حال حاضر، عبارت کوتاه .com است که در دسته دامنههای سطح بالای عمومی قرار میگیرد.
بهجز دامنههای سطح بالای محدودشده، در انتخاب TLD تقریباً هیچ محدودیتی نداریم. به همین دلیل بهتر است پس از شناخت کاربرد و ویژگیهای هرکدام از آنها، بهترین TLD را با توجه به نوع کسبوکار و محتوای سایتمان انتخاب کنیم.
URL Inspection یکی از ابزارهای کاربردی و جذاب سرچ کنسول است. با استفاده از ابزار میتوانیم درخواست ایندکس دستی یک صفحه را به گوگل بدهیم. از طرف دیگر ابزار URL Inspection اطلاعات ارزشمندی مثل Mobile Friendly، Breadcrumbs، Faq و خطاهای Coverage را بهصورتکامل نشان میدهد. یکی دیگر از کاربردهای جذاب این ابزار، بررسی سلامت و امنیت سایت از عینک گوگل است.
نتیجه ای یافت نشد، لطفا عبارت دیگری را جستجو کنید.