شاید در نگاه اول به نظر نیاد، اما حقیقت اینه که بود و نبود سایت شما در صفحه نتایج و شرط به ثمر نشستن اقداماتی که در سئو سایت انجام دادید دست ربات خزنده گوگله!
تا زمانی که صفحهای از سایت در نتایج جستجو ایندکس نشه، بهترین سئوکار جهان هم سایت شما رو سئو کنه، آب از آب تکون نمیخوره.
احتمالا تا الان برای شما هم این سوال پیش اومده که این خزنده مرموز کیه و کارش چیه؟
ربات خزنده گوگل چیست؟
ربات خزنده که با نامهای کراولر (crawler) و اسپایدر(spider) هم شناخته میشه یک نرم افزار یا اسکریپت اتوماتیک هست که موظفه در صفحات مختلف سایتها خزش و اونها رو در دیتابیس گوگل ایندکس (ذخیره) کنه؛ نمایش صفحات مختلف یک سایت در نتایج گوگل نتیجه ایندکس شدن اونها توسط ربات خزنده گوگل هست؛ به عبارت دیگه تا زمانی که خزندهها صفحهای رو خزش نکرده و در دیتابیس گوگل ذخیره نکنن، اون صفحه مجوز حضور در نتایج گوگل رو نخواهد داشت؛ به همین خاطر هست که در ابتدای بحث گفتم بود و نبود سایت شما دست ربات خزنده گوگله!
چگونگی کارکرد رباتهای خزنده گوگل
عملکرد رباتهای خزنده گوگل در کراول و ایندکس کردن صفحات سایت رو میشه به تار عنکبوت تشبیه کرد.
زمانی که کراولر مشغول خزش در یک سایته، تمام لینکهای موجود در این سایت رو هم تا رسیدن به صفحه مقصد بررسی میکنه؛ در ادامه این فرآیند رو در صفحات مقصد هم تکرار کرده و و لینکهای اون صفحات رو هم track میکنه.
پروسه خزیدن و ردیابی کردن لینکها تا زمانی که تمام صفحات یک سایت توسط رباتهای خزنده پیدا و ایندکس بشن تکرار میشه.
اگر لینک سازی داخلی سایت استاندارد و اصولی انجام شده باشه، با پایان کار کراولرها در سایت میتونیم نتیجه کار این رباتها رو به شکل یک تار عنکبوت تصور کنیم.
با این حال یه مسئله هنوز حل نشده باقی میمونه؛ اونم این که رباتهای خزنده گوگل اصلا چطور به صفحات سایت دسترسی پیدا میکنن؟
جواب این سوال پیش نقشه سایت شماست؛ چون نقطه شروع خزش برای کراولرهای گوگل بررسی سایت مپه. Url تمام صفحات سایت در این فایل با پسوند xml درج شده و فرآیند پیدا و کراول کردن صفحات یک سایت رو برای رباتهای خزنده تسهیل میکنه. اینطوری اگر یک درصد صفحه یتیمی در سایت شما وجود داشته باشه (صفحهای که هیچ لینکی بهش داده نشده) میتونید امیدوار باشید که کراولرهای گوگل از طریق نقشه xml اون رو پیدا کرده و در نتایج ایندکس کنن.
خب برای اینکه مطمئن شیم مطلب کامل براتون جا افتاده یه سوال میپرسم:
چطوری وقتی عبارتی رو سرچ میکنیم گوگل نتایج رو از بین میلیاردها سایت و محتوا در کسری از ثانیه برامون ردیف میکنه؟ قاعدتا بیرون کشیدن صفحات مرتبط از بین اون همه داده و سایت باید ساعتها طول بکشه! اما چی میشه که در یک چشم بهم زدن این اتفاق میفته؟
تصویری از فرایند فراخوانی نتایج از سوی گوگل برای کاربران
بله درسته؛ همه چیز از قبل توسط رباتهای خزنده برای گوگل مهیا شده. به عبارت دیگه کراولرها همزمان با کراول کردن صفحات، مطالب اونها رو دقیق بررسی و دسته بندی کرده و در دیتابیس گوگل ذخیره میکنن؛ بنابراین زمانی که کاربر عبارتی مثل “آموزش سئو” رو سرچ میکنه، دیگه لازم نیست گوگل بره و تمام سایتهای موجود در بستر وب رو برای رسیدن به نتایج مرتبط زیر و رو کنه؛ بلکه تنها کافیه سری به دیتابیس خودش بزنه و صفحاتی که دارای کیورد هدف (در این مثال “آموزش سئو”) هستن و از قبل توسط کراولرها دسته بندی شدن رو به کاربر نشون بده.
پس حضور خزندههای گوگل یه بازی دوسر برد رو رقم میزنه؛ هم گوگل میتونه در فراخوندن نتایج سریعتر عمل کنه و عملکردش رو بهبود بده، هم کاربران زودتر به نتایج مورد نظرشون میرسن.
3 گام افزایش سرعت خزندههای گوگل در سایت
بخش عمدهای از اقدامات انجام شده در سئوی سایت با این هدف انجام میشه که خزندههای گوگل بتونن با چالش کمتری صفحات سایت رو بررسی و ایندکس کنن.
اگه رباتهای خزنده گوگل رو به ماشینهای کنترلی تشبیه کنیم، ریموت کنترل این ماشین دست وبمستر و سئوکاره؛ یعنی شما میتونید با عمل به یک سری قواعد و دستورات مشخص کاری کنید که این ماشین کنترلی (خزنده گوگل) با سرعت بالاتری صفحات سایت رو پیمایش کنه و پیش بره.
در ادامه 3 اقدام که به عملکرد رباتهای خزنده گوگل سرعت میبخشه رو بهتون معرفی میکنم:
- لینک سازی داخلی اصولی و هدفمند
لینک سازی داخلی استاندارد مهمترین عامل تاثیرگذار در سرعت و کیفیت خزیدن رباتهای کراولر در سایت هست؛ چرا که پایه و اساس عملکرد این رباتها در خزش و ردگیری لینکهاست.
لینک سازی داخلی خزندههای گوگل رو برای مدت زمان بیشتری در سایت نگه میداره و باعث میشه بیشتر و بهتر وب سایت رو بررسی کنن.
- تهیه نقشه سایت (sitemap)
همچنان که قبلتر هم بهش اشاره کردم، رباتهای خزنده گوگل پروسه خزیدن بین صفحات یک سایت رو از بررسی نقشه اون سایت استارت میزنن. سایت مپ لینک تمام صفحات موجود در سایت رو داخل یک فایل xml جمع آوری کرده و باعث میشه رباتهای خزنده گوگل راحتتر به صفحات دسترسی پیدا کرده و عمیقتر در سایت خزش کنن.
- تولید و انتشار منظم و سازمان یافته محتوا
نقطه ضعف خزندههای گوگل تولید محتوا هست و این رباتها از محتوای جدید استقبال میکنن؛ به عبارت دیگه وقتی شما محتوای جدیدی رو در سایت بارگذاری میکنید، این خزندهها سیگنالش رو دریافت کرده و به سمت سایت شما میان. حالا اگه این انتشار محتوا از الگو و نظم خاصی پیروی کنه باعث میشه رباتهای خزنده گوگل با فاصله زمانیهای کمتر و سریعتر برای خزش مجدد به سایت شما برگردن.