دارایی خزش گوگل: چرا سرعت مقر‌ داده اساسی‌خیس از تعداد صفحه های میباشد؟
حقیقت کمتر شنیده‌گردیده درباره دارایی خزش
در حالی‌ که سال‌ها تصور میشد «تعداد صفحه های» یک برهان گزینش‌کننده در خزش وبسایت به وسیله گوگل میباشد، هم اکنون گوگل به طور رسمیً تأیید کرده که سرعت مقر داده التفات بیشتری سئو در مشهد دارااست.
در بخش اخیر پادکست «Search Off the Record»، گری ایلیس از دسته سرچ گوگل اعلام‌کرد که حتی وبسایت‌هایی با تعداد صفحه های کمتر از آستانه یک میلیون، در شرایطی که مقر داده‌ای نماید و ناکارآمد داشته باشند، ممکن میباشد با اشتباهات دور از شوخی در خزش روبه‌رو شوند.
 
این بیانیه، خیر‌فقط طریقه ما به دارایی خزش را تغییر و تحول می دهد، بلکه یک پل اصلی فی مابین seo فنی (Technical سئو) و با صرفه‌سازی زیرساخت‌های دیتابیس ساخت و ساز  خدمات سئو در مشهد  می‌نماید.
 
میزان دارایی خزش چیست و چرا عنایت دارااست؟
میزان دارایی خزش (Crawl Budget) به ترازو منابعی گفته میشود که گوگل برای خزش (Crawling) صفحه ها یک وبسایت تخصیص میدهد. این زمینه به‌ویژه برای وبسایت‌های گرانقدر، دکان‌های آنلاین، رسانه‌ها و اینترنت‌وبسایت‌های دارنده محتوای داینامیک عنایت کلیدی داراست.
 
 البته اکنون گوگل می گوید حتی در شرایطی‌که صفحه ها شما کمتر از ۱ میلیون باشد، البته ساختار دیتابیس ناکارآمدی داشته باشید، احتمالاً خزنده‌های گوگل مبتلا تأخیر، اشتباه یا این که توقف در خزش می شوند.
 
سخن مهم گوگل: «خزش» موضوع وجود ندارد، «ایندکس‌کردن» اساسی میباشد!
ایلیس درین پادکست گفته میباشد:
 
«این ایندکس‌کردن و شیوهٔ پردازش داده‌هاست که منابع سرور را مصرف می‌نماید، خیر تنهاً خزش.»
 
این پاراگراف، یک تغییر و تحول نگاه بنیادی را می‌طلبد. اکثری از سئوکاران روی بلاک کردن صفحه های با noindex یا این که محدودسازی ربات‌ها تمرکز دارا‌هستند. ولی گوگل میگوید درصورتی که زیرساخت دیتابیس شما نماید باشد، حتی شایسته ترین نقشه تارنما (sitemap) هم نمی‌تواند جلوی افت بهینه سازی را بگیرد.
 
چرا آستانه ۱ میلیون برگه تغییر و تحول نکرده میباشد؟
از سال ۲۰۲۰، گوگل این آستانه را اعلام کرده و تا امروز نیز پابرجاست. ادله این ثبات، ارتقاء به طور همزمان سود‌وری و عدم وضوح‌های اینترنت میباشد. ایلیس در پادکست به‌جوک اظهار‌کرد:
 
«در دهه ۹۰، ایندکس کردن ۱۰۰ هزار کاغذ یک شاهکار بود. امروز این عدد تنها یک تارنما میانگین میباشد.»
 
البته چرا گوگل این عدد را تغییر و تحول نداده؟ زیرا ساختارهای امروزی مانند محتوای جاوااسکریپتی، نرم افزار‌های تک‌ورقه‌ای (SPA)، و داده‌های زنده منجر گردیده‌اند تمرکز مهم به سمت سرعت پردازش محتوا برود، خیر تنهاً تعداد صفحه های.
 
آنالیز‌لیست بهینه سازی فنی مطابق سفارش‌های نو گوگل
با اعتنا به آنچه گفته شد، تمرکز بر دیتابیس و ایندکس‌پذیری بایستی جزو اپلیکیشن روزمره سئوکاران و دولوپرها باشد.
 
برای وب سایت‌های کمتر از ۱ میلیون شیت:
تمرکز بر ایجاد محتوای کیفیت خوب و به‌روزرسانی منظم
بی آلایش‌سازی کد HTML و ساختار URL
دوری از سختی ها خزش مانند JavaScript Blockers
برای تارنما‌های والا‌خیس یا این که دینامیک:
تحقیق فرصت اجرای کوئری‌ها در دیتابیس (Query Performance)
به کار گیری از کشینگ در لایه‌های سرور و نرم افزار (Redis، Memcached)
با صرفه‌سازی سرعت جواب‌دهی به درخواست‌های API
پژوهش بر لاگ‌های سرور و Googlebot برای شناسایی اختلالات خزشی
 برای همگی اینترنت‌تارنما‌ها:
استعمال از تگ‌های متا صحیح (canonical، hreflang، robots)
ارائه ورژن AMP یا این که LCP با صرفه برای تلفن همراه
تسهیل ایندکس‌پذیری با داده‌های ساختاریافته (Schema Markup)
محاسبه منظم صفحه ها ایندکس نشده در Google Search Console