فایل صفحه های کلیدی وبسایت

 

باز کردن لینک و پیوند‌های فرنگی در کاغذ ای جدید: توصیه می کنیم کلیه پیوند‌های فرنگی را با به فعالیت گیری از فرمان ”target = “_blank در تگ‌های a، در یک تب نو باز فرمائید. در حالتی‌که می خواهید که پیوند‌های فرنگی اعتبار اینترنت‌اینترنت سایت شما را زیر نیاورند، میتوانید با استفاده از ajax آنان‌را از حیث ربات‌های گوگل نهفته نمائید. گشوده‌نگری فولدر برگه های کلیدی وبسایت

فایل صفحه های کلیدی وبسایت را باز کرده و آن ها را از دید بی نقص بودن کدها،‌ تاریخ ذخیره سازی و انکودینگ بازبینی فرمائید. پرهیز از ایندکس‌شدن بعضی ورقه های: لازم میباشد که فایل‌های “cgi-bin”, “wp-includes”, “cache”, “backup” در پوشه robots.txt از ایندکس‌شدن منع شوند. پرهیز از ایندکس‌شدن فایل‌های بلا به کارگیری: فولدر‌های بلااستفاده (مانند پوشه‌های با فرمت SWF) یا این که پوشه‌های خالی doc و pdf لازم میباشد که در فولدر robots.txt از ایندکس‌شدن منع شوند. در صورتی پوشه‌های doc و pdf فولدر‌های قابل‌به کارگیری و مفیدی می‌باشند و حاوی اطلاعات مهمی می باشند، نباید از ایندکس‌شدن منع شوند. برای خودداری از نشانی یگانه یا این که کل وب سایت هم میتوانید از این راهنما استفاده نمائید. الزامات اضافی سئو تکنیکال، منحصر وبسایت‌های فروشگاهی، دارای جستجو و کنترل دسترسی: برای پروژه‌هایی که از لحاظ فنی پیچیده‌خیس می باشند، مانند اینترنت سایت‌هایی که کنترل دسترسی یوزرها و جستجوی داخلی برای کالاها،‌ نوشته‌ها و … دارند،‌ یک سری نکته بیشتر بهینه سازی تکنیکال موجود هست که لازم میباشد رعایت شوند: پیشنهاد می شود که از “تگ کنونیکال یا این که rel=canonical” برای از فی مابین بردن صفحه های تکراری به فعالیت گیری فرمائید و ولی با رعایت تمام معیارهای ارجاعی و رفتاری. این پیشنهاد برای وبسایت‌های کوچک و بی آلایش قابل توجیه میباشد ولی به دلیل برخی پیچیدگی‌ها و سختی‌هایی که پیاده‌سازی آن داراست اغلب در حد یک پیشنهاد باقی میماند و عملی نمی شود.در‌صورتی‌که با نحوه به کارگیری از تگ کنونیکال آشنا نیستید، نگران نباشید! ما در وب لاگ میموس مفصل به توضیح آن پرداخته‌ایم. صفحات خیس و  سئو تمیز‌سازی مختلف و صفحه های فیلتر‌های محصولات بایستی از ایندکس‌شدن منع شوند. در حالتی که قرار نیست ترافیک متعددی به‌این صفحه های هدایت شود می بایست پیوند‌های با مقصد این کاغذ های نیز با به فعالیت گی سئو سایت ری از ajax از نظر ربات‌های موتورهای جستجو پنهان شود. ورقه های ورود به اینترنت سایت، تغییر تحول رمز عبور،‌ صفحه های پردازش پیشنهاد و غیره کلیه بایستی به وسیله پوشه robots.txt از ایندکس‌شدن منع شوند. نتیجه ها جستجو نیز بایستی بوسیله فولدر robots.txt از ایندکس‌شدن منع شوند. گونه های مختلف print مانند “_print”, “version = print” و موارد شبیه می بایست از ایندکس‌شدن منع شوند. برگه های action مانند “? Action = ADD2BASKET”, “? Action = BUY” می بایست از ایندکس‌شدن منع شوند. بخش‌هایی که دارای محتوای تکراری می باشند بایستی از ایندکس‌شدن منع شوند . مانند: “feed”, “rss”, “wp-feed”. نکات مهم: الف) به عنوان رویه جایگزین به‌جای به عمل گیری از فایل robots.txt میتوانید از متاتگ name=”robots” با فیلد‌های “content=”noindex, follow”” به کارگیری فرمائید. این ساختار به وسیله موتورهای جستجو بهتر از فایل robots.txt دیده میشوند.ولی نسبتاً تنظیمات پیچیده‌تری دارند. ب) استفاده صحیح از صفت rel=”canonical”: به‌طور اساسی فرآیند ایندکس‌شدن سایت را سهل و آسان‌خیس میکند. معیارهای پیوند شدن و… را در صفحه های تکراری به‌درستی اعمال می‌نماید. مخصوصاً زمانی کمپینی برگزار کرده‌اید و صفحات دارای کد UTM می باشند. فیض گیری بهینه سازی فنی سایت مثل استخوان‌بندی یک ساختمان میباشد. هر چه مستحکم‌خیس و بیش خیس بر اساس قانون ها موتورهای جستجو باشد، بهینه سازی داخلی و فرنگی آن هم نتیجه ها قابل پذیرش‌تری خواهند داشت. با پیشرفت روزافزون وب سایت‌های اینترنتی وقت آن رسیده آستین بالا بزنید خودتان هم به تدریج با بهینه سازی وبسایت و تکنیک‌های آن آشنا گردید! بهینه سازی وبسایت می تواند حتی به عنوان یک منشا درآمد جدید و اتفاقا پرسود هم برای شما باشد. برای فراگیری بهینه سازی وی‌لین قدم می‌تواند خواندن همین مقالات و آشنایی با اصطلاحات آن باشد. همین حال به وبسایت‌تان بروید و مواقعی که درین مبحث با آنها آشنا شدید را گشوده نگری فرمایید و هر جا به بن‌بست خوردید یا این که سوالی برایتان پیش آمد همین‌جا برای ما بنویسید تا پاسخ دهیم. فقط کافیست خودتان بخواهید تا در بهینه سازی جز رشته‌ای‌ها باشید!