تاریخچه سئو سایت

اولین بار در دهه ی آخر قرن بیستم، وبمسترها و تولید کننده های محتوا شروع به بهینه سازی سایت ها برای موتورها جستجو کردند. در همان زمانی که اولین موتورهای جستجو شروع به دسته بندی صفحات وب کردند، سئو سایت نیز شروع شد.

تاریخچه سئو سایت

در ابتدا تمام آنچه وبمسترها باید انجام می دادند این بود که آدرس URL سایت یا صفحه را به موتورهای جستجوی مختلف ارسال کنند تا عنکبوتی را بفرستد تا سایت را بخزد و لینک های خارجی سایت را بررسی کند و اطلاعات موجود در صفحه را ایندکس گذاری کند. پروسه به این صورت بود که عنکبوت صفحه را دانلود می کرد و آن را بر روی سرور موتور جستجوی خود ذخیره کرده و در این حال برنامه ی دیگری به نام ایندکسر یا شاخص، اطلاعات مختلف موحود در آن یا درباره ی آن صفحه را استخراج می کند. برای مثال کلمات و محل قرار گیری آن ها و نیز حجم هر کلمه و لینک ها. این اطلاعات در یک برنامه ی زمان بندی شده برای خزیدن های بعدی قرار داده می شود تا در تاریخ مشخص دیگری آن خزنده دوباره به آن صفحه برود و شاخص گذاری کند.

دارندگان سایت ها اولین بار وقتی به اهمیت رتبه ی سایت خود در صفحات موتورهای جستجو پی بردند که سئو سایت و نیز بهینه سازی آن به دست سئو کاران کلاه سفید و کلاه سیاه افتاد. عبارت سئو سایت اولین بار در سال 1997 به کار برده شد. فردی به نام بروس کلی این واژه را به عنوان یک مفهوم مهم تجاری معروف و مطرح کرد.در می 2007 جیسون گمبرت سعی به برندسازی واژه ی سئو کرد. اعتقاد او این بود که سئو سایت پروسه ای است دربرگیرنده ی دستکاری کلمات کلیدی و هدف اصلی آن خدمات تجاری و بازار یابی نیست.

نسخه های اولیه ی الگوریتم های جستجو بر وبمسترها متکی بودند. وبمسترها اطلاعاتی مانند کلمات کلیدی، متا تگ یا فایل های ایندکس را در موتورهای جستجویی مانند ALIWEB فراهم می کردند. اطلاعات مربوط به متا تگ ها را می توانید در مقاله ی مربوطه مطالعه کنید. استفاده از متا داده برای ایندکس کردن صفحات کار چندان معتبری نبود اما از آن جا که کلمات کلیدی ممکن بود نشانه ی درستی برای اطلاعات عینی سایت نباشد، چاره ی دیگری نبود. بنابراین اگر متا تگ ها درست نبودند، نتایج جستجو نیز غلط از آب در می آمدند. تولید کننده های محتوا همچنین برخی مولفه های HTML صفحه را دستکاری می کردند تا در موتورهای جستجو رتبه ی خوبی به دست بیاورند.

با چنین وابستگی به کلمات کلیدی، که بسیار در دست وبمسترها بود، موتورهای جستجو در معرض سوء استفاده و دستکاری رتبه بندی می شدند. بنابراین نیزا بود تعبیری اندیشیده شود. میدانیم که موتورهای جستجو در یافتن اطلاعات معتبر بسیار مهم هستند و اگر موتور جستجویی نتواند اطلاعات درستی را به کاربر بدهد کاربر سراغ موتور جستجوی بهتری می رود. موتورهای جستجوی اولیه ای مانند ALTAVISTA و INFOSEEK الگوریتم های شان را طوری طراحی می کردند که وبمسترها نتوانند در رتبه بندی سایت ها دخالت و دستکاری کنند. بنابراین شرکت هایی که تکنیک های سئو تابلو و ناشیانه ای را به کار می گرفتند از نتایج موتورهای جستجو حذف می شدند. هنوز نیز همین گونه است. پروسه ی سئو یک پروسه ی حرفه ای است که نیازمند دانش مستمرا به روز شده است.

در سال 2005 مجله ی وال استریت ژورنال، شرکتی را افشاء کرد که از روش های با ریسک بالا برای بهینه سازی سایت استفاده می کرده و این ریسک بالا را به مشتری های خود اطلاع نداده بود. گوگل نیز این سایت را و برخی از مشتری هایش را از موتور جستجویش حذف کرد. برای جلوگیری از همین سوء استفاده ها، موتورهای جستجو معمولا در مهمترین سمینارها و کنفرانس های سئو سایت و بهینه سازی سایت شرکت می کنند تا دانش خود را و نیز الگوریتم های خود را به روز نگه دارند. البته بسیاری از سایت های معتبر در این زمینه اطلاعات مناسبی را در مورد بهینه سازی سایت فراهم می کنند. گوگل همچنین برنامه ی سایت مپ یا نقشه ی سایتی دارد که به وبمسترها کمک می کند تا بفهمند آیا گوگل در ایندکس کردن وبسایت آن ها مشکلی دارد و اطلاعاتی را نیز در مورد ترافیک گوگل به آن وبسایت مربوطه می دهد. ابزار وبمستر بینگ نیز راهی را برای وبمسترها تعبیه کرده تا نقشه سایت و وب فیدز فراهم کنند و کاربرها نیز نرخ خزیدن صفحه را بفهمند.

ارتباط سئو سایت با گوگل

در سال 1998 دو فارغ التحصیل از دانشگاه استنفورد به نام های پیج و برین سایت گوگل را به راه انداختند که از آن زمان به بعد کاربران اینترنتی وفادار بی شمار و روز افزونی را به خود اختصاص داد. بخشی از محبوبیت گوگل به خاطر سادگی اش بود. همچنین گوگل الگوریتم های مشخصی را تعبیه کرده بود که دستکاری در فاکتورهای درون صفحه ای و برون صفحه ای (مانند رتبه ی سایت و تحلیل هایپرلینک) سئو سایت را که مشخصه ی سایر موتورهای جستجوی پیشین بود را بسیار سخت می کرد. برای اطلاعات در مورد مولفه های درون صفحه ای گوگل به مقاله ی مربوطه رجوع کنید. در سال 2005 گوگل نتایج جستجوی موتورهای جستجویش را با توجه به سابقه ی سرچ یا جستجوی هر کاربر با توجه به آی پی مربوطه اش شخصی سازی کرد. در همین میانه برخی سایت ها اقدام به خرید و فروش لینک کردند. برای جلوگیری از این موضوع گوگل در سال 2009 این کار را با گزینه ی نوفالو nofollow محدود کرد. در سال 2010 نوعی سیستم ایندکس جدید به نام گوگل کافیئن مطرح شد که به کاربران این امکان را می داد که زودتر به مطالب تازه پست شده دسترسی داشته باشند. کافئین نتایجی 50 درصد به روز تر به کاربران می داد. گوگل تا همین امروز نیز هر روز بیشتر و جدی تر در راستای به روز رسانی الگوریتم هایش گام بر میدارد تا نتایج بهتر و معتبر تری را به کاربرانش بدهد.