طبقه بندی: پورتال اینترنت و فناوری اطلاعات
چچ
آنالیز وب

آنالیز وب

داده‌های جمع آوری شده تقریبا همیشه شامل گزارشهای "ترافیک وب" هستند. این گزارشها ممکن است حاوی میزان پاسخ ایمیل، دادههای کمپینهای میل مستقیم، اطلاعات فروش، داده‌های کارکرد کاربران مثلا نمودار "هیت کلیک ها و سایر اندازه گیرهای مرسوم باشند.

  • دو رویکرد تکنولوژیک
  • دو رویکرد تکنولوژیک اصلی برای جمع آوری داده های آنالیز وب وجود دارد: اولین روش "آنالیز لاگ فایل" (logfile analysis) است. در این روش، لاگ فایلها راکه وب سرورها همه عملیاتشان را در آنها ثبت می کنند می خوانند. روش دوم "تگ‌دادن به صفحات" (page tagging) است که از "جاوا اسکریپت" روی هر صفحه استفاده می کنند تا هنگامی که یک مرورگر وب بر روی یک صفحه عمل می کند، یک سرور ثالث را خبردار کند.
  • آنالیز لاگ فایل
  • وب سرورها همیشه همه عملیات شان را در یک لاگفایل ثبت میکنند. به زودی مشخص شد که این لاگ‌فایل‌ها که قابل خواندهشدن بهوسیله یک برنامه هستند، میتوانند داده هایی درباره محبوبیت یک وبسایت فراهم کنند. به این ترتیب نرمافزار‌های آنالیز لاگ فایل ظهور کردند. در اوائل دهه 1990 آمار وب سایت عمدتا متشکل از شمارش تعداد تقاضاهای ارائه شده مراجعین به وب سرور بود. این رویکرد منطقی می نمود چرا که هر وب سایت اغلب شامل یک فابل منفرد HTML بود. اما با وارد شدن گرافیک به HTML [گرافیک وب] و وب سایت‌هایی که چندین فایل HTML را در بر می‌گرفتند، این شمارش دیگر چندان مفید نبود. اولین لاگ آنالایزر واقعی تجاری در سال 1994 بوسیله IPRO ساخته شد. دو واحد اندازه گیری هم در میانه دهه 1990 برای تعیین دقیق‌تر فعالیت انسانی روی وب سرورها ارائه شدند. این دو واحد "صفحه دیده‌شده "(page view) و "بازدیدکننده صفحه (page visit or session) بودند. "صفحه دیده‌شده" به معنای تقاضای یک وب ‌سرور برای یک صفحه، در مقابل یک گرافیک، است، اما "بازدیدکننده صفحه" به معنای یک رشته از تقاضاها از یک مرجع با هویت منحصربه‌فرد است که پس از مدت معینی از عدم فعالیت، معمولا 30 دقیقه، منقضی شده است. صفحات دیده‌شده" و "بازدیدکنندگان صفحه" هنوز معیارهای اندازه‌گیری هستند که به طور رایج به نمایش درمی‌آیند، اما اکنون آنهارا هم ابزارهایی غیردقیق محسوب می‌کنند. ظهور "اسپایدرها و روبات‌های" موتورهای جستجو [چطور موتورهای جستجو کار می‌کنند؟] در اواخر دهه 1990 به همراه "وب پروکسی‌ها" و "آدرس‌های IP به طور فعال اختصاص‌یابنده" برای شرکت‌های بزرگ و ISPها، شناسایی بازدیدکنندگان منحصر به فرد انسانی از یک وب‌سایت را مشکل‌تر کرد. استفاده گسترده از "کش‌های وب" نیز مانعی بر سر راه "تحلیل لاگ‌فایل" ‌پدید آورد. اگر شخصی یک صفحه را دوباره ببیند، تقاضای دوم از کش مرورگر (browser cache) پاسخ داده می‌شود، و تقاضایی در وب‌ سرور دریافت نخواهد شد. این امر به معنای آن است که مسیر کلیک شخص در سایت از دست می‌رود. با پیکربندی وب ‌سرور می‌توان بر "کش‌کردن" (caching) غلبه کرد، اما این کار ممکن است کارکرد بازدیدکننده از وب‌‌سایت را دچار اشکال کند.
  • تگ دادن به صفحه
  • نگرانی‌ها در مورد دقت تحلیل لاگ‌فایل با وجود کش‌شدن، و گرایش به انجام آنالیز وب به عنوان یک سرویس سفارشی دومین روش جمع آوری داده‌ها را پدید آورد: تگ‌دادن به صفحه یا “Web bugs” در میانه دهه 1990 به طور شایع شمارنده‌های وب را در وب‌سایت‌ها مشاهده می‌کردیم تصاویری درون یک صفحه وب که تعداد دفعاتی را به نمایش می‌گذاشتند که آن تصویر درخواست می‌شد و به این ترتیب تخمینی از شمار بازدیدها از آن صفحه را به دست می‌داد. در آخر دهه 1990 این تصویر قابل مشاهده به یک تصویر کوچک غیرقابل مشاهده تحول یافت که با استفاده از جاوا اسکریپت، به همراه درخواست تصویر؛ اطلاعات معینی درباره صفحه و بازدیدکننده را هم انتقال می‌داد. بعد یک شرکت آنالیزکننده وب می‌توانست این اطلاعات را از راه دور پردازش و آماری تفصیلی را تولید کند. سرویس‌های آنالیز وب همچنین فرآیند تخصیص‌دادن "کوکی" (Cookie) به کاربران را هم انجام می‌دهند و به این ترتیب می‌‌تواند آنها را حین بازدید و بازدیدهای بعدی به طور انحصاری شناسایی کنند. با رواج استفاده از سلوشن"آژاکس"، شیوه جایگزینی برای کاربرد یک تصویر غیرقابل مشاهده ایجاد شده است: استفاده از فراخوان سرور از سوی صفحه اجراشده. در این شیوه هنگامی که صفحه روی مرورگر وب اجرا می‌شود، یک قطعه کد آژاکس، سرور را احضار می‌کند و اطلاعات مربوط به مرجع را به آن منتقل می‌کند؛ بعد این اطلاعات را یک شرکت آنالیز وب جمع‌آوری می‌کند.
اجازه انتشار: قید نشده
نوع: ترجمه
آدرس وب سایت: www.aftab.ir