منبع پایان نامه درمورد رتبه بندی، موتورهای جستجو، نمایه سازی، سلسله مراتب

دانلود پایان نامه ارشد

ن حوزه دسترسی داشته‌باشند و استفاده بهینه از آن‌ها به عمل آورند.
حضور مراکز پژوهشی، دانشگاه‌ها و سازمان‌های تخصصی در اینترنت بدان معناست که اینترنت پدیده‌ای است که می‌تواند در خدمت دانش، آگاهی و علم قرارگیرد.
برخی از مزایای وب‌سایت دانشگاه‌ها و مراکز پژوهشی عبارتند از:
➢ وب‌سایت‌ها به دلیل فراهم آوردن امکان ارائه تصویر کامل‌تری از فعالیت‌های متخصصان و محققان، بهتر می‌توانند خروجی آن‌ها را منعکس نمایند.
➢ وب در کنار ابزارهای رسمی انتقال اطلاعات نظیر مجلات الکترونیکی، انواع غیررسمی آن را نیز پوشش می‌دهد.
➢ انتشارات وب، ضمن رعایت استانداردهای بالای کیفیت فرایندهای نقد متون علمی، ارزان‌تر می‌باشند.
➢ همچنین وب، با فراهم کردن امکان دسترسی به دانش علمی برای دانشمندان و مؤسسات علمی در کشورهای در حال توسعه و نیز برای اشخاص ثالث نظیر سهام‌داران اقتصادی، صنعتی یا فرهنگی در جامعه خود، مخاطبان بسیار بیشتری را تحت پوشش قرارمی‌دهد. (حبیب اللهی،بی تا)
وب و فعالیت‌های کتابداری و اطلاع‌رسانی
شبکه جهانی وب عمیق‌ترین تاثیر را بر فعالیت‌های اطلاع‌رسانی و خدمات اطلاعاتی داشته‌است. این
مساله به احتمال زیاد ناشی از عوامل زیر است:
➢ وجود منابع و پایگاه‌های متعدد اطلاعاتی قابل دسترسی از طریق اینترنت
➢ دسترسی سریع به اخبار و اطلاعات روزآمد
➢ وجود موتورهای جستجوی قوی و رایگان
➢ احتمال دستیابی به منابع چند رسانه‌ای در کنار منابع متنی در موضوعات مختلف
➢ کمتر بودن محدودیت زمانی و مکانی دسترسی به اینترنت در مقایسه با دسترسی به کتابخانه
➢ ساختار ابرمتنی صفحات وب و دستیابی آسان به مطالب مرتبط
➢ کاهش و اسطه‌ها و امکان جستجوی مستقیم اطلاعات توسط کاربران سطح متوسط
در مجموع، شبکه جهانی وب به دلایل فوق به بزرگ‌ترین و محبوب‌ترین نظام بازیابی اطلاعات در جهان تبدیل شده‌است و از این رو از سوی کتابداران و متخصصان اطلاع‌رسانی به عنوان یک ابزار کارآمد مرجع، ارتباطات و اشاعه اطلاعات مورد توجه قرارگرفته‌است.
کتابداران ماهر و آگاه از محیط و قابلیت‌های وب، استفاده فراوانی از اطلاعات قابل دسترس از طریق شبکه وب برای تکمیل خدمات از جمله در بخش‌های مجموعه‌سازی و سازماندهی منابع کتابخانه‌های خود به عمل می‌آورند. از دیدگاه مجموعه سازی، وجود پایگاه‌های تمام متن نشریات علمی، کتابخانه‌ها را از محدودیت‌های نشریات چاپی رها ساخته‌است.مفهوم نشریات دسترسی باز رواج پیدا کرده‌است که بر دسترسی رایگان کاربران به انتشارات تاکید می‌شود. (اسدی، 1391)
طراحی صفحات وب
تمامی وب‌سایت‌ها بدون در نظر گرفتن نوع، تا زمان تکمیل شدن هفت مرحله را در پیش دارند: (علایی آرانی، 1386)
1. تعیین رسالت وب‌سایت و جامعه هدف
زمانی می‌توان وب‌سایت مناسبی طراحی کرد که مأموریت و مخاطب برای طراح روشن باشد. بهتر است در طراحی وب‌سایت هدف و خطمشی قابل رجوع داشته، جامعه هدف شناسایی شود.
2. گردآوری ملزومات- چه اطلاعاتی مورد نیاز است؟
بعد از شناخت جامعه استفاده‌کننده، نوبت به این پرسش می‌رسد که آن‌ها چه چیزی می‌خواهند، مهارت کامپیوتری آن‌ها چقدر است. سپس باید محیط کامپیوتری آن‌ها را مورد بررسی قرار داده، نوع اطلاعاتی که باید از کاربر جمع شود به علاوه شیوه جمع‌آوری این اطلاعات را تعیین نمود.
بعد از مشخص شدن نوع اطلاعات مورد نیاز از کاربر باید به جمع‌آوری این اطلاعات پرداخت.
3. ایجاد و اصلاح مفاهیم وب‌سایت
بعد از جمع‌آوری اطلاعات، لازم است که با این اطلاعات کاری انجام شود تا طراحان وب‌سایت نقشه‌ای از مفاهیم وب‌سایت طراحی کنند. برای این مهم، دو کار باید انجام شود:
• مشخص کردن مواردی که باید در صفحه وجود داشته باشند
• سازماندهی اجزا مذکور
وقتی که فهرستی از اجزا وجود دارد مهم است که چگونه این موارد متنوع سازماندهی می‌شوند. بهتر است که فهرستی از صفحه‌هایی که نیاز است تا سایت ایجاد شود، تهیه شود و با توجه به طرح‌ها، اجزا در آن‌ها سازماندهی گردد.
به طور خلاصه، در هر صفحه باید در مورد عنوان صفحه، هدف صفحه، محتوایی که باید تغییر کند، زمان‌هایی که باید اطلاعات تغییر کند یا به روز شود، چه کسی باید به روز رسانی را انجام دهد و نحوه ارتباط صفحه با سایر صفحه‌ها تصمیم گرفت.
4. ایجاد و اصلاح طراحی فیزیکی
در این مرحله، روند تبدیل مفاهیم به طراحی فیزیکی انجام می‌شود. در این مرحله باید به موارد زیر توجه نمود:
• اثر نیرومند جاذبه بصری حتی می‌تواند به فرافکنی مسأله استفاده‌پذیری منجر شود.
• جنبه‌های زیبایی‌شناسی، در انتخاب وب‌سایت توسط کاربر تأثیر دارد.
• در این مرحله باید در عین زیبایی، به سادگی نیز توجه نمود.
5. انجام آزمایش‌های قابلیت استفاده وب‌سایت
یکی از نشانه‌های طراحی وب‌سایت کاربرمدار، آزمایش قابلیت استفاده است. سه نوع متفاوت از آزمایش‌های استفاده‌پذیری وجود دارد:
• مرور و آزمایش تخصصی
• آزمایش بر پایه کاربر
• مرور و آزمایش خودکار
6. اجرا و عرضه وب‌سایت
اجرا شامل تعیین نام قلمرو، بستن قرارداد با میزبان وب برای نشر و امتحان نهایی وب‌سایت بر روی سرور و قبول قرارداد می‌باشد.
پس از ایجاد سایت، آخرین مرحله، انتشار آن بر روی اینترنت است. بدین معنا که باید آن سایت را به تمامی کاربران اینترنت در سراسر جهان معرفی نمود.
7. ارزیابی و بهبود وضعیت وب سایت
پس از نشر وب‌سایت بر روی اینترنت، اگر توسعه دوره‌ای محتوای وب‌سایت به طور صحیح و نظام‌مند ادامه یابد، سایت خواهد توانست نیازهای جامعه خود را تأمین نماید. ارزیابی دوره‌ای باعث می‌شود مسائل و مشکلات، شناسایی شده و حتی با طراحی مجدد وب‌سایت اقدام به رفع مشکلات نماییم تا وب‌سایت بتواند به حیات خود ادامه دهد.
معماری اطلاعات در وب‌سایت‌ها
در موقع طراحی وب‌سایت‌ها سؤال این است که با چند کلیک کاربر می‌تواند به اطلاعات مورد نیازش دسترسی پیدا کند. معماری اطلاعات به چگونگی حرکت کاربران در فضای اطلاعاتی می‌پردازد.
معماری اطلاعات در مورد وب‌سایت، مسائل زیر را پوشش می‌دهد:
• در یک سایت چند سطح باید تعبیه شود.
• چند انتخاب در هر سطح باید وجود داشته باشد.
• چه مسیرهایی برای دسترسی به ساختارها وجود داشته باشد.
• چه تعداد کلیک نیاز است تا از صفحه اصلی به صفحه حاوی مطالب مورد نظر برسیم.
• مشخص کردن تعداد انتخاب‌ها در هر سطح (فعالیتی نظیر تنظیم رف‌برگه البته نه به صورت الفبایی)
بهترین ساختار برای طراحی وب‌سایت، سلسله مراتبی است. شیوه‌های مختلفی برای معماری اطلاعات وجود دارد. در معماری وب‌سایت، فهرست‌ها را به نحوی طراحی می‌کنیم که خاصیت به یادسپاری داشته‌باشند.
ساختار رده‌بندی نمونه‌ای از شیوه‌های معماری هستند که مهم‌ترین آن‌ها به قرار زیر هستند:
• سلسله مراتب گسترده و کم عمق
• سلسله مراتب عمیق و باریک (علایی آرانی، 1386)
ساختار «گسترده و کم‌عمق» به این صورت است که گزینه‌های بسیاری وجود دارد تا کاربر از میان آن‌ها دست به انتخاب بزند، اما مطالب در سطوح کمی ارائه می‌گردد. در مقابل، ساختار «عمیق و باریک» ساختاری است که گزینه‌های محدودی را در هر صفحه در اختیار کاربر قرار می‌دهد ، اما لایه‌های عمیقی از اطلاعات ارائه می‌گردد. (روزنفلد و مورویل45، نقل در نیدرست، 2007)
روزنفلد و مورویل معتقدند: «در ساختار گسترده، بایستی نسبت به توانایی افراد در مرور چشمی اطلاعات و محدودیت‌های ادراکی ذهن بشر توجه داشت». هم‌چنین نسبت به بازیابی بیش از حد اطلاعات از طریق ارائه گزینه‌های زیاد در یک صفحه، گروه‌بندی و ساختاربندی اطلاعات در سطح صفحه و تقسیم‌بندی‌های موضوعی، هشدار می‌دهند.
در ساختار عمیق، حتی باید بیشتر احتیاط کرد. اگر کاربران ناچار به پویش بیش از دو یا سه لایه اطلاعاتی باشند، ممکن است به سادگی مأیوس شده، سایت شما را ترک کنند .نتایج یک پژوهش انجام شده در میکروسافت نشان می‌دهد که وجود تعادل بین عمق و وسعت، بهترین نتیجه را به دنبال خواهدداشت .ساختار خوب موجب می‌شود که وب‌سایت قابل درک‌تر شود. (همان)
تعریف موتور جستجو
موتورهای كاوش پایگاه‌های اطلاعاتی قابل جستجویی هستند كه از طریق برنامه‌هایی رایانه‌ای به شناسایی و نمایه سازی خودكار صفحات وب می‌پردازند (كوشا،1382). كلمه خودكار در این تعریف توجه ما را به این نكته جلب می‌نماید كه موتورهای كاوش برای تجزیه و تحلیل كردن 46صفحات وب به نیروی انسانی وابسته نیستند.
از طرف دیگر موتورهای كاوش الگوریتم‌های متفاوتی را برای شناسایی، نمایه سازی و بازیابی اطلاعات وب به كار می‌گیرند و اغلب به دلایل تجاری، الگوریتم‌های بازیابی و رتبه بندی نتایج كاوش خود را فاش نمی‌کنند (كوشا،1382). اگر چه توافقی بر سر موثر بودن یك عامل نسبت به سایر عوامل وجود ندارد .به طور مثال گوگل بیش از 1000 عامل را در نظام رتبه بندی نتایج خود مد نظر قرار داده اما به دلیل ماهیت تجاری و حفظ یكپارچگی نتایج كاوش، از ذكر جزئیات خودداری می‌کند (شریف،1386).
طی تحقیق كه برین و پیچ47 در سال 1998 به تحلیل دقیق آناتومی گوگل پرداختند به این نتیجه رسیدند كه گوگل علاوه بر نمایه سازی کلیدواژه‌ای كلمات متن، بر تحلیل پیوندها نیز تاكید دارد.
با وجود مخفی نگه داشتن الگوریتم موتورهای كاوش، عوامل زیر را به عنوان عوامل موثر بر رتبه بندی نتایج توسط موتورهای كاوش ذكر کرده‌اند.
1.ساختار ابرداده ای48 : چنانچه محتوای صفحه به درستی در فیلدهای ابرداده ای بازنمود شوند و موتورهای كاوش از این فیلدهای ابر داده‌ای در رتبه بندی و بازیابی نتایج خود بهره ببرند، مانعیت افزایش پیدا می‌کند به طوریكه نتایج بازیابی به سطحی قابل مدیریت كاهش می‌یابد. بعلاوه رتبه بندی صفحات صحت بیشتری خواهد داشت.
2. محتوای صفحه49
3.وضعیت ارجاعات فرامتنی50 (شریف،1386)
فن آوری موتورهای جستجو
وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه می‌شود، کاربران در واقع نتیجه کار بخش‌های متفاوت موتور جستجوگر را می‌بینند. موتور جستجو اطلاعات را از پایگاه اطلاعاتی خود مورد جستجو و بازیابی قرار می‌دهد و اینطور نیست که همان لحظه اطلاعات را از اینترنت به دست آورد، بلکه از قبل اطلاعات را از اینترنت گرفته و در پایگاه خود ذخیره می‌کند.
در ابتدا مرحله گردآوری اطلاعات صفحات وب را داریم از طریق روبات‌های اطلاعاتی می‌توانیم به جستجوی مستمر و مداوم اطلاعات در صفحات وب بپردازیم. از جمله روبات‌های اینترنت می‌توانیم به اسپایدرها51 و روبات خزنده52 اشاره کنیم.
اسپایدر، اینترنت را برای اسناد جدید وب مورد جستجو قرار می‌دهد و آدرس‌های آن‌ها و اطلاعات مربوط به محتوا را در بانک اطلاعاتی قرار می‌دهد که با موتور جستجو می‌توان آن را در دسترسی قرار داد(هیئت مولفان و ویراستاران انتشارات میکروسافت،1382،ص 544). کار اسپایدر بازبینی کدهای اج تی ام ال53 صفحات وب می‌باشد، در حالی که کاربران وب نتیجه حاصل از کنار هم قرار گرفتن این کدها را می‌بینند.
در حالی که کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل می‌کند و مشخص می‌کند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم می‌گیرد که کدام یک از لینک‌های صفحه‌ای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. کراولر، ممکن است قبلا” برنامه ریزی شده باشد که آدرس‌های خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آن‌ها دیدن کند. دنبال کردن لینک‌های یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را می‌تواند در پایگاه داده‌هایش ذخیره کند و همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل روبوت54 انجام می‌شود.
سپس اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار می‌گیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار می‌گیرند و به بخش‌های متفاوتی تقسیم می‌شوند. تجزیه و تحلیل بدین معنی است که مشخص می‌شود

پایان نامه
Previous Entries منبع پایان نامه درمورد کتابخانه مرکزی، توزیع فراوانی، زبان فارسی، دانشگاه تهران Next Entries منبع پایان نامه درمورد نمایه سازی، موتورهای جستجو، رتبه بندی، بازیابی اطلاعات