
ن حوزه دسترسی داشتهباشند و استفاده بهینه از آنها به عمل آورند.
حضور مراکز پژوهشی، دانشگاهها و سازمانهای تخصصی در اینترنت بدان معناست که اینترنت پدیدهای است که میتواند در خدمت دانش، آگاهی و علم قرارگیرد.
برخی از مزایای وبسایت دانشگاهها و مراکز پژوهشی عبارتند از:
➢ وبسایتها به دلیل فراهم آوردن امکان ارائه تصویر کاملتری از فعالیتهای متخصصان و محققان، بهتر میتوانند خروجی آنها را منعکس نمایند.
➢ وب در کنار ابزارهای رسمی انتقال اطلاعات نظیر مجلات الکترونیکی، انواع غیررسمی آن را نیز پوشش میدهد.
➢ انتشارات وب، ضمن رعایت استانداردهای بالای کیفیت فرایندهای نقد متون علمی، ارزانتر میباشند.
➢ همچنین وب، با فراهم کردن امکان دسترسی به دانش علمی برای دانشمندان و مؤسسات علمی در کشورهای در حال توسعه و نیز برای اشخاص ثالث نظیر سهامداران اقتصادی، صنعتی یا فرهنگی در جامعه خود، مخاطبان بسیار بیشتری را تحت پوشش قرارمیدهد. (حبیب اللهی،بی تا)
وب و فعالیتهای کتابداری و اطلاعرسانی
شبکه جهانی وب عمیقترین تاثیر را بر فعالیتهای اطلاعرسانی و خدمات اطلاعاتی داشتهاست. این
مساله به احتمال زیاد ناشی از عوامل زیر است:
➢ وجود منابع و پایگاههای متعدد اطلاعاتی قابل دسترسی از طریق اینترنت
➢ دسترسی سریع به اخبار و اطلاعات روزآمد
➢ وجود موتورهای جستجوی قوی و رایگان
➢ احتمال دستیابی به منابع چند رسانهای در کنار منابع متنی در موضوعات مختلف
➢ کمتر بودن محدودیت زمانی و مکانی دسترسی به اینترنت در مقایسه با دسترسی به کتابخانه
➢ ساختار ابرمتنی صفحات وب و دستیابی آسان به مطالب مرتبط
➢ کاهش و اسطهها و امکان جستجوی مستقیم اطلاعات توسط کاربران سطح متوسط
در مجموع، شبکه جهانی وب به دلایل فوق به بزرگترین و محبوبترین نظام بازیابی اطلاعات در جهان تبدیل شدهاست و از این رو از سوی کتابداران و متخصصان اطلاعرسانی به عنوان یک ابزار کارآمد مرجع، ارتباطات و اشاعه اطلاعات مورد توجه قرارگرفتهاست.
کتابداران ماهر و آگاه از محیط و قابلیتهای وب، استفاده فراوانی از اطلاعات قابل دسترس از طریق شبکه وب برای تکمیل خدمات از جمله در بخشهای مجموعهسازی و سازماندهی منابع کتابخانههای خود به عمل میآورند. از دیدگاه مجموعه سازی، وجود پایگاههای تمام متن نشریات علمی، کتابخانهها را از محدودیتهای نشریات چاپی رها ساختهاست.مفهوم نشریات دسترسی باز رواج پیدا کردهاست که بر دسترسی رایگان کاربران به انتشارات تاکید میشود. (اسدی، 1391)
طراحی صفحات وب
تمامی وبسایتها بدون در نظر گرفتن نوع، تا زمان تکمیل شدن هفت مرحله را در پیش دارند: (علایی آرانی، 1386)
1. تعیین رسالت وبسایت و جامعه هدف
زمانی میتوان وبسایت مناسبی طراحی کرد که مأموریت و مخاطب برای طراح روشن باشد. بهتر است در طراحی وبسایت هدف و خطمشی قابل رجوع داشته، جامعه هدف شناسایی شود.
2. گردآوری ملزومات- چه اطلاعاتی مورد نیاز است؟
بعد از شناخت جامعه استفادهکننده، نوبت به این پرسش میرسد که آنها چه چیزی میخواهند، مهارت کامپیوتری آنها چقدر است. سپس باید محیط کامپیوتری آنها را مورد بررسی قرار داده، نوع اطلاعاتی که باید از کاربر جمع شود به علاوه شیوه جمعآوری این اطلاعات را تعیین نمود.
بعد از مشخص شدن نوع اطلاعات مورد نیاز از کاربر باید به جمعآوری این اطلاعات پرداخت.
3. ایجاد و اصلاح مفاهیم وبسایت
بعد از جمعآوری اطلاعات، لازم است که با این اطلاعات کاری انجام شود تا طراحان وبسایت نقشهای از مفاهیم وبسایت طراحی کنند. برای این مهم، دو کار باید انجام شود:
• مشخص کردن مواردی که باید در صفحه وجود داشته باشند
• سازماندهی اجزا مذکور
وقتی که فهرستی از اجزا وجود دارد مهم است که چگونه این موارد متنوع سازماندهی میشوند. بهتر است که فهرستی از صفحههایی که نیاز است تا سایت ایجاد شود، تهیه شود و با توجه به طرحها، اجزا در آنها سازماندهی گردد.
به طور خلاصه، در هر صفحه باید در مورد عنوان صفحه، هدف صفحه، محتوایی که باید تغییر کند، زمانهایی که باید اطلاعات تغییر کند یا به روز شود، چه کسی باید به روز رسانی را انجام دهد و نحوه ارتباط صفحه با سایر صفحهها تصمیم گرفت.
4. ایجاد و اصلاح طراحی فیزیکی
در این مرحله، روند تبدیل مفاهیم به طراحی فیزیکی انجام میشود. در این مرحله باید به موارد زیر توجه نمود:
• اثر نیرومند جاذبه بصری حتی میتواند به فرافکنی مسأله استفادهپذیری منجر شود.
• جنبههای زیباییشناسی، در انتخاب وبسایت توسط کاربر تأثیر دارد.
• در این مرحله باید در عین زیبایی، به سادگی نیز توجه نمود.
5. انجام آزمایشهای قابلیت استفاده وبسایت
یکی از نشانههای طراحی وبسایت کاربرمدار، آزمایش قابلیت استفاده است. سه نوع متفاوت از آزمایشهای استفادهپذیری وجود دارد:
• مرور و آزمایش تخصصی
• آزمایش بر پایه کاربر
• مرور و آزمایش خودکار
6. اجرا و عرضه وبسایت
اجرا شامل تعیین نام قلمرو، بستن قرارداد با میزبان وب برای نشر و امتحان نهایی وبسایت بر روی سرور و قبول قرارداد میباشد.
پس از ایجاد سایت، آخرین مرحله، انتشار آن بر روی اینترنت است. بدین معنا که باید آن سایت را به تمامی کاربران اینترنت در سراسر جهان معرفی نمود.
7. ارزیابی و بهبود وضعیت وب سایت
پس از نشر وبسایت بر روی اینترنت، اگر توسعه دورهای محتوای وبسایت به طور صحیح و نظاممند ادامه یابد، سایت خواهد توانست نیازهای جامعه خود را تأمین نماید. ارزیابی دورهای باعث میشود مسائل و مشکلات، شناسایی شده و حتی با طراحی مجدد وبسایت اقدام به رفع مشکلات نماییم تا وبسایت بتواند به حیات خود ادامه دهد.
معماری اطلاعات در وبسایتها
در موقع طراحی وبسایتها سؤال این است که با چند کلیک کاربر میتواند به اطلاعات مورد نیازش دسترسی پیدا کند. معماری اطلاعات به چگونگی حرکت کاربران در فضای اطلاعاتی میپردازد.
معماری اطلاعات در مورد وبسایت، مسائل زیر را پوشش میدهد:
• در یک سایت چند سطح باید تعبیه شود.
• چند انتخاب در هر سطح باید وجود داشته باشد.
• چه مسیرهایی برای دسترسی به ساختارها وجود داشته باشد.
• چه تعداد کلیک نیاز است تا از صفحه اصلی به صفحه حاوی مطالب مورد نظر برسیم.
• مشخص کردن تعداد انتخابها در هر سطح (فعالیتی نظیر تنظیم رفبرگه البته نه به صورت الفبایی)
بهترین ساختار برای طراحی وبسایت، سلسله مراتبی است. شیوههای مختلفی برای معماری اطلاعات وجود دارد. در معماری وبسایت، فهرستها را به نحوی طراحی میکنیم که خاصیت به یادسپاری داشتهباشند.
ساختار ردهبندی نمونهای از شیوههای معماری هستند که مهمترین آنها به قرار زیر هستند:
• سلسله مراتب گسترده و کم عمق
• سلسله مراتب عمیق و باریک (علایی آرانی، 1386)
ساختار «گسترده و کمعمق» به این صورت است که گزینههای بسیاری وجود دارد تا کاربر از میان آنها دست به انتخاب بزند، اما مطالب در سطوح کمی ارائه میگردد. در مقابل، ساختار «عمیق و باریک» ساختاری است که گزینههای محدودی را در هر صفحه در اختیار کاربر قرار میدهد ، اما لایههای عمیقی از اطلاعات ارائه میگردد. (روزنفلد و مورویل45، نقل در نیدرست، 2007)
روزنفلد و مورویل معتقدند: «در ساختار گسترده، بایستی نسبت به توانایی افراد در مرور چشمی اطلاعات و محدودیتهای ادراکی ذهن بشر توجه داشت». همچنین نسبت به بازیابی بیش از حد اطلاعات از طریق ارائه گزینههای زیاد در یک صفحه، گروهبندی و ساختاربندی اطلاعات در سطح صفحه و تقسیمبندیهای موضوعی، هشدار میدهند.
در ساختار عمیق، حتی باید بیشتر احتیاط کرد. اگر کاربران ناچار به پویش بیش از دو یا سه لایه اطلاعاتی باشند، ممکن است به سادگی مأیوس شده، سایت شما را ترک کنند .نتایج یک پژوهش انجام شده در میکروسافت نشان میدهد که وجود تعادل بین عمق و وسعت، بهترین نتیجه را به دنبال خواهدداشت .ساختار خوب موجب میشود که وبسایت قابل درکتر شود. (همان)
تعریف موتور جستجو
موتورهای كاوش پایگاههای اطلاعاتی قابل جستجویی هستند كه از طریق برنامههایی رایانهای به شناسایی و نمایه سازی خودكار صفحات وب میپردازند (كوشا،1382). كلمه خودكار در این تعریف توجه ما را به این نكته جلب مینماید كه موتورهای كاوش برای تجزیه و تحلیل كردن 46صفحات وب به نیروی انسانی وابسته نیستند.
از طرف دیگر موتورهای كاوش الگوریتمهای متفاوتی را برای شناسایی، نمایه سازی و بازیابی اطلاعات وب به كار میگیرند و اغلب به دلایل تجاری، الگوریتمهای بازیابی و رتبه بندی نتایج كاوش خود را فاش نمیکنند (كوشا،1382). اگر چه توافقی بر سر موثر بودن یك عامل نسبت به سایر عوامل وجود ندارد .به طور مثال گوگل بیش از 1000 عامل را در نظام رتبه بندی نتایج خود مد نظر قرار داده اما به دلیل ماهیت تجاری و حفظ یكپارچگی نتایج كاوش، از ذكر جزئیات خودداری میکند (شریف،1386).
طی تحقیق كه برین و پیچ47 در سال 1998 به تحلیل دقیق آناتومی گوگل پرداختند به این نتیجه رسیدند كه گوگل علاوه بر نمایه سازی کلیدواژهای كلمات متن، بر تحلیل پیوندها نیز تاكید دارد.
با وجود مخفی نگه داشتن الگوریتم موتورهای كاوش، عوامل زیر را به عنوان عوامل موثر بر رتبه بندی نتایج توسط موتورهای كاوش ذكر کردهاند.
1.ساختار ابرداده ای48 : چنانچه محتوای صفحه به درستی در فیلدهای ابرداده ای بازنمود شوند و موتورهای كاوش از این فیلدهای ابر دادهای در رتبه بندی و بازیابی نتایج خود بهره ببرند، مانعیت افزایش پیدا میکند به طوریكه نتایج بازیابی به سطحی قابل مدیریت كاهش مییابد. بعلاوه رتبه بندی صفحات صحت بیشتری خواهد داشت.
2. محتوای صفحه49
3.وضعیت ارجاعات فرامتنی50 (شریف،1386)
فن آوری موتورهای جستجو
وقتی جستجویی در یک موتور جستجوگر انجام و نتایج جستجو ارایه میشود، کاربران در واقع نتیجه کار بخشهای متفاوت موتور جستجوگر را میبینند. موتور جستجو اطلاعات را از پایگاه اطلاعاتی خود مورد جستجو و بازیابی قرار میدهد و اینطور نیست که همان لحظه اطلاعات را از اینترنت به دست آورد، بلکه از قبل اطلاعات را از اینترنت گرفته و در پایگاه خود ذخیره میکند.
در ابتدا مرحله گردآوری اطلاعات صفحات وب را داریم از طریق روباتهای اطلاعاتی میتوانیم به جستجوی مستمر و مداوم اطلاعات در صفحات وب بپردازیم. از جمله روباتهای اینترنت میتوانیم به اسپایدرها51 و روبات خزنده52 اشاره کنیم.
اسپایدر، اینترنت را برای اسناد جدید وب مورد جستجو قرار میدهد و آدرسهای آنها و اطلاعات مربوط به محتوا را در بانک اطلاعاتی قرار میدهد که با موتور جستجو میتوان آن را در دسترسی قرار داد(هیئت مولفان و ویراستاران انتشارات میکروسافت،1382،ص 544). کار اسپایدر بازبینی کدهای اج تی ام ال53 صفحات وب میباشد، در حالی که کاربران وب نتیجه حاصل از کنار هم قرار گرفتن این کدها را میبینند.
در حالی که کراولر، نرم افزاری است که به عنوان یک فرمانده برای اسپایدر عمل میکند و مشخص میکند که اسپایدر کدام صفحات را مورد بازدید قرار دهد. در واقع کراولر تصمیم میگیرد که کدام یک از لینکهای صفحهای که اسپایدر در حال حاضر در آن قرار دارد، دنبال شود. کراولر، ممکن است قبلا” برنامه ریزی شده باشد که آدرسهای خاصی را طبق برنامه، در اختیار اسپایدر قرار دهد تا از آنها دیدن کند. دنبال کردن لینکهای یک صفحه به این بستگی دارد که موتور جستجوگر چه حجمی از اطلاعات یک سایت را میتواند در پایگاه دادههایش ذخیره کند و همچنین ممکن است اجازه دسترسی به بعضی از صفحات به موتورهای جستجوگر داده نشده باشد. تنظیم میزان دسترسی موتورهای جستجوگر به محتوای یک سایت توسط پروتکل روبوت54 انجام میشود.
سپس اطلاعات جمع آوری شده توسط اسپایدر در اختیار ایندکسر قرار میگیرد. در این بخش اطلاعات ارسالی مورد تجزیه و تحلیل قرار میگیرند و به بخشهای متفاوتی تقسیم میشوند. تجزیه و تحلیل بدین معنی است که مشخص میشود
