مقاله درباره باينري، مشتري، ستونهاي، توزيع

دانلود پایان نامه ارشد

سهيل ميبخشد.
lof(.) يک تابع بسيار به يک613 است: بسياري از ماتريسهاي باينري را به فرم يکسان مرتب شده از چپ، تبديل ميکند و يک فرم مرتب از چپ منحصر بفردي را براي هر ماتريس باينري ايجاد ميکند. گفته ميشود که ماتريسهاي Y و Z همارز-lof(.)614 ميباشند اگر lof(Y)=lof(Z)، به عبارت ديگر، اگر Y و Z به فرم مرتب از چپ يکساني نگاشت شوند. کلاس همارزي-lof(.) براي يک ماتريس باينري Z، [Z]، مجموعه ماتريسهاي باينري هستند که همارز-lof(.) با Z ميباشند. کلاسهاي همارزي-lof(.) در مقابل جايگشتهاي سطرها يا ستونهاي يک ماتريس بدون تغيير ميمانند. بنابراين همه ماتريسهايي که از جايگشت ستونها بدست ميآيند، معادل هستند.
بنابراين توزيع P([Z]) بينهايت تعويضپذير است و p(X|F┤) از رتبهبندي ستونهاي F متأثر نميشود. چنين ويژگي براي P([Z]) از اهميت برخوردار است زيرا قرار است به عنوان پيشين در چارچوبهايي که مشاهدات رتبهبندي طبيعي و ذاتي ندارند، مورد استفاده قرار بگيرد. انجام استنباط در سطح کلاسهاي همارزي-lof(.) در مدلهايي که رتبه مشخصهها قابل شناسايي نيست، مناسب است.
اکنون بايد عدد اصلي615[Z] مشخص شود: يعني تعداد ماتريسهايي که به فرم مرتب از چپ يکساني نگاشت ميشوند. توجه شود که به طور کلي، منحصر بفرد بودن ستونهاي يک ماتريس باينري تضمين شده نيست چون يک شيء ميتواند چندين مشخصه را مالک باشد. بنابراين تعداد ماتريسها در کلاس همارزی [Z] کاهش مييابد اگر Z ستونهاي يکسان داشته باشد، چون در اينصورت رتبهبندي مجدد از ستونهاي ماتريس Z به ماتريسهاي مشابهي منجر ميشود. با در نظر گرفتن اين موارد، عدد اصلي [Z] برابر است با
(■(K@K_0…K_(2^N-1) ))=K!/(∏_(h=0)^(2^N-1)▒〖K_h !〗)
که K_h تعداد ستونها با گذشته کامل h ميباشد.
ماتريس باينري Z را ميتوان تعميم دسته ماتريسهاي مورد استفاده قرار گرفته در مدلهاي ترکيبي616 در نظر گرفت؛ چون هر شيء ميتواند تنها به يک دسته617 متعلق باشد، قيد ∑_k▒〖z_ik=1〗 براي اين ماتريسها وجود دارد، اما ماتريسهاي باينري در مدلهاي مشخصه نهفته اين قيد را ندارند. (گرفيث و قهرماني، 2005).

3-10-1-2- حد بينهايت618 مدل مشخصه
مطابق توزيعي که در معادله (20) تعريف شد، احتمال يک کلاس همارزي-lof(.) از ماتريسهاي باينري، [Z]، عبارت است از
P([Z])=∑_(Z∈[Z])▒〖P(Z)〗=K!/(∏_(h=0)^(2^N-1)▒〖K_h !〗) ∏_(k=1)^K▒(α/K Γ(m_k+α/K)Γ(N-m_k+1))/(Γ(N+1+α/K)) (21)
در رابطه بالا منظور از P([Z])، همان توزيع احتمال کلاس همارزي Z مشروط بر α است. K تعداد ستونهاي غيرصفر در ماتريس Z است با اين ويژگي که براي آنها m_k0 ميباشد، m_k تعداد يکها در ستون k از ماتريس Z است، K_h تعداد ستونها در ماتريس Z با نمايش باينري h است (به عبارت ديگر، تعداد ستونهايي که آرايههايشان متناظر با يک عدد باينري h هستند)، H_N عدد هارموني H_N=∑_(n=1)^N▒1/n است و α (نرخ مخاطره619) تعداد مشخصههاي بيان شده براي هر مشاهده (هر شيء) را کنترل ميکند. به ويژه اينکه تعداد ستونهاي غيرصفر K، در رابطه بالا را نامحدود در نظر ميگيريم.
به منظور گرفتن حد از توزیع P([Z]) زمانيکه K به سمت بينهايت ميل ميکند K→∞، ستونهاي Z را به دو زيرمجموعه تقسيم ميکنيم، هر زيرمجموعه متناظر با مشخصههايي که براي آنها m_k=0 است و مشخصههايي که براي آنها m_k0 ميباشد. مجدداً ستونها را به گونهاي که m_k0 باشد اگر k≤K_+، و در غير اينصورت m_k=0، مرتبسازي مينماييم، در اينصورت ميتوان عبارات ﺣﺎﺻﻞضرب در معادله (21) را به دو قسمت جدا نمود، هر کدام متناظر با دو زير مجموعه با ويژگي معرفي شده در بالا. بنابراين ﺣﺎﺻﻞضرب بالا به صورت زير ميشود
∏_(k=1)^K▒(α/K Γ(m_k+α/K)Γ(N-m_k+1))/(Γ(N+1+α/K))
=((α/K Γ(α/K)Γ(N+1))/(Γ(N+1+α/K)))^(K-K_+ ) ∏_(k=1)^(K_+)▒(α/K Γ(m_k+α/K)Γ(N-m_k+1))/(Γ(N+1+α/K)) (22)
=((α/K Γ(α/K)Γ(N+1))/(Γ(N+1+α/K)))^K ∏_(k=1)^(K_+)▒(α/K Γ(m_k+α/K)Γ(N-m_k+1))/(Γ(α/K)Γ(N+1)) (23)
=(N!/(∏_(j=1)^N▒〖(j+α/K)〗))^K 〖(α/K)〗^(K_+ ) ∏_(k=1)^(K_+)▒((N-m_k)!∏_(j=1)^(m_k-1)▒〖(j+α/K)〗)/N! (24)
در رابطه بالا از ويژگي بازگشتي تابع گاما استفاده شده است:Γ(x)=(x-1)Γ(x-1). با جايگذاري معادله (24) در معادله (21) و مرتبسازي مجدد جملات، ميتوان حد بينهايت از P([Z]) گرفت
lim┬(K→∞)⁡〖α^(K_+ )/(∏_(h=1)^(2^N-1)▒〖K_h !〗)〗.K!/(K_0 !K^(K_+ ) ).(N!/(∏_(j=1)^N▒〖(j+α/K)〗))^K.∏_(k=1)^(K_+)▒((N-m_k)!∏_(j=1)^(m_k-1)▒〖(j+α/K)〗)/N!
=α^(K_+ )/(∏_(h=1)^(2^N-1)▒〖K_h !〗). 1 . exp⁡{-αH_N }.∏_(k=1)^(K_+)▒((N-m_k )!(m_k-1)!)/N! (25)
مجدداً توجه شود که H_N، Nامين عدد هارموني است. جزئيات مربوط به محاسبات بالا زمانيکه حد گرفته ميشود در ضميمه مقاله گرفيث و قهرماني، (2005) قرار داده شده است.

3-11-1-1-3- فرآيند IBP
توزيع احتمال تعريف شده در معادله (25) را ميتوان از يک فرآيند تصادفي ساده استخراج نمود. اين فرآيند تصادفي روشي آسان براي حفظ نمودن ويژگيهاي برجسته توزيعهاي احتمال معرفی میکند و ميتواند به منظور استخراج برنامههاي نمونهگيري براي مدلهايی که بر مبناي اين توزيعها قرار دارند، مورد استفاده قرار بگيرد. با الهام از فرآيند CRP620 (اولدس621، 1985؛ پتمن622، 2002)، از يک تشبيه آشپزخانهاي و پختني623 براي تعريف اين فرآيند تصادفي استفاده مينماييم (شکل 7.3). بسياري از رستورانهاي هندي در لندن کافههاي عصرانه624 با تعداد به ظاهر بينهايت خوراک، عرضه ميکنند. ما ميتوانيم يک توزيع بر روي ماتريسهاي باينري نامتناهی، از طريق تصريح روشي که توسط آن مشتريان (اشياء) خوراکها را انتخاب ميکنند (مشخصهها)، تعریف کنیم.
قبل از معرفي اين ساختار لازم است مفهوم کافه و بالأخص کافه هندي معرفي گردد.
يک کافه، سيستمي است متشکل از چندين خوراک براي سرو کردن که در آن غذا در يک مکان براي عموم قرار داده شده است به اين صورت که در اين مکان اين افراد هستند که از خود پذيرايي ميکنند. کافهها در مکانهاي گوناگون و مختلفي از جمله هتلها و در محل بسياري از رويدادهاي اجتماعي، عرضه ميشود.
مشخصه ذاتي ساختار کافههاي مختلف آن است که افراد مستقیماً غذا را ميبينند و فوراً انتخاب خود از ميان خوراکهايي که تمايل به مصرف آنها را دارند، انجام ميدهند و نيز همواره ميتوانند تصميم بگيرند که چقدر غذا سرو نمايند. در کافهها امکان پذيرايي همزمان از تعداد زيادي از افراد وجود دارد.
لازم به ذکر است که واژه کافه نخستين بار و در اوايل قرن 18، به معناي ميز دم دستي در خانههاي فرانسه625 که بر روي آن غذا سرو ميگردید، استعمال میشد اما در نهايت این واژه با معنای پذيرايي کردن به کار برده شد. توجه شود که اين واژه در زبان انگليسي به طور کامل پذيرفته شده است.
تا اينجا يک توزيع بر روي ماتريسهاي باينري نامتناهي تعريف شد که يکي از خواستههاي ما را برآورده
ميکند-اشياء (رديفهاي ماتريس) تحت اين توزيع تعويضپذير هستند. آن چيزي که باقي مانده آن است که نشان دهيم که استنباط در مدلهاي مشخصه نهفته قابل بررسي و محاسبه است.

شکل 7.3. بسياري از رستورانها در لندن کافههاي عصرانه با تعداد به ظاهر بينهايت خوراک عرضه ميکنند

3-12- مدلسازي دادهها
به منظور روشن ساختن اينکه چگونه IBP ميتواند به عنوان يک پيشين در مدلها، براي يادگيري غيرنظارتي مورد استفاده قرار بگيرد، يک مدل مشخصه نهفته گاوسين-خطي626 با مشخصهای باینری را استخراج و آزمون ميکنيم. در اين مورد، ماتريس مشخصه به ماتريس باينري Z تبديل ميشود.
ماتریس X را يک ماتريس با بعد N×D قرار ميدهيم به طوريکه هر کدام از رديفها شامل يک مشاهده D بعدي است. از آنجاييکه در مدل راستنمايي گاوسين خطي درنظر گرفته شده، X توسط ZA تقريب زده ميشود که Z يک ماتريس باينري N×K و A يک ماتريس K×D است. مقادير مشخصه k در رديف k از ماتريس A ذخيره شده است. دادههاي مشاهده شده X به صورت ZA+ϵ در نظر گرفته ميشوند که ϵ نويز اندازهگيري است. فرض ميشود که نويز مستقل از Z و A است و ناهمبسته با مشاهدات در هر کدام از N رديف ميباشد.
به عبارت ديگر، بردار D-بعدي براي يک مشاهده n، X_n0، از يک توزيع گاوسين با ميانگين Z_n0 A و ماتريس کواريانس ∑_X▒= σ_X^2 I توليد شده است، که Z_n0 يک بردار باينري K-بعدي ميباشد و A يک ماتريس از وزنها با بعد معرفي شده در بالا هستند. به نماد ماتريسي داريم: E[X]=ZA. اگر Z يک ماتريس مشخصه باشد، با فرمي از يک تجزيه و تحليل عاملي باينري رو به رو هستیم. توزيع X با مفروض بودن ماتریسهای Z، A و σ_X، دارای توزیع گاوسين ماتريسي با ميانگين ZA و ماتريس کواريانس σ_X^2 I ميباشد که I ماتريس يکه است. پيشين بر روي ماتریس A نيز گاوسين ماتريسي، با ميانگين صفر و ماتريس کواريانس σ_A^2 I است؛ که σ_A پارامتري است که پراکندگي پيشين براي A را تعيين ميکند.
براي یک ماتريس X مفروض، به دنبال يافتن توزيع پسين از Z و A هستيم. از قاعده بيز داريم
p(Z,A|X┤)∝p(X├|Z,A┤)p(Z)p(A)
در رابطه بالا فرض شده که Z و A مستقل از يکديگر هستند. بر اساس نوع کاربرد، تابع راستنمايي p(X├|Z,A┤) و پيشين p(A) تعيين ميشود. در اينجا، موردي را در نظر ميگيريم که هر دوي نويز ϵ و
مشخصههاي A، پيشينهاي گاوسين دارند. ما اکنون نميتوانيم پيشيني بر روي Z قرار دهيم. چون K را
نميدانيم، تمايل داريم پيشيني براي آن در نظر بگيريم که اجازه دهد K در زمان استنباط تعيين شود. فرآيند کافه هندي يکي از گزينهها براي چنين پيشيني ميباشد.
فرآيند IBP پيشين زير را بر روي کلاسهاي همارزي Z، [Z]، قرار ميدهد. [Z] يک فرم استاندارد از Z است که نسبت به رتبهبندي مشخصهها بيتغيير است (همان مفهوم تعويضپذير بودن)
P([Z]├|α┤)=α^K/(∏_(h∈〖{0,1}〗^N∖0)▒〖K_h !〗) exp⁡{-αH_N}∏_(k=1)^K▒((N-m_k )!(m_k-1)!)/N!
متغيرهاي رابطه بالا در قسمت (3-10-1-2-) معرفي شدهاند.

3-12-1- ساختار رستوران627
فرآيند مولد628 کلاسيک گرفيث و قهرماني (2005) به صورت زير ميباشد: N مشتري که هر کدام نمايانگر يک مشاهده هستند، يکي پس از ديگري وارد رستوراني ميشوند (يک دنباله از N مشتري). هر مشتري با يک کافه شامل تعداد بينهايت خوراک که در يک خط چيده شدهاند (متناظر با ستونهاي Z) رو به رو ميشود. نخستين مشتري از سمت چپ کافه شروع ميکند و از هر خوراک بر ميدارد (عدد 1 در ستونهاي مربوطه قرار داده ميشود)، بعد از به تعداد Poisson(α) از خوراکها زمانيکه بشقابش سرريز ميشود، متوقف ميشود. توجه شود که هر خوراک نمايانگر يک مشخصه است. nامين مشتري بعدي در کافه شروع به حرکت ميکند،
خوراکهايي که توسط مشتريان قبلي سرو شده بود را با احتمال m_k⁄n (بر اساس محبوبيت آنها) نمونهگيري ميکند که m_k تعداد افرادي است که ظرف k را قبل از مشتري nام نمونهگيري کرده بود. بعد از اينکه اين مشتري به پايان خوراکهايي که قبلاً نمونهگيري شده بودند رسيد، nامين مشتري همچنين از خوراکهاي جديد با احتمال Poisson(α⁄n)، که به پارامتر α بستگي دارد، بر ميدارد.
با استفاده از يک ماتريس باينري Z با N رديف و تعداد بينهايت ستون، ميتوان مشخص نمود که کدام مشتري کدام خوراک را انتخاب ميکند. اگر مشتري nام ظرف خوراک k را سرو کند، در آرايه z_nk مقدار 1 قرار داده میشود. ماتريس خوراک-مشتري، ماتريس مشخصه ما یعنی ماتریس Z است.
شکل زير ماتريسي که با استفاده از فرآیند IBP با پارامتر α=10 توليد شده است را نشان ميدهد. نخستين مشتري خوراکهاي مورد علاقه خود را سرو ميکند. دومين مشتري از آن خوراکها به تعداد 7 خوراک و از خوراکهاي جديد به تعداد 3 خوراک، براي خود سرو ميکند. سومين مشتري از خوراکهايي که دو مشتري قبلي سرو کردهاند به تعداد 3 خوراک، از خوراکهايي که تنها

پایان نامه
Previous Entries مقاله درباره شکاف اطلاعات، ارزش اطلاعات Next Entries مقاله درباره تغيير، توزيع، متغيرهاي، تقريب