الگوریتم امروز

وبلاگ تخصصی الگوریتم

الگوریتم امروز

وبلاگ تخصصی الگوریتم

وبلاگ علمی و مخصوص مباحث الگوریتمی است.
نظر خصوصی نگذارید چون جواب نمی‌دهم نظر عمومی بگذارید بدون نام هم که باشد همانجا جواب می‌دهم.

بایگانی

رند کردن تصادفی با نمونه‌گیری

شنبه, ۲۹ آبان ۱۳۹۵، ۰۸:۰۳ ب.ظ
http://homes.cs.washington.edu/~shayan/courses/cse599/adv-approx-6.pdf
در رند کردن تصادفی معمولاً هر متغیری را جداگانه رند می‌کنیم. (رند کردن تصادفی مستقل)
اما این بار می‌خواهیم تعدادی متغیر را با هم رند کنیم. برای این کار باید ثابت کنیم که متغیرهایی که داریم با هم به آنها مقدار می‌دهیم از بازه‌ی جوابهای مجاز خارج نمی‌شوند. در این مثال از روش نمونه‌گیری، مجموعه‌ی همه‌ی درخت‌های پوشا در نظر گرفته شده است (مسئله‌ی اصلی مربوط به یک گراف بوده است) و یکی از این گرافها به صورت تصادفی انتخاب شده است. چندوجهی همه‌ی درخت‌های پوشا زیرمجموعه‌ی چندوجهی همه‌ی جوابهای ممکن است. این را با نوشتن چندوجهی درخت‌های پوشای کمینه و اثبات اینکه در قید‌های مسئله صدق می‌کنند ثابت کرده است.
با این کار ویژگی اضافه‌ای نسبت به رند کردن تصادفی به دست آورده است که همبندی جواب است. این باعث شده است که کران پایین لگاریتمی برای ضریب تقریب را که رندکردن‌های تصادفی دارند، نداشته باشد.
دلیل درست کار کردن رند‌کردن تصادفی رعایت کردن دو قید زیر است:
۱- امید ریاضی هر ترکیب خطی از متغیرها ثابت بماند.
۲- هر تابع لیپشیتز (شیب تابع باید از یک عدد ثابت کمتر باشد) از متغیرها حول میانگینش است. در حالت عادی این را با نامساوی چرنف ثابت می‌کنند.
حالا که از روش دیگری ثابت کرده‌ایم، استقلال متغیرهای تصادفی را از دست داده‌ایم و باید با روش دیگری این را ثابت کنیم. خلاصه‌ی کاری که کرده این است که نشسته حساب کرده! خودش ارجاع داده به جلسه‌ی سوم درسش و وقتی می‌روی این قسمت را می‌خوانی نوشته احتمال هر زیرمجموعه از یالهای درخت پوشای تصادفی، از احتمال اینکه آنها یک درخت تشکیل بدهند کمتر است. حالا انگار لازم است این را کسی ثابت کند که اگر یک سری یال تصادفی برداری احتمال اینکه درخت بشود کم است! تنها چیزی که من می‌بینم این است که به جای اینکه روی یک یال چرنف بزند روی زیرمجموعه‌های یالها چرنف زده است. خودتان ببینید:
http://homes.cs.washington.edu/~shayan/courses/cse599/adv-approx-3.pdf
در ادامه در مورد رند کردن تصادفی با ماکسیمم کردن آنتروپی حرف زده و گفته است که هر چقدر آنتروپی را بیشتر می‌کنیم باعث می‌شود که تصادفی بودن بیشتر بشود. (با استدلال قسمت قبل به نظر می‌رسد به اینکه میانگین صفر بشود و بتواند چرنف بزند نزدیک‌تر می‌شود.)
موافقین ۰ مخالفین ۰ ۹۵/۰۸/۲۹
سپیده آقاملائی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی