اعتلاج شرطي

هذه هي النسخة الحالية من هذه الصفحة، وقام بتعديلها عبود السكاف (نقاش | مساهمات) في 16:29، 20 أبريل 2023 (بوت: إصلاح أخطاء فحص أرابيكا من 1 إلى 104). العنوان الحالي (URL) هو وصلة دائمة لهذه النسخة.

(فرق) → نسخة أقدم | نسخة حالية (فرق) | نسخة أحدث ← (فرق)

في نظرية المعلومات، تحدد الإنتروبيا الشرطية (أو الالتباس equivocation) كمية المعلومات اللازمة لوصف نتيجة متغير عشوائي Y بالنظر إلى أن قيمة متغير عشوائي آخر X معروف. هنا، يتم قياس المعلومات في شانون، ناتس، أو hartleys. انتروبيا Y مشروطة X مكتوب مثل H(Y|X) .

تعريف

 
يوضح مخطط فين العلاقات المضافة والطرحية مقاييس المعلومات المختلفة المرتبطة بالمتغيرات المرتبطة X و Y . المنطقة التي تحتوي عليها كلتا الدائرتين هي الانتروبيا المشتركة H(X,Y). الدائرة على اليسار (الأحمر والبنفسجي) هي الإنتروبيا الفردية H(X) ، مع انتروبيا الحمراء إنتروبيا مشروطة H(X|Y) . الدائرة على اليمين (الأزرق والبنفسجي) H(Y) ، مع المجال الأزرق H(Y|X) . البنفسج هو المعلومات المتبادلة I(X;Y) .

الانتروبيا الشرطية Y بفرض X يعرف بـ

H(Y|X)=xX,yYp(x,y)logp(x,y)p(x)

 

 

 

 

(Eq.1)

حيث X و Y تدل على مجموعات الدعم X و Y .

ملاحظة: من المعتاد أن تكون التعابير 0log0 و 0logc/0 للإصلاح c>0 يجب أن تعامل على أنها تساوي الصفر. هذا بسبب limθ0+θlogc/θ=0 و limθ0+θlogθ=0 [1]

شرح بديهي للتعريف  : حسب التعريف ، H(Y|X)=E(f(X,Y)) حيث f:(x,y)log(p(y|x)). f مرتبطة بـ (x,y) محتوى المعلومات (Y=y) بفرض (X=x) وهو مقدار المعلومات اللازمة لوصف الحدث (Y=y) بفرض (X=x) . وفقا لقانون الأعداد الكبيرة، H(Y|X) هي المعنى الحسابي لعدد كبير من التحويلات المستقلةf(X,Y).


انظر أيضًا

المراجع

  1. ^ "David MacKay: Information Theory, Pattern Recognition and Neural Networks: The Book". www.inference.org.uk. مؤرشف من الأصل في 2020-01-07. اطلع عليه بتاريخ 2019-10-25.