لم تعد النسخة القابلة للطباعة مدعومة وقد تحتوي على أخطاء في العرض. يرجى تحديث علامات متصفحك المرجعية واستخدام وظيفة الطباعة الافتراضية في متصفحك بدلا منها.
رسم تخطيطي مضلل [2]لمخطط فن يوضح العلاقات الإضافية والطرحية بين مقاييس المعلومات المختلفة المرتبطة بالمتغيرات المرتبطة X و Y. المنطقة التي تحتوي عليها كلتا الدائرتين هي إنتروبيا مشتركة H (X، Y). الدائرة على اليسار (الأحمر والبنفسجي) هي الإنتروبيا الفردية H (X) ، مع إنتروبي ذات اللون الأحمر الإنتروبيا الشرطية H (X | Y). الدائرة على اليمين (الأزرق والبنفسجي) هي H (Y) ، والأزرق هو H (Y | X). البنفسج هو المعلومات المتبادلة I (X؛ Y).
حيث هي قيم خاصة ، على التوالي ، هو احتمال حدوث هذه القيم معًا، و يعرف بأنه 0 إذا .
الخصائص
عدم السلبية
الإنتروبيا المشتركة لمجموعة من المتغيرات العشوائية هي عدد غير سالب.
أكبر من الانتروبيا الفردية
الإنتروبيا المشتركة لمجموعة من المتغيرات أكبر من أو تساوي الحد الأقصى لجميع الأنتروبيا الفردية للمتغيرات في المجموعة.
أقل من أو يساوي مجموع الانتروبيا الفردية
الإنتروبيا المشتركة لمجموعة من المتغيرات أقل من أو تساوي مجموع الأنتروبيا الفردية للمتغيرات في المجموعة. هذا مثال على الجمع الثانوي. هذا اللامساواة تعتبر مساواة إذا وفقط إذا كان و مستقلين إحصائيا.[3]:30
التعريف أعلاه هو للمتغيرات العشوائية المنفصلة ولم يعد صالحًا في حالة المتغيرات العشوائية المستمرة. تسمى النسخة المستمرة من إنتروبيا المفصل المنفصل إنتروبيا المفاصل (أو المستمر) . لتكن و متغيرات عشوائية مستمرة ذات دالة كثافة احتمالية مشتركة. الانتروبيا المشتركة التفاضلية يعرف بأنه [3]:249
لأكثر من متغيرين عشوائيين متواصلين يعمم التعريف على:
يتم أخذ جزء لا يتجزأ من دعم . من الممكن ألا يكون التكامل موجودًا وفي هذه الحالة نقول أن الإنتروبي التفاضلي غير محدد.
كما في الحالة المنفصلة، يكون الانتروبيا التفاضلية المشتركة لمجموعة من المتغيرات العشوائية أصغر أو تساوي من مجموع الأنتروبيا للمتغيرات العشوائية الفردية:
في حالة وجود أكثر من متغيرين عشوائيين يتم تعميم هذا على:[3]:253
يستخدم الإنتروبي التفاضلي المشترك أيضًا في تعريف المعلومات المتبادلة بين المتغيرات العشوائية المستمرة:
المراجع
^Theresa M. Korn؛ Korn, Granino Arthur. Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review. New York: Dover Publications. ISBN:0-486-41147-8.
^D.J.C. Mackay. Information theory, inferences, and learning algorithms.