يرجى إضافة قالب معلومات متعلّقة بموضوع المقالة.

هارتلي (وحدة)

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

هارتلي (الرمز هارت)، وتسمى أيضا «بان»، أو «ديت» (اختصار للرقم العشري بالإنجليزية)،[1][2][3] هي وحدة لوغاريتمية تقيس المعلومات أو الإنتروبيا، استناداً إلى لوغاريتم الأساس 10 وقوى 10. واحد هارتلي هو محتوى المعلومات لحدث إذا كان احتمال وقوع ذلك الحدث 110 .[4] وبالتالي فهو يساوي المعلومات المتضمنة في رقم عشري واحد (أو «ديت»)، بافتراض وجود احتمال متساو مسبق لكل قيمة ممكنة. وقد سميت على اسم رالف هارتلي.

إذا استخدم لوغاريتم الأساس 2 وقوى 2 بدلاً من ذلك، فإن وحدة المعلومات تكون الشانون أو البت، وهو محتوى المعلومات لحدث ما إذا كان احتمال وقوع هذا الحدث هو 12 يُعرف اللوغاريتم الطبيعي وقوى e ال «نات».

يناظر «بان» واحد ln (10) نات = log 2 (10) شانون، أو تقريباً 2.303 نات، أو 3.322 بت (3.322 شانون). الديسيبان هو عُشر البان (أو حوالي 0.332 شانون)؛ أُشتق الاسم من ال«بان» بواسطة البادئة الدولية ديسي- .

على الرغم من عدم وجود وحدة دولية مرتبطة بها، إلا أن إنتروبيا المعلومات هي جزء من النظام الدولي للكميات، المعرف بواسطة المعيار الدولي IEC 80000-13 للجنة الكهروتقنية الدولية.

تاريخ

تم تسمية مصطلح هارتلي على اسم رالف هارتلي، الذي اقترح في عام 1928 قياس المعلومات باستخدام اساس لوغاريتمي يساوي عدد الحالات التي يمكن تمييزها في تمثيلها، والتي ستكون الأساس 10 لرقم عشري. .[5][6] تم اختراع ال«بان» و الديسيبان من قبل آلان تورينج مع إيرفينغ جون "جاك" جود في عام 1940، لقياس كمية المعلومات التي يمكن استنتاجها بواسطة مفكك الشفرات في بلتشلي بارك باستخدام طريقة بانبوريزموس، من أجل التحديد اليومي للإعدادات غير المعروفة لآلة تشفير البحرية الألمانية إنجما. الاسم مستوحى من العدد الهائل للأوراق المطبوعة في مدينة بانبري على بعد حوالي 30 ميلاً، والتي تم استخدامها في هذه العملية. [7] جادل إرفين جون غود بأن التجميع المتسلسل للديسيبان لبناء مقياس لوزن الدليل لصالح فرضية ما، هو في الأساس استدلال بايزي.[7] ومع ذلك، جادل دونالد أ. جيليس بأن ال«بان» هو في الواقع نفس مقياس كارل بوبر لشدة الاختبار. .[8]

الاستخدام كوحدة للأرجحية

الديسيبان هي وحدة مفيدة بالتحديد في الأرجحية اللوغاريتمية، ولا سيما كمقياس للمعلومات في عوامل بايز، ونسب الأرجحية (نسبة الاحتمالات، بحيث أن اللوغاريتم هو الفرق في الأرجحية اللوغاريتمية)، أو أوزان الأدلة. 10 ديسيبان تقابل أرجحية 10: 1 ؛ 20 ديسيبان إلى أرجحية 100: 1، إلخ. ووفقاً لـ إرفين جون غود، فإن التغيير في وزن دليل 1 ديسيبان (أي تغيير في الأرجحية لحدث ما بما يساوي 5: 4) يكون بنفس الدقة التي يمكن توقعها بصورة معقولة من البشر لتقدير درجة اعتقادهم بفرضية ما. .[9] غالباً ما يمكن تقريب الارجحيات المقابلة للديسيبان الصحيح بنسب صحيحة بسيطة؛ وهي مرتبة أدناه. قيمة لأقرب منزلتين عشريتين، تقريب بسيط (في حدود حوالي 5٪)، مع تقريب أكثر دقة (بحدود 1٪) إذا كانت نسبة الواحد البسيط غير دقيقة:

ديسيبان القيمة



</br> بالضبط
القيمة



</br>تقريبا
النسبة



</br> تقريبا
النسبة



</br> الدقيقة
الاحتمالية
0 10 0/10 1 1: 1 50٪
1 10 1/10 1.26 5: 4 56٪
2 10 2/10 1.58 3: 2 8: 5 61٪
3 10 3/10 2.00 2: 1 67٪
4 10 4/10 2.51 5: 2 71.5٪
5 10 5/10 3.16 3: 1 19: 6، 16: 5 76٪
6 10 6/10 3.98 4: 1 80٪
7 10 7/10 5.01 5: 1 83٪
8 10 8/10 6.31 6: 1 19: 3، 25: 4 86٪
9 10 9/10 7.94 8: 1 89٪
10 10 10/10 10 10: 1 91٪

انظر أيضا

المراجع

  1. ^ Klar, Rainer (1 Feb 1970). "1.8.1 Begriffe aus der Informationstheorie" [1.8.1 Terms used in information theory]. Digitale Rechenautomaten – Eine Einführung [Digital Computers – An Introduction]. Sammlung Göschen (بDeutsch) (1 ed.). Berlin, Germany: / G. J. Göschen'sche Verlagsbuchhandlung [g. j. göschen’sche verlagsbuchhandlung]. Vol. 1241/1241a. p. 35. ISBN:3-11-083160-0. (ردمك 978-3-11-083160-3). Archiv-Nr. 7990709. Archived from the original on 2020-04-18. Retrieved 2020-04-13. (205 pages) (NB. A 2019 reprint of the first edition is available under (ردمك 3-11002793-3، وردمك 978-3-11002793-8). A reworked and expanded 4th edition exists as well.)
  2. ^ Klar, Rainer (1989) [1988-10-01]. "1.9.1 Begriffe aus der Informationstheorie" [1.9.1 Terms used in information theory]. Digitale Rechenautomaten – Eine Einführung in die Struktur von Computerhardware [Digital Computers – An Introduction into the structure of computer hardware]. Sammlung Göschen (بDeutsch) (4th reworked ed.). Berlin, Germany. Vol. 2050. p. 57. ISBN:3-11011700-2. (ردمك 978-3-11011700-4).{{استشهاد بكتاب}}: صيانة الاستشهاد: مكان بدون ناشر (link) (320 pages)
  3. ^ Lukoff، Herman (1979). From Dits to Bits: A personal history of the electronic computer. Portland, Oregon, USA: Robotics Press. ISBN:0-89661-002-0. LCCN:79-90567.
  4. ^ "IEC 80000-13:2008". المنظمة الدولية للمعايير (ISO). مؤرشف من الأصل في 2022-09-22. اطلع عليه بتاريخ 2013-07-21.
  5. ^ Hartley، Ralph Vinton Lyon (يوليو 1928). "Transmission of Information" (PDF). Bell System Technical Journal. ج. VII ع. 3: 535–563. مؤرشف من الأصل (PDF) في 2022-03-31. اطلع عليه بتاريخ 2008-03-27.
  6. ^ Reza، Fazlollah M. (1994). An Introduction to Information Theory. New York: Dover Publications. ISBN:0-486-68210-2.
  7. ^ أ ب Good، Irving John (1979). "Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II". Biometrika. ج. 66 ع. 2: 393–396. DOI:10.1093/biomet/66.2.393. MR:0548210.
  8. ^ Gillies، Donald A. (1990). "The Turing-Good Weight of Evidence Function and Popper's Measure of the Severity of a Test". British Journal for the Philosophy of Science. ج. 41 ع. 1: 143–146. DOI:10.1093/bjps/41.1.143. JSTOR:688010. MR:0055678.
  9. ^ Good، Irving John (1985). "Weight of Evidence: A Brief Survey" (PDF). Bayesian Statistics. ج. 2: 253. مؤرشف من الأصل (PDF) في 2022-07-06. اطلع عليه بتاريخ 2012-12-13.