تقليل المخاطر التجريبي

هذه هي النسخة الحالية من هذه الصفحة، وقام بتعديلها عبود السكاف (نقاش | مساهمات) في 18:50، 7 ديسمبر 2023 (بوت:صيانة V5.9.3، حذف وسم يتيمة). العنوان الحالي (URL) هو وصلة دائمة لهذه النسخة.

(فرق) → نسخة أقدم | نسخة حالية (فرق) | نسخة أحدث ← (فرق)

تقليل المخاطر التجريبي[1] هو مبدأ في نظرية التعلم الإحصائي الذي يحدد عائلة من خوارزميات تعلم الآلة ويستخدم لإعطاء حدود نظرية لأدائها. الفكرة الأساس هي أننا لا نستطيع أن نعرف بالضبط مدى جودة عمل الخوارزمية في الممارسة العملية «الخطر الحقيقي» لأننا لا نعرف التوزيع الحقيقي للبيانات التي ستعمل عليها الخوارزمية، ولكن يمكننا بدلاً من ذلك قياس أدائها على مجموعة معروفة من بيانات التدريب (المخاطر «التجريبية»).

المراجع

  1. ^ Q111421033، ص. 66، QID:Q111421033