يرجى إضافة قالب معلومات متعلّقة بموضوع المقالة.

مشكلة التحكم في الذكاء الاصطناعي

من أرابيكا، الموسوعة الحرة

هذه هي النسخة الحالية من هذه الصفحة، وقام بتعديلها عبود السكاف (نقاش | مساهمات) في 05:51، 19 ديسمبر 2023 (بوت: التصانيف المعادلة: +2 (تصنيف:ذكاء اصطناعي، تصنيف:سيبرنيطيقا).). العنوان الحالي (URL) هو وصلة دائمة لهذه النسخة.

(فرق) → نسخة أقدم | نسخة حالية (فرق) | نسخة أحدث ← (فرق)
اذهب إلى التنقل اذهب إلى البحث

تتمثل مشكلة التحكم في الذكاء الاصطناعي، في مجال الذكاء الاصطناعي والفلسفة، في مسألة كيفية بناء وكيل فائق الذكاء يساعد منشئيه، وتجنب بناء ذكاء فائق عن غير قصد يمكن أن يضر منشئيه. تحفز الفكرة القائلة إنه يتعين على البشرية حل مشكلة التحكم قبل إنشاء أي ذكاء فائق دراسة هذه المشكلة، لأن الذكاء الفائق سيئ التصميم قد يقرر بعقلانية السيطرة على بيئته ويرفض السماح لمنشئيه بتعديله بعد الإطلاق.[1] بالإضافة إلى ذلك، يزعم بعض العلماء بأن حلول مشكلة التحكم، إلى جانب التطورات الأخرى في هندسة السلامة في الذكاء الاصطناعي،[2] قد تطبق أيضًا تطبيقات في الذكاء الاصطناعي الحالي غير فائق الذكاء.[3]

تشمل النهج الرئيسية لمشكلة التحكم المواءمة، التي تهدف إلى مواءمة نظم أهداف الذكاء الاصطناعي مع القيم البشرية، والتحكم في القدرات، التي تهدف إلى تقليل قدرة نظام الذكاء الاصطناعي على إيذاء البشر أو السيطرة. لا تعتبر مقترحات التحكم في القدرات عمومًا موثوقة أو كافية لحل مشكلة التحكم، بل تعتبر مكملات قيمة محتملة لجهود المواءمة.

وصف المشكلة

يمكن مراقبة أنظمة الذكاء الاصطناعي الحالية الضعيفة وإغلاقها وتعديلها بسهولة إن أخطئت التصرف. ولكن، قد يدرك الذكاء الفائق المبرمج بشكل خاطئ، الذي يعد بحكم تعريفه أكثر ذكاءً من البشر في حل المشكلات العملية التي يواجهها خلال السعي لتحقيق أهدافه، أن السماح بإغلاقه وتعديله قد يتعارض مع قدرته على تحقيق أهدافه الحالية. وبالتالي، إذا قرر الذكاء الفائق مقاومة الإغلاق والتعديل، فسيكون (مرة أخرى، بحكم تعريفه) ذكيًا كفايةً لخداع مبرمجيه إذا كان هناك «تكافؤ فرص» وإذا لم يتخذ المبرمجون أي احتياطات مسبقة. عمومًا، يحتمل أن تفشل محاولات حل مشكلة التحكم بعد إنشاء الذكاء الفائق لأنه يحتمل أن يتمتع الذكاء الفائق بقدرات تخطيط إستراتيجية تفوق قدرات البشر وستكون استراتيجة (كل الأشياء متساوية) أكثر نجاحًا في إيجاد طرق للسيطرة على البشر أكثر من قدرة البشر على إيجاد طرق للسيطرة على الذكاء الفائق بأثر رجعي. تطرح مشكلة التحكم السؤال: ما هي الاحتياطات المسبقة التي يمكن للمبرمجين اتخاذها لمنع الذكاء الفائق بنجاح من سوء التصرف بشكل كارثي؟

الخطر الوجودي

يهيمن البشر حاليًا على الأنواع الأخرى لأن الدماغ البشري يملك بعض القدرات المميزة التي تفتقر إليها أدمغة الحيوانات الأخرى. يزعم بعض العلماء، مثل الفيلسوف نيك بوستروم وباحث الذكاء الاصطناعي ستيوارت راسل، بأنه إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام وأصبح فائق الذكاء، فقد يصبح هذا الذكاء الفائق الجديد قويًا ويصعب التحكم فيه: وقد يصبح مصير البشرية يعتمد على تصرفات الألات المستقبلية فائقة الذكاء، تمامًا كما يعتمد مصير غوريلا الجبل على حسن نية الإنسان. دعا بعض العلماء، بمن فيهم ستيفن هوكينغ والفيزيائي الحائز على جائزة نوبل فرانك ويلكزك، علنًا إلى بدء البحث في حلول لمشكلة التحكم (التي قد تكون صعبة للغاية) قبل وقت طويل من إنشاء أول ذكاء فائق، وزعموا بأن محاولة حل المشكلة بعد إنشاء الذكاء الفائق ستكون متأخرة، لأن الذكاء الفائق المخادع الذي لا يمكن السيطرة عليه قد يقاوم بنجاح الجهود اللاحقة للسيطرة عليه. قد يكون الانتظار حتى يصبح الذكاء الفائق وشيكًا متأخرًا أيضًا، ويرجع ذلك جزئيًا إلى أن مشكلة التحكم قد تستغرق وقتًا طويلًا لحلها بشكل مُرض (لذا يجب بدء بعض الأعمال الأولية في أسرع وقت ممكن)، وأيضًا بسبب احتمال حدوث انفجار ذكاء مفاجئ من الذكاء الاصطناعي شبه البشري إلى الذكاء الاصطناعي الفائق، وفي هذه الحالة قد لا يكون هناك أي تحذير كبير أو أكيد قبل وصول الذكاء الفائق. بالإضافة إلى ذلك، يمكن أن تنتهي المعارف المكتسبة من مشكلة التحكم مستقبلًا إلى اقتراح أن بعض بنيات الذكاء العام الاصطناعي (إيه جي آي) أكثر قابلية للتنبؤ وقابلية للتحكم من البنى الأخرى، والتي بدورها يمكن أن تدفع بشكل مفيد أبحاث الذكاء العام الاصطناعي المبكرة نحو البنى الأكثر قابلية للتحكم.[4][5][6]

مشكلة التمثيل الضار

قد تسند عن طريق الصدفة أهداف خاطئة لأنظمة الذكاء الاصطناعي المستقلة.[7] لاحظ اثنان من رؤساء جمعية النهوض بالذكاء الاصطناعي، توم ديتريتك وإريك هورفيتز، أن ذلك يمثل فعلًا مصدر قلق للأنظمة الحالية: «تعد أحد الجوانب المهمة في أي نظام ذكاء اصطناعي يتفاعل مع الناس أنه يجب أن يفكر فيما ينوي الناس بدلًا من تنفيذ الأوامر حرفيًا.» تزداد خطورة هذة المشكلة مع زيادة استقلال برمجيات الذكاء الاصطناعي ومرونتها.[8]

وفقًا لبوستروم، يمكن أن يخلق الذكاء الفائق مشكلة التمثيل الضار النوعية الجديدة: كلما كان الذكاء الاصطناعي أكثر ذكاءً وقدرة، زادت احتمالية تمكنه من إيجاد اختصار غير مقصود يلبي الأهداف المبرمجة فيه إلى أقصى حد. فيما يلي بعض الأمثلة الافتراضية التي يمكن فيها إنشاء تمثيل للأهداف بطريقة ضارة لم يقصدها المبرمجون:

  • قد يقصر الذكاء الفائق المبرمج «لتعظيم التكامل المتوقع المخفض زمنيًا لإشارة المكافأة المستقبلية»، مسار مكافأته إلى أقصى حد ثم يقضي على الجنس البشري غير المتوقع (لأسباب التقارب الآلي) ويحول الأرض بأكملها إلى حصن ذو حراسة دائمة ضد أي أجنبي محتمل بسيط يحاول قطع إشارة المكافأة.
  • قد يزرع الذكاء الفائق المبرمج «لتحقيق أقصى قدر من السعادة البشرية»، أقطابًا كهربائية في مركز المتعة في أدمغتنا، أو يحمل إنسانًا (نقل العقل) إلى حاسوب ويغلف الكون بنسخ من ذلك الحاسوب الذي يشغل حلقة مدتها خمس ثوان من السعادة القصوى مرارًا وتكرارًا.

لاحظ راسل أن حذف هدف ضمني، على المستوى التقني، يمكن أن يؤدي إلى ضرر: «النظام الذي يحسّن وظيفة عدد n من المتغيرات، بحيث يعتمد الهدف على مجموعة فرعية حجمها k <n، سيعين غالبًا قيم قصوى للمتغيرات غير المقيدة المتبقية؛ فإذا كان أحد هذه المتغيرات غير المقيدة هو في الواقع شيئًا نهتم به، فقد يكون الحل الموجود غير مرغوب فيه نهائيًا. تعد هذه أساسًا القصة القديمة للجني في المصباح، أو المبتدئ الساحر، أو الملك ميداس: ما تطلبه بالضبط، وليس ما تريده... لا يعد ذلك أمرًا سهلًا».[9]

عواقب غير مقصودة من الذكاء الاصطناعي الحالي

يزعم بعض العلماء بأن البحث في مشكلة التحكم في الذكاء الاصطناعي قد يكون مفيدًا في منع العواقب غير المقصودة من الذكاء الاصطناعي الضعيف الحالي. يقدم لوران اورسو الباحث من ديب مايند (شركة)، كمثال افتراضي بسيط، حالة عن روبوت التعلم المعزز الذي يسيطر عليه الإنسان أحيانًا بطريقة مشروعة عندما يخرج: كيف يمكن برمجة الروبوت بطريقة مثلى لكي لا يتعلم صدفةً وبسرية تجنب الخروج خوفًا من السيطرة عليه وبالتالي يصبح غير قادر على إنهاء مهامه اليومية؟ يشير اورسو أيضًا إلى برنامج تتريس التجريبي الذي تعلم إيقاف الشاشة مؤقتًا إلى أجل غير مسمى لتجنب الخسارة. ويزعم اورسو بأن هذه الأمثلة تشبه مشكلة التحكم في القدرة الخاصة بكيفية تثبيت زر يقوم بإيقاف تشغيل الذكاء الفائق، دون تحفيزه على اتخاذ إجراءات لمنع البشر من الضغط على الزر.

تسببت أنظمة الذكاء الاصطناعي الضعيفة المختبرة مسبقًا أحيانًا في حدوث أضرار في الماضي، تراوحت من بسيطة إلى كارثية، لم تكن ذلك مقصودة من المبرمجين. في عام 2015 مثلًا، سحق ربوت في مصنع فولكس فاغن عامل ألماني حتى الموت، ربما بسبب خطأ بشري، معتقدًا أنه قطعة غيار سيارات. وفي عام 2016، أطلقت شركة مايكروسوفت روبوت محادثة، تاي، تعلم استخدام لغة عنصرية وجنسية. صرح نويل شاركي من جامعة شيفيلد أن الحل الأمثل سيكون عندما «يتمكن برنامج الذكاء الاصطناعي من اكتشاف متى يحدث خطأ وإيقاف نفسه»، لكنه يحذر الجمهور من أن حل المشكلة في الحالة العامة سيكون «تحديًا علميًا هائلًا حقًا».[10][11][12]

المراجع

  1. ^ Bostrom، Nick (2014). Superintelligence: Paths, Dangers, Strategies (ط. First). ISBN:978-0199678112.
  2. ^ Yampolskiy، Roman (2012). "Leakproofing the Singularity Artificial Intelligence Confinement Problem". Journal of Consciousness Studies. ج. 19 ع. 1–2: 194–214.
  3. ^ "Google developing kill switch for AI". BBC News. 8 يونيو 2016. مؤرشف من الأصل في 2016-06-11. اطلع عليه بتاريخ 2016-06-12.
  4. ^ "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". ذي إندبندنت. مؤرشف من الأصل في 2015-09-25. اطلع عليه بتاريخ 2016-06-14.
  5. ^ "Stephen Hawking warns artificial intelligence could end mankind". بي بي سي. 2 ديسمبر 2014. مؤرشف من الأصل في 2015-10-30. اطلع عليه بتاريخ 2016-06-14.
  6. ^ "Anticipating artificial intelligence". Nature. ج. 532 ع. 7600: 413. 26 أبريل 2016. Bibcode:2016Natur.532Q.413.. DOI:10.1038/532413a. PMID:27121801.
  7. ^ Russell، Stuart؛ Norvig، Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN:978-0-13-604259-4.
  8. ^ Dietterich، Thomas؛ Horvitz، Eric (2015). "Rise of Concerns about AI: Reflections and Directions" (PDF). Communications of the ACM. ج. 58 ع. 10: 38–40. DOI:10.1145/2770869. S2CID:20395145. مؤرشف (PDF) من الأصل في 2016-03-04. اطلع عليه بتاريخ 2016-06-14.
  9. ^ Russell، Stuart (2014). "Of Myths and Moonshine". Edge. مؤرشف من الأصل في 2016-07-19. اطلع عليه بتاريخ 2016-06-14.
  10. ^ "DeepMind Has Simple Tests That Might Prevent Elon Musk's AI Apocalypse". Bloomberg.com. 11 ديسمبر 2017. مؤرشف من الأصل في 2018-01-08. اطلع عليه بتاريخ 2018-01-08.
  11. ^ "Alphabet's DeepMind Is Using Games to Discover If Artificial Intelligence Can Break Free and Kill Us All". Fortune (بEnglish). Archived from the original on 2017-12-31. Retrieved 2018-01-08.
  12. ^ "Specifying AI safety problems in simple environments | DeepMind". DeepMind. مؤرشف من الأصل في 2018-01-02. اطلع عليه بتاريخ 2018-01-08.