يرجى إضافة قالب معلومات متعلّقة بموضوع المقالة.

تنظيم الذكاء الاصطناعي

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث


تنظيم الذكاء الاصطناعي هو تطوير سياسات وقوانين القطاع العام لتعزيز وتنظيم الذكاء الاصطناعي (إيه آي)؛[1] وبالتالي فهو مرتبط بالتنظيم الأوسع للخوارزميات. يعد المشهد التنظيمي والسياسي للذكاء الاصطناعي مسألةً ناشئةً في الولايات القضائية العالمية، بما في ذلك في الاتحاد الأوروبي.[2] يُعتبر التنظيم ضروريًا لتشجيع الذكاء الاصطناعي وإدارة المخاطر المرتبطة به، ولكنه يمثل تحديًا.[3][4] يمكن أيضًا اعتبار تنظيم الذكاء الاصطناعي من خلال آليات مثل لوحات المراجعة وسيلة اجتماعية للتعامل مع مشكلة التحكم في الذكاء الاصطناعي.[5]

خلفية

في عام 2017 دعا إيلون مسك إلى تنظيم تطوير الذكاء الاصطناعي.[6] وفقًا للإذاعة الوطنية العامة، كان الرئيس التنفيذي لشركة تيسلا «من الواضح أنه ليس سعيدًا» للدفاع عن التدقيق الحكومي الذي يمكن أن يؤثر على صناعته الخاصة، لكنه يعتقد أن مخاطر الانتقال تمامًا بدون إشراف عالية جدًا: «عادةً ما تُوضع اللوائح عندما تحدث الكثير من الأشياء السيئة، هناك احتجاج عام، وبعد سنوات عديدة أُنشئت وكالة تنظيمية لتنظيم هذه الصناعة. يستغرق الأمر أبد الدهر. كان هذا في الماضي سيئًا ولكنه لم يكن شيئًا يمثل خطرًا أساسيًا على وجود الحضارة».[6]

وردًا على ذلك، عبّر بعض السياسيين عن شكوكهم بشأن حكمة تنظيم التكنولوجيا التي لا تزال قيد التطوير.[7] ردًا على مقترحات كلًا من مسك وفبرواري لعام  2017من قبل مشرعي الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي والروبوتات، جادل الرئيس التنفيذي لشركة إنتل بريان كرزانيتش بأن الذكاء الاصطناعي في مهده وأنه من السابق لأوانه تنظيم التكنولوجيا.[8] بدلًا من محاولة تنظيم التكنولوجيا نفسها، يقترح بعض العلماء إلى حدٍ ما وضع معايير مشتركة بما في ذلك متطلبات اختبار وشفافية الخوارزميات، ربما بالاشتراك مع شكل من أشكال الضمان.[9]

طبيعة ونطاق التنظيم

تركز اعتبارات السياسة العامة بشكلٍ عام على الآثار التقنية والاقتصادية وأنظمة الذكاء الاصطناعي[10] الجديرة بالثقة والتي تركز على الإنسان. يمكن تقسيم قوانين ولوائح منظمة العفو الدولية إلى ثلاثة مواضيع رئيسية، وهي إدارة نظم المعلومات الاستخبارية المستقلة، والمسؤولية والمساءلة عن الأنظمة، وقضايا الخصوصية والسلامة.[3] أصبح تطوير استراتيجيات القطاع العام لإدارة وتنظيم الذكاء الاصطناعي ضروريًا بشكلٍ متزايد على المستوى المحلي والوطني[11] والدولي[12] وفي مجموعة متنوعة من المجالات، من إدارة الخدمة العامة[13] والمساءلة[14] لإنفاذ القانون،[12] والقطاع المالي،[11] والروبوتات،[15] والقوات المسلحة[16] والأمن القومي،[17] والقانون الدولي.[18][19]

التنظيم العالمي

اقتُرح إنشاء مجلس إدارة عالمي لتنظيم تطوير الذكاء الاصطناعي في وقت مبكر على الأقل في عام 2017.[20] في ديسمبر 2018، أعلنت كندا وفرنسا عن خطط لجنة دولية للذكاء الاصطناعي المدعومة من جي 7، على غرار الفريق الدولي المعني بتغير المناخ، لدراسة الآثار العالمية للذكاء الاصطناعي على الناس والاقتصاد وتوجيه تنمية الذكاء الاصطناعي.[21] في عام 2019، تغير اسم الفريق إلى الشراكة العالمية بشأن الذكاء الاصطناعي، ولكن لم يُعتمد بعد من قبل الولايات المتحدة.[22][23]

انظر أيضًا

مراجع

  1. ^ Berryhill، Jamie؛ Heang، Kévin Kok؛ Clogher، Rob؛ McBride، Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF). Paris: OECD Observatory of Public Sector Innovation. مؤرشف من الأصل (PDF) في 2019-12-20.
  2. ^ Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. Regulation of artificial intelligence in selected jurisdictions. LCCN:2019668143. OCLC:1110727808.
  3. ^ أ ب Wirtz، Bernd W.؛ Weyerer، Jan C.؛ Geyer، Carolin (24 يوليو 2018). "Artificial Intelligence and the Public Sector—Applications and Challenges". International Journal of Public Administration. ج. 42 ع. 7: 596–615. DOI:10.1080/01900692.2018.1498103. ISSN:0190-0692.
  4. ^ Buiten، Miriam C (2019). "Towards Intelligent Regulation of Artificial Intelligence". European Journal of Risk Regulation. ج. 10 ع. 1: 41–59. DOI:10.1017/err.2019.8. ISSN:1867-299X.
  5. ^ Sotala، Kaj؛ Yampolskiy، Roman V (19 ديسمبر 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. ج. 90 ع. 1: 018001. DOI:10.1088/0031-8949/90/1/018001. ISSN:0031-8949.
  6. ^ أ ب "Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'". NPR.org (بEnglish). Archived from the original on 2020-04-23. Retrieved 2017-11-27.
  7. ^ Gibbs، Samuel (17 يوليو 2017). "Elon Musk: regulate AI to combat 'existential threat' before it's too late". The Guardian. مؤرشف من الأصل في 2020-06-06. اطلع عليه بتاريخ 2017-11-27.
  8. ^ Kharpal، Arjun (7 نوفمبر 2017). "A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says". CNBC. مؤرشف من الأصل في 2020-03-22. اطلع عليه بتاريخ 2017-11-27.
  9. ^ Kaplan، Andreas؛ Haenlein، Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. ج. 62: 15–25. DOI:10.1016/j.bushor.2018.08.004.
  10. ^ Artificial intelligence in society. Organisation for Economic Co-operation and Development. Paris. ISBN:978-92-64-54519-9. OCLC:1105926611. مؤرشف من الأصل في 2020-06-21.{{استشهاد بكتاب}}: صيانة الاستشهاد: آخرون (link)
  11. ^ أ ب Bredt، Stephan (4 أكتوبر 2019). "Artificial Intelligence (AI) in the Financial Sector—Potential and Public Strategies". Frontiers in Artificial Intelligence. ج. 2. DOI:10.3389/frai.2019.00016. ISSN:2624-8212.
  12. ^ أ ب White Paper: On Artificial Intelligence – A European approach to excellence and trust (PDF). Brussels: European Commission. 2020. ص. 1. مؤرشف من الأصل (PDF) في 2020-04-19.
  13. ^ Wirtz، Bernd W.؛ Müller، Wilhelm M. (3 ديسمبر 2018). "An integrated artificial intelligence framework for public management". Public Management Review. ج. 21 ع. 7: 1076–1100. DOI:10.1080/14719037.2018.1549268. ISSN:1471-9037.
  14. ^ Reisman، Dillon؛ Schultz، Jason؛ Crawford، Kate؛ Whittaker، Meredith (2018). Algorithmic impact assessments: A practical framework for public agency accountability (PDF). New York: AI Now Institute. مؤرشف من الأصل (PDF) في 2020-06-14.
  15. ^ Iphofen، Ron؛ Kritikos، Mihalis (3 يناير 2019). "Regulating artificial intelligence and robotics: ethics by design in a digital society". Contemporary Social Science: 1–15. DOI:10.1080/21582041.2018.1563803. ISSN:2158-2041.
  16. ^ AI principles: Recommendations on the ethical use of artificial intelligence by the Department of Defense (PDF). Washington, DC: United States Defense Innovation Board. 2019. OCLC:1126650738. مؤرشف من الأصل (PDF) في 2020-01-14.
  17. ^ Babuta، Alexander؛ Oswald، Marion؛ Janjeva، Ardi (2020). Artificial Intelligence and UK National Security: Policy Considerations (PDF). London: Royal United Services Institute. مؤرشف من الأصل (PDF) في 2020-05-02.
  18. ^ "Robots with Guns: The Rise of Autonomous Weapons Systems". Snopes.com. 21 أبريل 2017. مؤرشف من الأصل في 2022-02-20. اطلع عليه بتاريخ 2017-12-24.
  19. ^ Bento، Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. مؤرشف من الأصل في 2020-03-23. اطلع عليه بتاريخ 2019-09-14.
  20. ^ Boyd، Matthew؛ Wilson، Nick (1 نوفمبر 2017). "Rapid developments in Artificial Intelligence: how might the New Zealand government respond?". Policy Quarterly. ج. 13 ع. 4. DOI:10.26686/pq.v13i4.4619. ISSN:2324-1101.
  21. ^ Innovation، Science and Economic Development Canada (16 مايو 2019). "Declaration of the International Panel on Artificial Intelligence". gcnws. مؤرشف من الأصل في 2020-03-29. اطلع عليه بتاريخ 2020-03-29.
  22. ^ "The world has a plan to rein in AI—but the US doesn't like it". Wired (بBritish English). 8 Jan 2020. Archived from the original on 2020-04-18. Retrieved 2020-03-29.
  23. ^ "AI Regulation: Has the Time Arrived?". InformationWeek (بEnglish). Archived from the original on 2020-05-23. Retrieved 2020-03-29.