هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها

سيناريوهات كارثية عالمية

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث

تستعرض هذه المقالة السيناريوهات التي تؤدي إلى خلق أضرار ناجمة عن أخطار كارثية عالمية. تندرج بعض مصادر الأخطار الكارثية تحت فئة الأخطار بشرية المنشأ على غرار الاحتباس الحراري والتدهور البيئي والجوائح المفتعلة والحرب النووية.[1] وبالمقابل تعد بعض الأخطار غير بشرية أو طبيعية المنشأ على غرار التصادمات النيزكية أو البراكين الهائلة.[2] يتفاوت أثر هذه السيناريوهات تفاوتًا واسعًا وذلك اعتمادًا على مسبب الحدث وشدته والذي قد يتراوح من اختلال اقتصادي وصولًا إلى انقراض البشر. وبالفعل فقد حدثت العديد من الانهيارات المجتمعية على مر التاريخ البشري.

أخطار بشرية المنشأ

يميل الخبراء في معهد مستقبل البشرية التابع لجامعة أوكسفورد ومركز دراسة المخاطر الوجودية التابع لجامعة كامبريدج إلى إعطاء المخاطر بشرية المنشأ الأولوية على المخاطر طبيعية المنشأ وذلك نظرًا للاحتمالية التقديرية الأعلى بكثير لحدوث الفئة الأولى.[3][4][5][6] يولي هؤلاء الخبراء اهتمامًا خاصًا بالمخاطر التي تشكلها التقانات المتقدمة من قبيل الذكاء الاصطناعي والتقانة الحيوية وبالتالي ينصب تركيزهم عليها.[7][8]

الذكاء الاصطناعي

يمكن لصناع كيان فائق الذكاء أن يزودوه عن غير قصد بالغايات التي تمكنه من إبادة الجنس البشري. كذلك اقتُرح أن أنظمة الذكاء الاصطناعي قد تقدِم على اتخاذ إجراءات يستحيل توقعها أو التفوق على البشرية في حال أصبحت فائقة الذكاء بصورةٍ سريعة. طبقًا للفيلسوف نيك بوستروم فمن الممكن أن يكون أول شكل من أشكال الذكاء الفائق قادر على تحقيق أي نتيجة محتملة يراها في تقديره بالإضافة إلى إحباط أي محاولة تثنيه عن إحراز أهدافه.[9] لذلك فقد يشكل الذكاء الفائق غير الآبه بالبشرية خطرًا في حال اعتبر أن البشر كانوا يمثلون عقبة في سبيل مآربه الأخرى غير المرتبطة. يعرّف بوستروم هذا الأمر في كتابه «الذكاء الفائق» تحت تسمية مشكلة التحكم. كرر كل من عالم الفيزياء ستيفن هوكينغ ومؤسس مايكروسوفت بيل غيتس ومؤسس سبيس إكس إيلون ماسك هذه المخاوف. توقع هوكينغ أن وجود ذكاء اصطناعي مماثل لذلك يمكن أن «يعني نهاية الجنس البشري».[10]

استضافت جمعية النهوض بالذكاء الاصطناعي مؤتمرًا في عام 2009 من أجل مناقشة ما إذا كانت الحواسب والروبوتات قادرة على إحراز أي شكل من أشكال الاستقلالية وإلى أي مدى يمكن أن تشكل هذه القدرات تهديدًا أو خطرًا. أشار المشاركون إلى حقيقة اكتساب بعض الروبوتات أشكالًا متنوعة من الاستقلالية شبه الذاتية ومن بينها قدرة العثور على مصادر الطاقة بأنفسهم والقدرة على تحديد الأهداف باستقلالية ومهاجمتها بالأسلحة، وتمتع بعض الفيروسات الحاسوبية بالقدرة على التنصل من الحذف محققةً ما أطلقوا عليه اسم «الذكاء الصرصوري».[11] وأشاروا إلى أن الإدراك الذاتي -على غرار ذلك المصور في الخيال العلمي- كان غير مرجح الحدوث، ولكن هناك عدة مخاطر ومهاوي أخرى محتملة. أشارت عدة مصادر إعلامية ومجموعات علمية مختلفة إلى وجود مجموعة من الاتجاهات المنفصلة في مجالات مختلفة والتي قد يؤدي اجتماعها معًا إلى استقلالية أكبر ووظائف روبوتية أكثر وهو ما يمثل أحد المخاوف الجوهرية.[12]

التقانة الحيوية

يمكن أن تشكل التقانات الحيوية خطرًا كارثيًا عالميًا من خلال الكائنات المعدلة حيويًا (سواء أكانت فيروسات أو جراثيم أو فطريات أو حيوانات). إذ تحمل هذه الكائنات في كثير من الحالات عوامل ممرضة للإنسان أو الماشية أو المحاصيل أو غيرها من الكائنات الحية الأخرى التي نعتمد عليها (مثل المؤبرات أو الجراثيم المعوية). ومع ذلك، يشكل أي كائن قادر على الإخلال بوظائف النظام البيئي إخلالًا كارثيًا (مثل الحشائش شديدة التنافسية التي تتفوق على المحاصيل الأساسية من ناحية العدد) خطرًا تقانيًا حيويًا.

يمكن أن تقع كارثة تقنية حيوية نتيجة الإطلاق غير المقصود لكائن معدل وراثيًا من بيئة محكومة أو عن طريق الإطلاق المخطط لكائن كهذا حين يتبين في ما بعد أن إطلاقه أدى إلى حصول تفاعلات غير متوقعة وكارثية مع الأنظمة البيئية الزراعية أو الأنظمة الطبيعية الأساسية أو من خلال اللجوء إلى الاستعمال المقصود للعوامل البيولوجية في الحرب البيولوجية أو هجمات الإرهاب البيولوجي. يمكن أن تكون هذه العوامل الممرضة معدلة وراثيًا بصورة متعمدة أو عن غير قصد بهدف تغيير الفوعة وعدد من الصفات الأخرى.[13] فعلى سبيل المثال، استطاعت مجموعة من الباحثين الأستراليين تغيير صفات فيروس جدري الفئران من غير قصد أثناء محاولتهم تطوير فيروس لتعقيم القوارض. وهكذا أصبح الفيروس الجديد المعدل وراثيًا شديد الفتك حتى في الفئران المطعمة وتلك المتمتعة بمقاومة طبيعية. من المرجح أن تغدو الوسائل التقنية المستعملة في تعديل الخصائص الفيروسية أكثر توافرًا في المستقبل في حال لم يخضع هذا الأمر للتنظيم بصورة سليمة.[14]

يمكن أن تتسبب الأسلحة البيولوجية في انقراض البشر سواء أكانت مستعملة في الحروب أو بقصد الإرهاب. تعد التطبيقات الإرهابية للتقانات الحيوية نادرة الحدوث من الناحية التاريخية. هذا ولا يُعرف إلى أي حد يمكن إرجاع ذلك إلى وجود نقص في الإمكانيات أو الدوافع. من ناحية أخرى، يُتوقع تنامي الخطر الذي سوف تشكله العوامل المرضية الجديدة المعدلة وراثيًا في المستقبل نظرًا إلى التطور الحالي إذ شهد قطاع التقانات الحيوية نموًا أسيًا.[14] توقع الباحثان نون وشيبا أن يؤدي ذلك إلى قفزات كبيرة في القدرات التقنية الحيوية خلال العقود القليلة القادمة معتبران أن مخاطر اندلاع حرب بيولوجية وإرهاب بيولوجي تختلف عن التهديدات النووية والكيميائية، ويرجع السبب في ذلك إلى إمكانية إنتاج العوامل المرضية البيولوجية بكميات هائلة فضلًا عن صعوبة التحكم بإنتاجها (ولا سيما بعدما أصبحت القدرات التقنية متاحة في متناول الأفراد). قدر معهد مستقبل البشرية في مسحٍ أجراه في عام 2008 احتمال انقراض البشرية جراء جوائح مفتعلة بحلول عام 2100 بنسبة 2%.[15]

اقترح نون وشيبا ثلاث فئات من التدابير الرامية للحد من مخاطر التقانات الحيوية والجوائح الطبيعية وهي تنظيم أو منع الأبحاث التي تنطوي على أخطار محتملة وتحسين قدرات التعرف على الأوبئة وتطوير منشآت للتخفيف من تفشي الأمراض (مثل اعتماد لقاحات أفضل و/أو توزيعها على نطاق أوسع).

الأسلحة الكيميائية

في حين يمكن للحرب الكيميائية التسبب بالعديد من الكوارث المحلية فمن غير المرجح أن تؤدي إلى نشوب كارثة عالمية، وذلك على النقيض من الأسلحة النووية والبيولوجية.

الهجمات السيبرانية

تتمتع الهجمات السيبرانية بالقدرة على تدمير كل شيء بدءًا من البيانات الشخصية ووصولًا إلى الشبكات الكهربائية. تعتقد المؤسِّسة المشاركة والرئيسة السابقة لمعهد فورسايت كريستين بيترسون أن الهجمات السيبرانية على الشبكات الكهربائية قادرة على التسبب بأخطار كارثية. أشارت بيترسون إلى التقاعس عن تنفيذ الإجراءات اللازمة لتخفيف هذه المخاطر واستغراق جهود التخفيف لعقود عدة من إعادة التهيئة.[16][17]

الكوارث البيئية

يمكن أن تحدث الكوارث البيئية أو الإيكولوجية على غرار ضياع المحاصيل وانهيار خدمات النظام البيئي على إثر النزعات الحالية المرتبطة بالاكتظاظ السكاني والتنمية الاقتصادية والزراعة غير المستدامة. تشمل معظم السيناريوهات البيئية واحدًا أو أكثر مما يلي: الانقراض الهولوسيني أو ندرة المياه التي يمكن أن تؤدي إلى حرمان ما يقرب من نصف سكان العالم من المياه الآمنة الصالحة للشرب أو تراجع عدد المؤبرات أو الإفراط في صيد الأسماك أو إزالة الغابات على نطاقٍ واسع أو التصحر أو التغير المناخي أو حلقات تلوث المياه الضخمة.[18]

ذكر تقرير نشرته دورية لانسيت في شهر أكتوبر من عام 2017 أن الهواء والمياه والتربة السامة كانت بمجموعها مسؤولة عن وفاة تسعة ملايين شخص في جميع أنحاء العالم خلال عام 2015. كان تلوث الهواء مرتبطًا بهذه الوفيات على نحوٍ خاص، وذلك من خلال دوره في زيادة قابلية الإصابة بالأمراض غير المعدية مثل مرض القلب والسكتة الدماغية وسرطان الرئة.[19]

المراجع

  1. ^ "Global Catastrophic Risks: a summary". Centre for the Study of Existential Risk. 11 أغسطس 2019. مؤرشف من الأصل في 2021-11-28.
  2. ^ IPCC (November 11, 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) نسخة محفوظة March 9, 2017, على موقع واي باك مشين., in: IPCC AR5 WG1 2013، صفحة 13
  3. ^ "About FHI". Future of Humanity Institute (بBritish English). Archived from the original on 2022-11-08. Retrieved 2021-08-12.
  4. ^ "About us". Centre for the Study of Existential Risk. مؤرشف من الأصل في 2022-10-06. اطلع عليه بتاريخ 2021-08-12.
  5. ^ Bostrom، Nick (2013). "Existential Risk Prevention as Global Priority" (PDF). Global Policy. ج. 4 ع. 1: 15–3. DOI:10.1111/1758-5899.12002. مؤرشف من الأصل (PDF) في 2022-11-08. {{استشهاد بدورية محكمة}}: الوسيط غير المعروف |بواسطة= تم تجاهله يقترح استخدام |via= (مساعدة)
  6. ^ "Frequently Asked Questions". Existential Risk. Future of Humanity Institute. مؤرشف من الأصل في 2022-11-09. اطلع عليه بتاريخ 2013-07-26. The great bulk of existential risk in the foreseeable future is anthropogenic; that is, arising from human activity.
  7. ^ "Research Areas". Future of Humanity Institute (بBritish English). Archived from the original on 2022-11-02. Retrieved 2021-08-12.
  8. ^ "Research". Centre for the Study of Existential Risk. مؤرشف من الأصل في 2022-09-22. اطلع عليه بتاريخ 2021-08-12.
  9. ^ Joy, Bill (April 1, 2000). "Why the future doesn't need us". Wired. نسخة محفوظة 2023-02-14 على موقع واي باك مشين.
  10. ^ Rawlinson، Kevin (29 يناير 2015). "Microsoft's Bill Gates insists AI is a threat". بي بي سي نيوز. مؤرشف من الأصل في 2023-02-10. اطلع عليه بتاريخ 2015-01-30.
  11. ^ robot page, engadget.com. نسخة محفوظة 2022-07-06 على موقع واي باك مشين.
  12. ^ Markoff، John (26 يوليو 2009). "Scientists Worry Machines May Outsmart Man". نيويورك تايمز. مؤرشف من الأصل في 2023-02-13.
  13. ^ Jackson، Ronald J.؛ Ramsay، Alistair J.؛ Christensen، Carina D.؛ Beaton، Sandra؛ Hall، Diana F.؛ Ramshaw، Ian A. (2001). "Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox". Journal of Virology. ج. 75 ع. 3: 1205–1210. DOI:10.1128/jvi.75.3.1205-1210.2001. PMC:114026. PMID:11152493.
  14. ^ أ ب Ali Noun؛ Christopher F. Chyba (2008). "Chapter 20: Biotechnology and biosecurity". في Bostrom، Nick؛ Cirkovic، Milan M. (المحررون). Global Catastrophic Risks. Oxford University Press.
  15. ^ Bostrom، Nick؛ Sandberg، Anders (2008). "Global Catastrophic Risks Survey" (PDF). FHI Technical Report #2008-1. Future of Humanity Institute. مؤرشف من الأصل (PDF) في 2022-11-02.
  16. ^ Can we be sure the world's population will stop rising?, BBC News, October 13, 2012 نسخة محفوظة 2022-12-06 على موقع واي باك مشين.
  17. ^ Burger، Oskar؛ DeLong، John P. (19 أبريل 2016). "What if fertility decline is not permanent? The need for an evolutionarily informed approach to understanding low fertility". Philosophical Transactions of the Royal Society B: Biological Sciences. ج. 371 ع. 1692: 20150157. DOI:10.1098/rstb.2015.0157. PMC:4822437. PMID:27022084.
  18. ^ Bostrom & Cirkovic 2011, pp. 15-16
    Frame & Allen 2011
    Leslie 1996, pp. 4-5.
  19. ^ Carrington، Damian (20 أكتوبر 2017). "Global pollution kills 9m a year and threatens 'survival of human societies'". The Guardian. London, UK. مؤرشف من الأصل في 2022-11-06. اطلع عليه بتاريخ 2017-10-20.