‏إظهار الرسائل ذات التسميات humanity. إظهار كافة الرسائل
‏إظهار الرسائل ذات التسميات humanity. إظهار كافة الرسائل

الأحد، يوليو 21، 2019

التهديدات الخمس الكبرى للوجود البشري >> مقال مترجم


التهديدات الخمس الكبرى للوجود البشري
بقلم: Anders Sandberg اندرسن ساندبيرج
ترجمة: د/ أشرف محمد خليفة
في خضم الضجة المثارة حول المخاطر والأزمات التي تواجه البشرية اليوم، يبدو أننا قد تناسينا مستقبل العديد من الأجيال الآتية، ليس فقط مستقبل هؤلاء الذين سيعيشون بعد 200 عام من الوقت الحاضر، بل هؤلاء الذين "نأمل" أنهم سوف يولدون ويعيشون ما بين ألف وعشرة آلاف عام من الآن.
أنني استخدم كلمة "نأمل" لوجود احتمالية لئلا تجد هذه الأجيال فرصة الوجود من الأساس، لأننا نواجه المخاطر -والتي اسميها مخاطر الوجود-التي تهدد بمحو الجنس البشري من الوجود، هذه المخاطر ليست فقط الكوارث الكبرى التي تهدد الحاضر والمستقبل القريب، ولكن أيضاً تلك الكوارث التي قد تضع حداً للتاريخ البشري الذي نعرفه.
وعبر التاريخ ظهر الكثيرين ممن رفضوا تجاهل التفكير بشأن المستقبل البعيد، فلقد حاول المتنبؤن أمثال نوستردام[1] مراراً أن يتنبؤوا بنهاية العالم. ولقد حاول الكاتب والفيلسوف البريطاني هربرت جورج ويلز[2] (1866-1946) أن يؤسس لعلم التنبؤ بمستقبل البشرية، ورسم في كتابه المعروف "آلة الزمن" صورة لمستقبل البشرية البعيد. ولقد حذا العديد من الكتاب ذات الحذو في محاولات متعددة لوضع تصور للمستقبل البعيد بهدف التحذير مما هو آتى أو لأهداف أخرى كالتندر واستشراف المستقبل. وفي السابق-وبالرغم من أعمال هؤلاء الرواد ومستشرفي المستقبل-فإن شيئاً لم يحدث يستأهل الذكر حول محاولات البشر لتجنب الكوارث المصيرية التي تهدد البشرية. لكننا اليوم في وضع أفضل، فالنشاط البشري أصبح قادراً على تشكيل مستقبل هذا الكوكب، وبالرغم من أننا لا نزال بعيدين عن السيطرة على الكوارث الطبيعية، إلا أننا -كجنس بشري -طورنا العديد من التكنولوجيات التي تساعد على الحد من الأضرار أو على الأقل التعامل معها.
نعم هذه المخاطر الوجودية تبقي تحت الدراسة، وهناك شعور بانعدام الحيلة واستحالة الحل تجاه هذه المعضلات. والناس تحدثوا وتناقشوا حول المعضلات الكارثية لألوف السنين، لكن القليلين فقط هم من حاولوا منع هذه الكوارث، والناس عادة عاجزون عن عمل أي شيء تجاه تلك المشكلات التي لم تقع بعد، وذلك جزئياً بسبب اتباع أسلوب التعلم بالاستكشاف فالناس يميلون لتضخيم احتمالية الأحداث التي سبق وأن عرفنا نماذج منها، والتهوين من شأن الأحداث التي لا نستطيع استدعاء ذكراها.
إن اندثار الجنس البشري، هو بمفهومه الأضيق يعني فقد حياة كل أفراد الجنس البشري ومعها تنتهي كل أهدافهم، لكن انقراض الجنس البشري ربما يعني أكثر من ذلك بكثير، فهو يعني فقد المعاني والقيم الأخلاقية التي وجدت عبر الأجيال السابقة، ومنع انتقالها للأجيال التالية (التي ربما يكون بعضهم ممن سيعيشون في الفضاء الخارجي وقتها)، وهذا يهدد فرص قدرتهم على تأسيس قيم أخلاقية خاصة بهم، إذ أنه إذا فقد الوعي والذكاء فإن هذا يعني أن القيم نفسها اصبحت غائبة من الكون. وهذا بحد ذاته سبب أخلاقي كافي لنعمل على منع المخاطر الوجودية المحتملة التي تهدد الجنس البشري من أن تصبح حقيقة، وعلينا ألا نقبل بالفشل لو لمرة واحدة في هذا المسعى.
ومع وضع هذا في الاعتبار، فلقد قمت باختيار ما أرى أنه المخاطر الخمس الكبرى التي تهدد الوجود البشري، لكننا في ذات الوقت يجب أن نضع في الحسبان أن هذه القائمة من المخاطر ليست نهائية.
وخلال القرن الماضي من الزمان، فإننا كبشر اكتشفنا أو صنعنا بأيدينا مخاطر وجودية جديدة، فقبل مشروع مانهاتن[3] لم تكن الحرب النووية ممكنة، ولهذا فإننا يجب أن نتوقع ظهور مخاطر وجودية جديدة كلما سعى الانسان لمزيد من القوة والسيطرة، وكذلك فإن بعض المخاطر التي قد تبدو خطيرة اليوم، قد تختفي و تتلاشى غداً لأننا نواصل التعلم والابتكار. إن الاحتمالات قد تتغير عبر الزمن، أحياناً لأننا نأخذ هذه المخاطر بعين الجد ونستطيع إيجاد الحلول المناسبة لنتجنبها. وأخيراً فإن كون شيء ما ممكناً ويمثل خطراً محتملاً، لا يعني أنه من المفيد أن نقلق بشأنه، فبعض المخاطر ليس في استطاعتنا أن نفعل أي شيء تجاهها، وكمثال على ذلك احتمالية الإصابة بوابل أشعة جاما التي تنشأ عن انفجار المجرات.  إننا إذا عرفنا أن في استطاعتنا فعل شيء حيال خطر ما فربما تتغير الأولويات. وكمثال، فإنه مع توافر الصرف الصحي والتطعيمات والمضادات الحيوية، تغيرت النظرة لوباء الطاعون من كونه فعل وغضب إلهي إلى كونه عوار يصيب الصحة العامة يمكن التعامل معه. هيا بنا للنظر في قائمة المخاطر الوجودية الخمس الكبرى إذاً:

1.   الحرب النووية:
بالرغم من أن الأسلحة النووية لم تستخدم سوى مرتين في هيروشيما ونجازاكي خلال الحرب العالمية الثانية، وبالرغم من أن مخزون السلاح النووي قد انخفض مقارنة بكميته التي بلغت ذروتها أثناء الحرب البارد، فإنه من الخطأ الظن بأن شبح الحرب النووية قد زال أو لم يعد أمراً محتملاً. إن أزمة الصواريخ الكوبية كانت على شفا أن تتحول إلى حرب نووية، وإذا افترضنا أن حدثاً كهذا يمكن أن يقع مرة واحدة كل تسعة وستون عاماً، وبفرض أن فرصة تحوله لحرب نووية كاملة تبلغ الثلث، فإن فرصة حدوث كارثة كتلك لتقع هي مرة واحدة كل مائتي عام.
ولكن الأسوأ هو أن أزمة الصواريخ الكوبية كانت هي الحادثة الأشهر التي عرفنا بها فقط، لكن تاريخ الوقائع النووية بين الولايات المتحدة والاتحاد السوفيتي (السابق) مليء بالحوادث الخطيرة التي لم نعرف عنها شيئاً، والتي كان من الممكن أن تتحول ولو بالخطأ إلى حروب نووية مدمرة. إن الاحتمالية المؤكدة تتغير وفقاً للوضع والتوتر الدولي، وهو ما يجعلنا نتصور أن فرصة وقوع الحرب النووية في الوقت الحاضر تقل عن 1/1000 لكل عام.
إن حرباً نووية على مستوى كبير بين القوى الكبرى قد تؤدي لإبادة مئات الملايين من البشر كنتيجة مباشرة للانفجار في كارثة يصعب تصورها. وبصورة مماثلة فإن الغبار الذري الناتج يمثل خطراً موازياً لتأثير الانفجار المباشر.  وربما يعتمد الأثر المدمر للقنبلة بصورة أكبر على الغبار الذري المتخلف عنها، وكمثال على ذلك فإن قنابل الكوبلت[4] قد قدمت كصورة مريعة ومصغرة لما يشبه يوم القيامة، فهي تقتل كل من يبلغه الغبار الذري الناشئ عنه والذي سينتشر على مستوى العالم ليتسبب في فناء الجنس البشري، ولكنها كسلاح يصعب تصنيعه وامتلاكه من الناحية العملية والاقتصادية، وبحيث يجعل ذلك منها سلاحاً نظرياً ويجعل من استخدامه فعلياً أمراً صعب الحدوث.
إن الخطر الحقيقي الأكبر في حال وقوع الحرب النووية يتمثل فيما يعرف الشتاء النووي، حيث في حال حدوث الحرب النووية فإن الغبار والسخام المتصاعد والذي سيصل إلى طبقة الستراتوسفير[5] سيتسبب في إحداث موجة من البرد والجفاف تمتد لعدة سنوات على مستوى العالم، ولقد تنبأت دراسات حديثة لمحاكاة هذا التغير المناخي بأنه في حال حدوثه فسوف يؤدي ذلك إلى إعاقة نمو المزروعات في أغلب بقاع العالم ولعدة سنوات. وإذا ما تحقق هذا السيناريو فإن البلايين من البشر سوف يموتون جوعاً، ويترك فقط أعدادً متفرقة من البشر ربما يموتون أيضاً نتيجة مخاطر أخرى كانتشار الأمراض. والشيء غير المؤكد هو كيف سيكون تأثير السخام والغبار الذري، فوقاً لطبيعته ونوعيته سيكون الأثر الذي يخلفه على البشرية متبايناً، وليس لدينا حالياً طريقة للتنبؤ بذلك.

2.   الوباء المهندس بيولوجياً (وراثياً) Bioengineered pandemic:
لقد قتلت الأوبئة الطبيعية من البشر أعداداً تفوق تلك التي ماتت في الحروب. ومع ذلك فإن الأوبئة الطبيعية لم تعد غالباً من المخاطر الوجودية التي تهدد بفناء الجنس البشري، فعادة أصبح هناك من البشر لديهم المناعة الكافية ضد المسببات المرضية، كما أن الناجين من الوباء سيصبحون أكثر مقاومة له، والطبيعة التطورية للطفيليات المسببة للأوبئة كذلك تجعلها تحافظ على وجودها من خلال عدم إفناء العائل الذي تتطفل عليه، ولهذا فقد رأينا أن السفلس[6] syphilis قد تحول من قاتل فتاك عند بداية ظهوره في أوربا إلى مرض طويل الأمد.
ولسوء الحظ فإننا أصبحنا قادرين الآن على تخليق أمراض أسوأ بكثير من هذا، وكواحد من أشهر الأمثلة على ذلك هو كيف تم التعديل الجيني على مرض جدري الفئران[7] ليصبح أكثر فتكاً وأشد ضراوة، وليصبح كذلك قادراً على إصابة حتى الأفراد الذين تم تطعيمهم. ويظهر العمل الحالي على فيروس انفلونزا الطيور كيف يمكن جعل قدرة الفيروس على إحداث العدوي والمرض تزداد بفعل التدخل البشري المتعمد.
و حالياً فإن الخطر من قيام شخص ما باطلاق متعمد لوباء مدمر من هذا القبيل يعد أمراً محدوداً. إلا أن التقنيات البيولوجية (البيوتوكنولوجي) أصبحت اليوم أفضل و أرخص بحيث أصبح في امكان مجموعات أوسع انتاج أمراض أسوء و أخطر.  إن معظم العمل في مجال الأسلحة البيولوجية كان يتم تحت إشراف الحكومات، و يهدف إلى تخليق سلاح فتاك بشرط أنه يمكن السيطرة عليه، لأن إفناء الجنس البشري لا يعد مفيداً من الناحية العسكرية.  لكنه و دائماً ما يكون هناك بعض الناس ممن يرغبون في عمل أشياء لمجرد إثبات أنهم قادرون على فعل ذلك و لفت الأنظار إليهم.  و هناك آخرون لهم أهداف أبعد، و كمثال فإن طائفة أيمو شين ريكيو Aum Shinrikyo الدينية اليابانية حاولت وفقاً لمعتقداتها تسريع الوصول لنهاية العالم من خلال استخدام الأسلحة البيولوجية بجانب استخدامهم لغاز الأعصاب خلال هجماتهم التي تمت على مترو الأنفاق طوكيو في العام عام 1985. إن بعض الناس يعتقدون فعلاً بأن كوكب الأرض سيكون أفضل حالاً بدون وجود الانسان، و عليه فهم يسعون لتخليص الكوكب من الشر البشري.
إن عدد من يلقون حتفهم نتيجة استخدام الأسلحة البيولوجية يبدو أنه يتخذ شكل دالة أسية، فمعظم الهجمات تتسبب في سقوط عدد محدود من الضحايا، لكن هذا العدد المحدود برغم ذلك يكون كبيراً. إن العدد المتوقع من خطر وباء بيولوجي ينتشر على مستوى العالم كنتيجة لعمل إرهابي ربما يكون قليلاً، لكن قدرة هذه الجماعات الإرهابية تعد محدودة إذا ما قورنت بقدرة الحكومات و الجيوش النظامية التي تستطيع قتل أعداد أكبر كثيراً من الناس إذا ما لجأت لاستخدام السلاح البيولوجي، و كمثال فلقد قتل ما يزيد عن أربعمائة ألف انسان نتيجة للبرنامج البيولوجي العسكري الياباني خلال الحرب العالمية الثانية. و لأن التكنولوجيا تتطور بسرعة و تصبح أكثر كفاءة و قدرة، فإن المستقبل القريب قد يحمل أوبئة مهندسة وراثياً أسوء بكثير مما قد نتخيل و أسهل في التصميم و التنفيذ.
3.   الذكاء الفائق Superintelligence:
الذكاء في حد ذاته قوة رهيبة، إن زيادة طفيفة في القدرة على حل المشكلات و تنظيم المجموعة هو ما جعلنا - كبشر - نطرح الأنواع الأخرى من القرود أرضاً، و الآن يعد استمرار وجودهم و حياتهم على الأرض قراراً بيد الانسان بغض النظر عما يفعلونه هم.
أن تكون ذكياً هي ميزة فعلية بالنسبة للناس و المنظمات البشرية، و لهذا فإن العديد من الجهود تبذل لإيجاد الطرق التي يمكن بها تطوير و تنمية الذكاء الفردي و الجماعي للجنس البشري بداية من عقاقير تحسين الإدراك و حتي برامج الحوسبة الخاصة بالذكاء الصناعي.
إن المشكلة تكمن في أن الكائنات الذكية تتميز بقدرتها على تحقيق أهدافها، لكن إذا ما تم وضع الأهداف بطريقة خبيثة و سيئة، فإن هذا يقود هذه الكائنات لتوظيف قدرتها بذكاء لتحقيق هذه الأهداف و هو ما قد يصل بنا إلى نهايات كارثية. و لا يوجد هناك من سبب معقول يجعلنا نظن أن وجود الذكاء بحد ذاته سوف يجعل الأشياء تتصرف بطرقة حسنة و أخلاقية، و في الحقيقة فإنه من الممكن إثبات أن أنواعاً معينة من النظم فائقة الذكاء ربما لن تطيع القواعد الأخلاقية فيما لو كانت صحيحة.
إنه قد يكون من المقلق أكثر أن محاولة شرح الأشياء للآلات ذات الذكاء الاصطناعي يجعلنا ننزلق إلى مشاكل عويصة من الناحية التطبيقية و الفلسفية. إن القيم الانسانية عميقة و معقدة بحيث أننا أحياناً نجد أنفسنا عاجزين عن شرحها أو التعبير عنها، و حتى عندما نشرحها ربما نجد أنفسنا لا نفهم كل ما تتضمنه هذه القيم من أسباب تجعلنا نتمسك بها. إن الذكاء المبني على برامج الحاسوب يمكن أن يتحول بسرعة من شيء خاضع للإنسان إلى قوة رهيبة و مرعبة. و يعد سيناريو إنفجار الذكاء[8]intelligence explosion” أمراً ممكناً عندما تصبح برامج الحواسيب متطورة و جيدة بما يكفي لإنتاج برامج أخرى أفضل بنفسها. و إذا ما حدثت تلك القفزة فسوف يكون هناك تغير كبير في موازيين القوى بين هذه النظم الذكية (أو بين البشر الذين يخبرونها بما يجب أن تفعل) و بين كل العالم. و إذا ما تحقق هذا السيناريو فسوف تقع كارثة محققة إذا ما كانت الأهداف الموضوعة سيئة و خبيثة.
و الشيء غير المعتاد حول هذا الذكاء الخارق (الفائق) أننا لا نعلم إذا ما كان هذا التسارع و القوة التي يمكن أن تقود إلى حدوث سيناريو إنفجار الذكاء هي أمرٌ ممكن الحدوث حقاً أم لا. ربما تكون حضارتنا الحالية ككل تطور نفسها بأقصي معدل ممكن، لكن هناك أسباب قوية تجعلنا نفكر أن بعض التقنيات (التكنولوجيات) ربما تسرع من الأمور بمعدلات أسرع من أن تتعامل معها المجتمعات الحالية. و بالمثل فإننا لا نملك شيئاً ملموساً عن مدى خطورة الصور المختلفة من الذكاء الإصطناعي الخارق، أو كيف يمكن لإستراتيجيات التعامل و تقليل الضرر أن تعمل. أنه من الصعب للغاية أن نتنبأ حول تقنية مستقبلية لا نملكها بعد، أو أن تكون أكثر ذكاءاً من البشر انفسهم. و بالنسبة للمخاطر الواردة بهذه القائمة، فربما يكون خطر الذكاء الإصطناعي الخارق أكثرها خطورة أو أنه مجرد سراب. و أنه من دوافع التعجب في هذا الموضوع أنه و منذ خمسينيات و ستينيات القرن الماضي عندما كان الناس واثقون بأن الذكاء الإصطناعي الخارق يمكن أن يتحقق خلال فترة لا تتجاوز الجيل الواحد، فإنهم لم ينظروا إلى مسائل الأمان، و ربما كان ذلك بسبب أنهم لم يأخذوا توقعاتهم بجدية، لكن الأكثر احتمالية أنهم ربما رأوا أن هذه المشكلة لا تخصهم بل تخص المستقبل البعيد.
4.   النانو تكنولوجي Nanotechnology:
تقنية الجزيئات الناوميترية (النانوتكنولوجي) هي التحكم في المادة على مستوى الذرة أو الجزيء. و هذا بحد ذاته لا يعد خطيراً، لكنه على العكس يعد أمراً جيداً بالنسبة لمعظم التطبيقات. لكن المشكلة -مثلما هو الحال بالنسبة للتقنيات الحيوية - أنه كلما زادات القوة الممنوحة زادات معها مخاطر إساءة استخدام هذه القوة و صعوبة مواجهة ذلك.
إن المشكلة الكبرى ليست في فرضية الجراي جوو [9]Grey Goo سيئة السمعة التي تفترض الاستنساخ الذاتي للآلات النانوميترية فتأكل كل شيء في بيئتها. حيث يتطلب حدوث ذلك تصميماً ذكياً لهذا الغرض بالذات. أنه من الصعب أن تصنع آلة تستنسخ نفسها، لأن البيولوجيا هي الأمثل لذلك بالطبيعة، و ربما ينجح شخص مهووس في إحداث هذه الفرضية بالمصادفة، لكن هناك العديد من الفاكهة الأقرب منالاً في شجرة تكنولوجيا الدمار الشامل.
إن المشكلة الكبرى ليست في فرضية الجراي جوو Grey Goo سيئة السمعة التي تفترض الاستنساخ الذاتي للآلات النانوميترية فتأكل كل شيء في بيئتها. حيث يتطلب ذلك تصميماً ذكياً لهذا الغرض بالذات، بصورة يصعب معها تصور أن تصنع آلة تستنسخ نفسها، لأن البيولوجيا هي الأمثل لذلك بالطبيعة. ربما ينجح في ذلك شخص مهووس بالمصادفة، لكن هناك العديد من الفاكهة الأقرب منالاً في شجرة تكنولوجيا الدمار الشامل.
لكن المشكلة الحقيقة للنانوتكنولوجي تكمن في أن الصناعات القائمة على الدقة الذرية atomically precise manufacturing   تبدو مثالية لإنتاج سريع و رخيص لأشياء مثل الأسلحة. و في عالم تكون فيه الحكومة قادرة على "طباعة" كميات كبيرة من الأسلحة المستقلة (تعمل بدون الحاجة للعنصر البشري) أو شبه المستقلة - و التجهيزات اللازمة لبناء المزيد منها- سيصبح سباق التسلح أسرع بكثير، و سيصبح توجيه الضربة العسكرية الأولى هدفاً مغرياً في حد ذاته قبل أن يكتسب الأعداء فرصة لبناء المزيد من الآليات العسكرية.
و برغم أن الأسلحة أيضاً ستبدو أصغر لكنها أكثر دقة و فعالة من الصورة التي نعرفها عن الأسلحة حالياً، فهي ربما ستبدو شيء مثل سم ذكي يبدو في ظاهره مثلاً كغاز الأعصاب لكنه في الواقع يتخير ضحاياه، أو حتى على هيئة روبوت حشري gnatbot [10] يراقب النظم و المجتمعات طوال الوقت و يجبرها على الإذعان والطاعة، و هو أمر رغم غرابته لا يبدو مستحيلاً. و ربما أيضاً ستكون هناك طرق للحصول على سلاح نووي بصورة سهلة سريعة أو للتحكم في المناخ و استعماله كسلاح، كل ذلك سيصبح في متناول الجميع ممن يرغبون في امتلاك هذه الأسلحة.
أننا لا يمكننا الحكم على الصورة التي سيكون عليها الخطر الوجودي الذي يهدد مستقبل البشرية بفعل النانوتكنولوجي، لكننا يمكن أن نقول أنه سيكون سبباً للدمار المحتمل فقط لأنه سيعطي البشر ما يتمنون من قوة و قدرة على خلق الرخاء أو الدمار.
5.   الأخطار غير المعلومة Unknown unknowns:
   إن الفرضية الأكثر إحداثاً للقلق هي تلك التي تقول بأنه ربما يكون هناك شيء مخيف ينتظر مستقبلنا كبشر، و هو أشد فتكاً و شراسة لكننا لا نزال لا نعلم شيئاً عنه.
إن السكون الذي يلف السماء من حولنا ربما يكون دليلاً على ذلك. هل حقاً غياب المخلوقات الفضائية العاقلة aliens هو نتيجة لأن الحياة أو الذكاء هو شيء نادر جداً في هذا الكون، أم لأنه هناك اتجاه أو سبب يمحو الحضارات العاقلة من الكون؟ هل هناك مصفاة مستقبلية هائلة قضت على حضارات أخرى موازية لنا في الكون، دون أن يسعى أحد منهم لمساعدتنا أو تحذيرنا.
أياً كان نوع هذا التهديد، فهو يبدو كشيئ لا يمكن منعه حتى عندما تعرف أنه هناك، دون النظر لمن تكون أو ماذا يمكنك أن تفعل. أننا لا نعلم أي شيء عن تهديدات كتلك لكنها ربما تكون بالفعل قائمة (و ليس هناك مخاطر سبق ذكرها في هذه القائمة تبدو و تحمل نفس هذه الصفة).
أننا لا بد أن نشير إلى أن مجرد جهلنا بالشيء لا يعني أننا غير قادرون على توقعه. ففي ورقة بحثية مميزة للعالمان ماكس تيجمارك Max Tegmark  و نيك بوستروم    Nick Bostrom [11]أشارا إلى أن مجموعة محددة من المخاطر الوجودية قد تقع بنسبة فرصة واحدة لكل بليون سنة، و ذلك اعتماداً على تحليلات علمية مرتبطة بالعمر النسبي لكوكب الأرض.
و ربما تتعجب من أننا لم نذكر التغير المناخي أو خطر الأجسام و النيازك الفضائية في هذه القائمة. إن التغير المناخي بغض النظر عن مدى خطورته لا يتصور أنه سيتسبب في جعل كل كوكب الأرض غير مأهولاً بالحياة، باستثناء إذا ما تداخل مع عوامل و تهديدات أخرى إذا ما فشلنا في مجابهتها. و كذلك الأجسام الفضائية و النيازك قد تمحو الحياة على كوكب الأرض، لكن لحدوث ذلك فلا بد أن نكون سييء الحظ للغاية.
إن أنواع الثدييات المتوسطة قد نجت و استمرت في الحياة خلال المليون عام المنصرمة، و حيث أن معدل أنقراض الأنواع الطبيعي the background natural extinction rate هو بالتقريب واحد لكل مليون عام، و هذا أقل بكثير من خطر اندلاع حرب نووية و التي لا تزال بعد سبعين عاماً هي التهديد الأكبر الذي يهدد الوجود البشري.
إن مدى توافر أمكانية أن نتعلم عن طريق الاستكشاف تجعلنا نسلك سلوكاً نبالغ فيه عند تقييم المخاطر التي نراها دائماً ماثلة أمامنا في وسائل الإعلام، و نقلل من خطورة التهديدات التي لم تمر بنا من قبل، و إذا ما أردنا أن يستمر الجنس البشري في الوجود فعلينا أن نغير من هذا السلوك.

هذا المقال ترجمة عن النص الأصلي لمقال بعنوان :
The five biggest threats to human existence by Anders Sandberg
May 29, 2014 .
الكاتب أندرسن ساندبيرج : باحث بمعهد مستقبل الإنسانية بجامعة أكسفورد
Anders Sandberg works for the Future of Humanity Institute at the University of Oxford.
تم الحصول بواسطة البريد الالكتروني على موافقة المؤلف للترجمة دون أي شروط أو متطلبات.

عن المترجم:
د/ أشرف محمد خليفة على:
دكتوراه في علوم البيئة و علوم الأراضي – جامعة جريفيث كوينزلاند – أستراليا
محاضر بقسم الموارد الطبيعية بمعهد البحوث و الدراسات الإفريقية - جامعة القاهرة.
محاضر زائر بكلية الهندسة البيئية - جامعة جريفيث كوينزلاند – أستراليا


[1]  نوستردام Michel de Nostredame (1503-1566) عراف ومتنبأ فرنسي، نشر عدد من التنبؤات التي حدث بعضها بالفعل، واكتسبت نبوءاته شهرة عالمية.
[2] هربرت جورج ويلز Herbert George Wells (1866ـ 1946) كاتب وفيلسوف سياسي بريطاني، اشتهر بقصصه وكتاباته التي اهتمت بجميع مناحي الحياة من اجتماعٍ واقتصاد وعلم وأدب وفلسفة، وخاصةً فيما كتبه من قصص الخيال العلمي التي راد فيها عوالم غريبة ومجتمعات مستقبلية وحالاتٍ مختلفة من الوجود.

[3]   مشروع منهاتن هو مشروع بحثي تطبيقي أسفر عن انتاج أول سلاح نووي خلال الحرب العالمية الثانية، و لقد كان المشروع بقيادة الولايات المتحدة بالتعاون مع بريطانيا و كندا. و ما بين 1942 و حتى 1946 كان المشروع تحت إدارة الجنرال ليزلي جروف Leslie Richard Groves, Jr. (17 August 1896 – 13 July 1970) من المهندسين العسكريين و الفيزيائي روبرت أوبنهايمر  J. Robert Oppenheimer مدير معمل لوس آلموس الوطني الذي صمم أول قنبلة نووية فعلية.

[4]  قنبلة الكوبلت هي قنبلة افتراضية قدم فكرتها الفيزيائي الشهير ليو سزليرد Leó Szilard في فبراير عام 1950، حيث تقوم فكرتها على أساس نشر الغبار الذري المشع لأحد نظائر عنصر الكوبلت، وهي نظرياً قادرة على افناء الجنس البشري كله، ولم يتم تصنيعها فعلياً نظراً للكلفة العالية وشبه الاستحالة التقنية.

[5]  الستراتوسفير هي الطبقة الثانية من طبقات الغلاف الجوي، ويبلغ متوسط ارتفاعها بدايتها مسافة 10-13 كيلومتر من سطح الأرض، وتنتهي على ارتفاع 50 كيلومتر تقريباً. وتتميز بأن درجة الحرارة فيها تزداد كلما اتجهنا لأعلى وبوجود طبقة الأوزون في الجزء السفلي منها.
[6]  السفلس syphilis مرض جنسي ظهر لأول مرة في أوربا عام 1495، وعند ظهوره الأول كان يعد وباءاً قاتل يقتل كل من يصيبه فوراً، لكن وبعد مرور عدة سنوات أصبح المرض أقل فتكاً لسبب غير معروف، وفي غضون الخمسين سنة التالية تحول إلى مرض متوسط الأضرار يستمر مع المريض لفترة طويلة.

[8]   انفجار الذكاء intelligence explosion هو سيناريو نظري يفترض أن تتمكن آلة ذكية من فهم و تحليل العملية التي تم بها انتاج ذكاءها وتطويرها، واستخدام ذلك في انتاج آلة أخرى أكثر ذكاءً، وكذلك تفعل الآلة الجديدة، حتى تصل العملية إلى قدرة الآلات الذكية بدون تدخل بشري من أن تنتج آلات أخرى أذكي وأمهر من الجنس البشري. وقد تم تقديم هذا السيناريو لأول لمرة عام 1965 بواسطة البروفيسور إيرفينج جوود (1916-2009) عالم الرياضيات والحوسبة الذكية.
[9]   الجراي جوو Gray goo هي نظرية افتراضية تضع سيناريو لنهاية العالم ترتبط بتقنية النانوتكنولوجيا الجزيئية، حيث تفترض وجود استنساخ ذاتي للروبوت (الانسان الآلي) self-replicating robots خارج عن السيطرة البشرية، وتستهلك الروبوتات كل المواد الخام الموجودة على كوكب الأرض خلال بناءها لذواتها المستنسخة، ويسمى هذا السيناريو بالإيكوفاج ecophagy (التهام البيئة). والفكرة الأصلية التي بني عليها هذا السيناريو تفترض أن هذه الآلات (الروبوتات) قد صممت بحيث تمتلك هذه القدرة على نسخ أنفسها، إلا أن الفكرة الأكثر انشار وشعبية فتفترض أن الروبوتات قد اكتسبت هذه القدرة بالمصادفة ونتيجة لحادث طارئ. و قد وصفت هذه الآلات ذاتية الاستنساخ أول مرة بواسطة العالم الرياضي جون فون نيومان  John von Neumann، أمام مصطلح الجراي جوو Gray goo فقد ابتكره رائد علم النانوتكنولوجي إيريك دريكسلر Eric Drexler و ذكره في كتابه "محركات الخلق Engines of Creation" عام 1986 م.

[10]   روبوت (آلي) صغير يتخذ غالباً مظهر الحشرات و يستخدم للمراقبة.
[11] M. Tegmark and N. Bostrom, Nature, 438, 754 (2005)


الأحد، نوفمبر 05، 2017

الذكاء الإصطناعي - جوجل تنتج آلالات قادرة على تعليم نفسها دون تدخل الانسان!!



اعلنت المجموعة بالذكاء الاصطناعي DeepMind التابعة لشركة جوجل أنها نجحت في ابتكار نظام للذكاء الإصطناعي قادر على تعليم نفسه دون الحاجة لتدخل الانسان. حيث قام نظام AlphaGo Zero بتعليم نفسه كيفية لعب لعبة رقعة الأحجار الصينية القديمة دون الحاجة لمعلم ومن الصفر. يذكر أن النسخة الأقدم من نفس النظام قد نجحت في هزيمة بطل العالم في هذه اللعبة الكوري الجنوبي لي سيدول  Lee Sedol عام 2015، إلا أن النظام كان بحاجة لتدخل المبرمجين لتعليمه أصول اللعبة، إلا أن النظام الجديد قادر على تعليم نفسه لحد الاتقان -خلال 21 يوم فقط - دون أي تدخل بشري. 


الاثنين، نوفمبر 28، 2016

هل يتمثل الحل لمشاكل البشرية في إيجاد وطن بديل؟!! ستيفن هوكينج يظن ذلك.

هل يتمثل الحل لمشاكل البشرية في إيجاد وطن بديل؟!! ستيفن هوكينج يظن ذلك. 



صرح عالم الفلك والفيزياء الكبير البروفيسور ستيفن هوكينج - خلال محاضرة له عن الكون وأصل البشرية بأكسفورد  - أن البشرية معرضة للفناء والانقراض خلال مدة لا تتجاوز 1000 عام من الآن، و أن الحل الوحيد - من وجهة نظره - يتمثل في العثور على كوكب بديل وانتقال البشر للعيش فيه، بعد أن أصبحت البيئة الهشة لكوكب الأرض على وشك الانهيار!!

المصدر:
http://www.news.com.au/technology/science/space/professor-stephen-hawking-says-humanity-has-less-than-1000-years-left-until-extinction/news-story/94cee9901615e1f6501fa368220ac054