إيلون ماسك يحذر: نهاية البشرية أقرب مما نتصور

المستقبل الواعد للذكاء الاصطناعي المتقدم يظل مقرونا بجملة من الإشكاليات والأسئلة الأخلاقية حول احتمال نشوب صراع بينه وبين البشر.
الاثنين 2020/08/03
ماسك: يجب أن نقلق من مدى تقدم الذكاء الاصطناعي

التحذيرات التي أطلقها إيلون ماسك بأن نهاية العالم أقرب مما نتصور، يجب أن تؤخذ على محمل الجد. تحذيرات ماسك لا تشير إلى جائحة كورونا، التي أصابت حتى الآن أكثر من 17 مليون شخص، بل حذر من التكنولوجيا، ولأن ماسك شخص غير عادي، لا يمكن التقليل من أهمية التحذير الذي أطلقه، فالشركات التي ساهم في تأسيسها ومنها سولار سيتي، تيسلا، وسبيس إكس تخدم رؤيته في تغيير العالم والبشرية.

لوس أنجلس- يحذر إيلون ماسك منذ وقت طويل من مخاطر الذكاء الاصطناعي ويصف المشككين بخطره بأنهم أقل ذكاء من سواهم، ووصل الأمر بماسك إلى القول بأن الذكاء الاصطناعي أشد خطرًا من حرب نووية. وأحد مآخذ ماسك على الذكاء الاصطناعي أنه سيصبح بديلًا عن العمال البشريين، وبأن نسخة شريرة منه ربما تقرر الاستغناء عن البشر.

بناة الأهرامات

وانتقد ماسك حديثًا، الأشخاص الأذكياء ممن يفترضون أنه يستحيل على الذكاء الاصطناعي خداعهم، معتبرًا أنهم يقللون من مدى الخداع الذي يمكن للذكاء الاصطناعي القيام به.

وقال ماسك “يجب أن نقلق من مدى تقدم الذكاء الاصطناعي، الأشخاص الذين أرى أنهم الأكثر خطأ حيال الذكاء الاصطناعي هم أصحاب الذكاء، الحاد لكن هذا يمنعهم من تخيل إمكانية تفوق ذكاء الكمبيوتر عليهم، وهذا خلل في منطقهم، إنهم أغبياء أكثر مما يعتقدون بكثير” وفقًا لموقع بيزنس إنسايدر.

وتثير التغريدات التي يطلقها ماسك من حين لآخر حيرة متابعيه، ويتهمه البعض بأنه عاشق للفت الانتباه؛ آخر تلك التغريدات كانت الجمعة حول الأهرامات، ذكر فيها أن “الكائنات الفضائية هم من بنى الأهرامات”.

ثم أضاف تغريدة أغرب قال فيها “ورمسيس الثاني كان أيضا”، في إشارة على ما يبدو إلى أن الملك الفرعوني رمسيس الثاني كان فضائيا أيضا. ولا يعرف ما إذا كان ماسك يقول ذلك على وجه الحقيقة أم يسخر من أصحاب تلك النظرية، إذ يعتقد البعض أن أهرامات الجيزة قد بنيت على يد فضائيين، نظرا لإمكانيات البشر المتواضعة في ذلك الوقت.

شهادات

وكان مؤسس مايكروسوفت، بيل غيتس، قد انتقد ماسك خلال حوار مع شبكة “CNBC”، واصفا تعليقاته بـ”المتجاوزة للحدود”. وأضاف غيتس “إنه (ماسك) يصنع سيارات كهربائية، وصواريخ تعمل جيدا. لهذا مسموح له بالقول مثل هذه الأشياء. آمل أن لا يخلط المساحات التي لا ينخرط فيها بالشكل الكافي”.

ورغم أن غيتس نفسه لم يخف مخاوفه من احتمال نشوب صراع بين البشر والذكاء الاصطناعي، وسبق أن قال في عام 2015 “أنا في صف القلقين من الذكاء الاصطناعي الفائق، إذ ستؤدي الآلات وظائف كثيرة نيابة عنا، وبعد عقود من الآن سيصل الذكاء إلى مرحلة يشكل فيها مصدر قلق كبير”.

وكرر غيتس تحذيراته عام 2019 حيث قارن بين الذكاء الاصطناعي المتقدم وبين الأسلحة النووية. ويندر أن يشارك أقران ماسك مخاوفه، فهي كما يقولون غالبا ما تستند إلى ادعاءات غير مدعومة بأدلة كافية.

رغم ذلك، يعتقد صناع قرار أن الحلول التي يقدمها ماسك لتلافي الخطر تبدو منطقية، وتستحق الاهتمام، ويمكن تبنيها؛ مثل ضرورة تفعيل الرقابة، وتنظيم أبحاث الذكاء الاصطناعي، وتوفير حماية وقائية ضد التقنية المسيئة أو غير المسؤولة.

إيذاء البشر

في حقيقة الأمر لم يكن إيلون ماسك الوحيد الذي أطلق مثل هذه التحذيرات، هناك أصوات أخرى ترتفع بين الحين والآخر، أصوات تعود لخبراء في القطاع محذرة من تنامي اعتماد البشرية على خوارزميات الذكاء الاصطناعي، وتطوير التعلم العميق للآلات، ووصوله إلى قدرات غير مسبوقة من السيطرة والتلاعب بالمجتمعات، على الرغم من الإيجابيات المترتبة على تطويره وقدرته على تحسين العالم ومكافحة الأمراض ورفع مستويات الرعاية الصحية وتخليصنا من مهام مجهدة تهيمن على حياتنا.

كينيث ستانلي، الأستاذ الجامعي في جامعة فلوريدا الوسطى، والمدير الهندسي لمخابر أوبر للذكاء الاصطناعي، يشارك ماسك مخاوفه، ويحذر هو الآخر من أن “أكثر الأمور مدعاة للقلق، استخدام الذكاء الاصطناعي لإيذاء البشر، وتوجد تطبيقات كثيرة تجعلك تتخيل حدوث ذلك، وعلينا أن نكون أكثر حذرًا، وأن لا نسمح لهذا الجانب السيء بالتجسد على أرض الواقع. إن فهم كيفية استمرار ثقتنا بالذكاء الاصطناعي؛ سؤال صعب جدًا وله أبعاد كثيرة تتجاوز الأبعاد العلمية، ما يُبرز الحاجة الملحة لمشاركة المجتمع كله في الإجابة عليه”.

وأضاف في لقاء خاص مع مرصد المستقبل إن “إساءة استخدام جميع أنواع التقنية أمر وارد، وأظن أن الذكاء الاصطناعي ليس إلا مثالًا آخر على ذلك، ولطالما كافح البشر لمنع استخدام التقنيات الحديثة لأغراض شريرة، ويبقى إقدامنا على وضع ضوابط وضمانات صحيحة، كفيلًا بجعلها آمنة”.

وتابع “لا يمكنني الجزم اليوم بشأن قدرتنا على ضبط الأمور مستقبلًا، وما يجب أن نفعله حيال ذلك، لكن يمكنني أن أحذر من آلية التعاطي مع الذكاء الاصطناعي، وضرورة اتخاذ جانب الحيطة خلال استجابتنا لتأثيراته، وأن نطور طرائق تعاملنا معه بالتدريج”.

يعتقد صناع قرار أن الحلول التي يقدمها ماسك لتلافي الخطر تبدو منطقية وتستحق الاهتمام ويمكن تبنيها

التطور السريع، أكثر الأمور التي تشكل خطورة في الذكاء الاصطناعي، بحسب تصريحات عالم آخر هو إيركلي بيريدز، رئيس مركز الذكاء الاصطناعي والروبوت في معهد الأمم المتحدة الإقليمي لبحوث الجريمة والعدالة، الذي أكد أن السرعة التي تتطور بها التكنولوجيا قد تعرضنا لفقدان التوازن ونعجز بالتالي عن التكيف معها.

ولم يُخفِ بيريدز مخاوفه، في تصريحه لمرصد المستقبل، من استخدام المنظمات الإجرامية والإرهابية للتطبيقات الخطيرة للذكاء الاصطناعي، وتطويعها لأغراض شريرة، وتنفيذ عمليات كبيرة تتسبب بضرر بالغ، من خلال حرب رقمية أو تسخير الذكاء الاصطناعي للتحكم بالروبوتات والطائرات العسكرية دون طيار.

وأشار بيريدز إلى مخاطر أخرى متعلقة بخسارة كثير من الأشخاص لوظائفهم لحلول الروبوتات محلهم. وسبق أن سلط خبراء، الضوء على انعكاسات استثمار إمكانيات الذكاء الاصطناعي على سوق العمل في مختلف دول العالم؛ مؤكدين على أن الأعوام القليلة المقبلة ستشهد اختفاء حوالي 47 في المئة من الوظائف في الولايات المتحدة وحدها بسبب الذكاء الاصطناعي، وقد يصل اضمحلال الوظائف إلى مليون وظيفة قبل حلول العام 2026.

ويعتقد خبراء آخرون أن تلك الأرقام تتجاهل الجانب الآخر من الحقيقة، ويؤكدون أن اختفاء قدر كبير من الوظائف، تقابله بوادر ومؤشرات على تزايد رفاهية الإنسانية ورخاء المجتمعات، إذ أن التكنولوجيا الحديثة وعلى رأسها الذكاء الاصطناعي ستفتح الفرص لاستحداث مئات الملايين من الوظائف الجديدة في الاقتصاديات الناشئة، وقطاعات التطوير التقني، ومجالات الخدمات التخصصية.

وشدد بيريدز على ضرورة استخدام الذكاء الاصطناعي في أمور خيرة، واستثمار فوائده وفهم مخاطره وتخفيفها باعتباره أداة قوية وليس سلاحًا فتاكًا.

سوء الاستخدام

لمن ستكون الغلبة في النهاية؟
لمن ستكون الغلبة في النهاية؟

وأكد جون لونغفورد، الباحث الأساسي في شركة مايكروسوفت، على ضرورة مراقبة الطائرات دون طيار، مع وجود احتمالات وطرائق مختلفة لتحولها إلى خطر؛ وقال إن “عملية معالجة المعلومات في الطائرات غير المأهولة ليست فعالة إلى درجة كافية لفعل شيء مفيد حاليًا، لكن في غضون 5 أو 10 أعوام أتخيل أن طائرة دون طيار قد تكون لديها قدرة معالجة داخلية تقدم فائدة في الواقع. إن استخدام الطائرات دون طيار في الوقت الراهن ما زال خاضعًا لسيطرة البشر، لكن ما يثير قلقي هو قدرتها المستقبلية على التعلم العميق”.

في حين يرى آخرون أن الخطر لا يعود للذكاء الاصطناعي بحد ذاته، بل يكمن في سوء الاستخدام؛ وقال الباحث هافا سيغلمان، مدير برامج تقنية الأنظمة الميكروية في وكالة مشاريع بحوث الدفاع المتطورة (داربا) التابعة لوزارة الدفاع الأميركية، إن “جميع أنواع التقنية قابلة لسوء الاستخدام. أظن أن الأمر بيد من يستخدمها. ولا وجود لتقنية سيئة، بل أشخاص سيئون”.

وقال توماس ميكولوف عالم أبحاث الذكاء الاصطناعي في شركة فيسبوك “عند توفر اهتمام كبير وتمويل ضخم حول شيء معين، يظهر أشخاص مستعدون لإساءة استخدامه. وما يثير القلق هو إقدام بعض الأشخاص على بيع الذكاء الاصطناعي قبل صنعه حتى، مدَّعين معرفة ماهية المشكلة التي سيحلها”.

ولسنا متيقنين بعد من إمكانية إنشاء ذكاء اصطناعي عام قادر على أداء أي مهمة إدراكية يستطيع البشر القيام بها ببراعة أو ربما بشكل أفضل. وعلى الرغم من المستقبل الواعد للذكاء الاصطناعي المتقدم، إلا أنه يظل مقرونًا بجملة من الإشكاليات والأسئلة الأخلاقية، وربما لا نعرف جميع الأسئلة التي يجب الإجابة عنها حتى الآن.

12