مخاطر وأسئلة أخلاقية في عالم الآلات.. هل الإنسانية مرحلة عابرة في تطور الذكاء الاصطناعي؟ | ثقافة


تكثر الأسئلة بخصوص مخاطر الذكاء الاصطناعي المحتملة وتهديداته للبشرية بـ”الفناء”، فهل من صدقية لهذا السيناريو الكارثي الذي لا يزال -لو صح حقا- يلوح في الأفق البعيد؟

يبدأ الكابوس المستوحى من عدد كبير من أفلام الخيال العلمي عندما تتفوق الآلة بقدراتها على البشر وتخرج عن نطاق السيطرة.

وقال الباحث الكندي يوشوا بنجيو -وهو أحد عرابي التعلم الآلي- في تصريح حديث “منذ اللحظة التي ستكون لدينا آلات مصممة لكي تستمر سنواجه مشاكل”.

ودعت منظمة الأمم المتحدة للتربية والعلم والثقافة (يونسكو) قبل شهور قليلة بلدان العالم إلى تطبيق توصيتها بوقف تطوير هذه البرامج 6 أشهر، محذرة من مخاطر كبيرة على البشرية، ومشددة على الحاجة لتطوير ذكاء اصطناعي “أساسه الأخلاق”.

اللحظة الحاسمة

وبحسب الفيلسوف السويدي نيك بوستروم، ستأتي اللحظة الحاسمة عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها، مما يتسبب في “انفجار في الذكاء”.

ويرى بوستروم مؤلف كتاب “الذكاء الخارق” في حوار سابق مع الجزيرة نت أن أدمغة الآلة إذا تفوقت على أدمغة الإنسان في الذكاء العام فإن هذا الذكاء الخارق الجديد يمكن أن يحل محل البشر باعتباره الشكل المهيمن للحياة على الأرض.

ووفق نظريته التي سميت “نظرية مشبك الورق”، يطرح بوستروم سيناريو افتراضيا يقول فيه إنه إذا جرى برمجة الذكاء الاصطناعي على سبيل المثال لتطوير إنتاج مشبك الورق ومنح الموارد فقد يقوم بتحويل المواد الأخرى إلى مشابك ورقية على حساب القيم والأولويات الأخرى، فمثلا قد يستهلك كميات هائلة من المواد الخام والطاقة لتعزيز الإنتاج حتى لو أدى ذلك للإضرار بالإنسان والبيئة أو حتى إبادة البشر.

الفيلسوف الكبير نيك بوستروم المدير المؤسس لمعهد مستقبل الإنسانية في جامعة أكسفورد
الفيلسوف نيك بوستروم المدير المؤسس لمعهد مستقبل الإنسانية في جامعة أكسفورد (مواقع التواصل)

وتعد رؤية بوستروم بشأن مخاطر الذكاء الاصطناعي مؤثرة للغاية في الأوساط العلمية، وقد ألهمت كلا من رئيس شركتي “تسلا” (Tesla) و”سبيس إكس” (Space X) الملياردير إيلون ماسك والفيزيائي ستيفن هوكينغ الذي توفي في عام 2018.

الأسلحة القاتلة

وتبدو صورة المقاتل الآلي ذي العينين الحمراوين من فيلم “تيرميناتور” (Terminator) -والذي أرسله ذكاء اصطناعي مستقبلي لوضع حد لكل مقاومة بشرية- حاضرة في أذهان الكثيرين بصورة كبيرة.

لكن وفق خبراء حملة “أوقفوا الروبوتات القاتلة” (Stop Killer Robots)، فإن هذا ليس الشكل الذي ستسود به الأسلحة المستقلة في السنوات المقبلة، وفق ما ذكروا في تقرير صادر عام 2021.

وبفضل التطورات السريعة في مجال الذكاء الاصطناعي تتسارع وتيرة الأسلحة التي يمكنها تحديد العدو بشكل ذاتي ومستقل، ثم تتخذ قرارا ميدانيا قد يتضمن قتل البشر دون وجود ضابط يوجه الهجوم أو جندي يسحب الزناد، بحسب تقرير سابق للجزيرة.

ومن المتوقع أن تصبح تلك الآلات بمرور الوقت أساس الحروب والعمليات العسكرية الجديدة، ويطلق عليها اسم أنظمة الأسلحة المميتة الذاتية/ المستقلة، لكن مناهضيها يسمونها “الروبوتات القاتلة”.

احتمالات أقل سوداوية

بدورها، تطمئن اختصاصية الروبوتات كيرستين دوتنهان من جامعة واترلو في كندا -في مقابلة مع وكالة الصحافة الفرنسية- بأن “الذكاء الاصطناعي لن يمنح الآلات الرغبة في قتل البشر”.

وتقول إن “الروبوتات ليست شريرة (بذاتها)”، مقرة في الوقت عينه بأن مطوريها يمكن أن يبرمجوها لإلحاق الأذى.

ويتوقع الفيلسوف هو برايس في شريط فيديو ترويجي نشره مركز دراسة المخاطر الوجودية في جامعة كامبردج أنه “في أسوأ الأحوال يمكن أن يموت جنسنا البشري من دون خليفة لنا”.

ومع ذلك، هناك “احتمالات أقل سوداوية” يمكن فيها للبشر المعززين بالتكنولوجيا المتقدمة البقاء على قيد الحياة، ويضيف برايس أن “الأنواع البيولوجية البحتة تنتهي بالانقراض”.

وفي عام 2014 قال ستيفن هوكينغ إن جنسنا البشري سيعجز يوما عن منافسة الآلات، وأوضح هوكينغ لهيئة الإذاعة البريطانية “بي بي سي” (BBC) أن هذا من شأنه أن “يمهد لفناء الجنس البشري”.

أما جيفري هينتون الباحث الذي يحاول إنشاء آلات تشبه الدماغ البشري لحساب مجموعة غوغل فتحدث أخيرا بعبارات مماثلة عن “ذكاء خارق” يتفوق على البشر.

وأكد هينتون لقناة “بي بي إس” (BBS) الأميركية أنه من الممكن أن “تكون الإنسانية مجرد مرحلة عابرة في تطور الذكاء”.


اكتشاف المزيد من ينبوع المعرفة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Previous post أصبح الكوبي المنبوذ إليان غونزاليس نائبًا
Next post الولايات المتحدة ترفع قيودا مفروضة على المساعدات لإثيوبيا

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اكتشاف المزيد من ينبوع المعرفة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading