خبير بريطاني يحذر من خطر “الذكاء الاصطناعي الخارق”



إعلان: شاهد أجمل الأفلام والمسلسلات 2021

أكد العالم البريطاني ستيوراد راسل – المعروف بإسهاماته في الذكاء الاصطناعي- أن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.

كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4 التي تم إطلاقها حديثًا – خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5.

كيف تعمل الأنظمة الأكثر قوة؟

  • نقلت شبكة سكاي نيوز عن راسل قوله: “لقد وقعت على الخطاب لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة). لا نعرف ما هي قادرة على انجازه. وهذا يعني أننا لا نستطيع السيطرة عليها”.
  • لفت إلى أن “الناس قلقون بشأن التضليل والتحيز العنصري والجنساني في مخرجات هذه الأنظمة”.
  • أضاف أن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).

 قلق

  • حذر الخبير، وهو أستاذ علوم الكمبيوتر في جامعة كاليفورنيا من “التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها”.
  • قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة “تضخ المعلومات المضللة” وباستخدام الذكاء الاصطناعي “أعطيناهم أداة قوية”.
  • أضاف “قلق الرسالة يتعلق حقًا بالجيل القادم من النظام. في الوقت الحالي، تعاني الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة.”
  • تابع “أنه في ظل الجيل التالي من الأنظمة، أو الذي يليه، يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعي. وأضاف: “يمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعي”.
  • أضاف “إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة.”

 اقناع الحكومات

  • شدد الخبير على أنه ضرورة إقناع الحكومات بالحاجة إلى البدء في التخطيط للمستقبل عندما “نحتاج إلى تغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله”.
  • لفت إلى أنه منذ إصداره العام الماضي، حث ChatGPT التابع لشركة Microsoft OpenAI المدعوم من Microsoft ، المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجع الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.

والجدير بالذكر أن خبر خبير بريطاني يحذر من خطر “الذكاء الاصطناعي الخارق” تم اقتباسه والتعديل عليه من قبل فريق التحرير في ” إشراق 24″ وأن الخبر منشور سابقًا على عالميات والمصدر الأصلي هو المعني بصحة الخبر من عدمه وللمزيد من أخبارنا على مدار الساعة تابعونا على حساباتنا الاجتماعية في مواقع التواصل.







ينبوع المعرفة
| صحيفة حالة
| الكوره اونلاين
|
موقع المسك
| نص كم
|في بي دبليو الرياضة


|موقع خبركو


|متجر مالي







 

نشكر لكم اهتمامكم وقراءتكم لخبر خبير بريطاني يحذر من خطر “الذكاء الاصطناعي الخارق” تابعوا اشراق العالم 24 على قوقل نيوز للمزيد من الأخبار




الجدير بالذكر ان خبر “خبير بريطاني يحذر من خطر “الذكاء الاصطناعي الخارق”” تم اقتباسه والتعديل عليه من قبل فريق ينبوع المعرفة والمصدر الأساسي هو المعني وتم حفظ كافة حقوقه

المصدر


اكتشاف المزيد من ينبوع المعرفة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Previous post مبادرة درع سعودية لتدريب 3000 موجه في مجال الوقاية من المخدرات
Next post النائب تيسير مطر: 42 حزبا يجتمعون غدا لمناقشه قضايا الحوار الوطنى

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اكتشاف المزيد من ينبوع المعرفة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading