يلتقي VP Harris بالرؤساء التنفيذيين حول مخاطر الذكاء الاصطناعي


ستلتقي نائبة الرئيس كامالا هاريس يوم الخميس مع الرؤساء التنفيذيين لأربع شركات كبرى تعمل على تطوير الذكاء الاصطناعي ، حيث تطرح إدارة بايدن مجموعة من المبادرات التي تهدف إلى ضمان أن التكنولوجيا سريعة التطور تعمل على تحسين الحياة دون تعريض حقوق الناس وسلامتهم للخطر.

تخطط الإدارة الديمقراطية للإعلان عن استثمار بقيمة 140 مليون دولار لإنشاء سبعة معاهد بحثية جديدة للذكاء الاصطناعي ، حسبما قال مسؤولون في الإدارة للصحفيين في معاينة هذا الجهد.

بالإضافة إلى ذلك ، من المتوقع أن يصدر مكتب الإدارة والميزانية بالبيت الأبيض إرشادات في الأشهر القليلة المقبلة حول كيفية استخدام الوكالات الفيدرالية لأدوات الذكاء الاصطناعي. سيكون هناك أيضًا التزام مستقل من قبل كبار مطوري الذكاء الاصطناعي للمشاركة في تقييم عام لأنظمتهم في أغسطس في مؤتمر القراصنة في لاس فيغاس DEF CON.

يخطط هاريس ومسؤولو الإدارة يوم الخميس لمناقشة المخاطر التي يرونها في التطوير الحالي للذكاء الاصطناعي مع الرؤساء التنفيذيين لشركة Alphabet و Anthropic و Microsoft و OpenAI. رسالة القادة الحكوميين للشركات هي أن لديهم دورًا يلعبونه في الحد من المخاطر وأنه يمكنهم العمل جنبًا إلى جنب مع الحكومة.

تدرس السلطات في المملكة المتحدة أيضًا المخاطر المرتبطة بالذكاء الاصطناعي. قالت هيئة مراقبة المنافسة في بريطانيا إنها تفتح مراجعة لسوق الذكاء الاصطناعي ، مع التركيز على التكنولوجيا التي تقوم عليها برامج الدردشة مثل ChatGPT ، التي طورتها شركة OpenAI.

أشار الرئيس جو بايدن الشهر الماضي إلى أن الذكاء الاصطناعي يمكن أن يساعد في معالجة الأمراض وتغير المناخ ، ولكنه قد يضر أيضًا بالأمن القومي ويعطل الاقتصاد بطرق مزعزعة للاستقرار.

أدى إصدار روبوت الدردشة ChatGPT هذا العام إلى زيادة الجدل حول الذكاء الاصطناعي ودور الحكومة في التكنولوجيا. نظرًا لأن الذكاء الاصطناعي يمكن أن يولد كتابة شبيهة بالبشر وصورًا مزيفة ، فهناك مخاوف أخلاقية ومجتمعية.

كانت شركة OpenAI سرية بشأن البيانات التي تم تدريب أنظمة الذكاء الاصطناعي عليها. وهذا يجعل من الصعب على من هم خارج الشركة فهم سبب تقديم ChatGPT إجابات متحيزة أو خاطئة للطلبات أو معالجة المخاوف بشأن ما إذا كانت تسرق من أعمال محمية بحقوق الطبع والنشر.

قالت مارجريت ميتشل ، كبيرة علماء الأخلاقيات في شركة Hugging Face الناشئة لمنظمة العفو الدولية ، إن الشركات التي تشعر بالقلق من تحمل المسؤولية عن شيء ما في بيانات التدريب الخاصة بها قد لا يكون لديها أيضًا حوافز لتتبعه بشكل صحيح.

قال ميتشل في مقابلة يوم الثلاثاء: “أعتقد أنه قد لا يكون من الممكن لـ OpenAI أن تفصل فعليًا جميع بيانات التدريب الخاصة بها على مستوى من التفاصيل سيكون مفيدًا حقًا فيما يتعلق ببعض المخاوف المتعلقة بالموافقة والخصوصية والترخيص”. “من خلال ما أعرفه عن ثقافة التكنولوجيا ، هذا لم يتم القيام به.”

من الناحية النظرية ، على الأقل ، قد يجبر نوع من قانون الإفصاح مقدمي خدمات الذكاء الاصطناعي على فتح أنظمتهم لمزيد من التدقيق من قبل طرف ثالث. ولكن مع بناء أنظمة الذكاء الاصطناعي فوق النماذج السابقة ، فلن يكون من السهل على الشركات توفير قدر أكبر من الشفافية بعد وقوعها.

قال ميتشل: “أعتقد أن الأمر متروك للحكومات لتقرر ما إذا كان هذا يعني أنه يتعين عليك التخلص من كل العمل الذي قمت به أم لا”. “بالطبع ، أتخيل نوعًا ما أنه في الولايات المتحدة على الأقل ، سوف تميل القرارات نحو الشركات وستكون داعمة لحقيقة أنه تم بالفعل. سيكون لها مثل هذه التداعيات الهائلة إذا كان على كل هذه الشركات أن تقوم بشكل أساسي بإهمال كل هذا العمل والبدء من جديد “.


اكتشاف المزيد من ينبوع المعرفة

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

Previous post أعضاء بـ”النواب” عن الحوار الوطنى: يدعم مسيرة البناء والتنمية بمشاركة غير مسبوقة
Next post أنا أغنى منه.. وشهرتي تتجاوزه

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اكتشاف المزيد من ينبوع المعرفة

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading