تتسابق السلطات في جميع أنحاء العالم لوضع قواعد للذكاء الاصطناعي ، بما في ذلك في الاتحاد الأوروبي ، حيث واجهت مسودة التشريع لحظة محورية يوم الخميس.
صوتت لجنة برلمانية أوروبية على تعزيز الاقتراح التشريعي الرئيسي وهو يتجه نحو إقراره ، كجزء من جهد استمر سنوات من قبل بروكسل لوضع حواجز حماية للذكاء الاصطناعي. وقد اتخذت هذه الجهود مزيدًا من الإلحاح نظرًا للتقدم السريع في روبوتات المحادثة مثل ChatGPT ، والتي سلطت الضوء على الفوائد التي يمكن أن تجلبها التكنولوجيا الناشئة – والمخاطر الجديدة التي تشكلها.
فيما يلي نظرة على قانون الذكاء الاصطناعي للاتحاد الأوروبي:
كيف تعمل القواعد؟
سيحكم قانون الذكاء الاصطناعي ، الذي تم اقتراحه لأول مرة في عام 2021 ، أي منتج أو خدمة تستخدم نظام ذكاء اصطناعي. سيصنف القانون أنظمة الذكاء الاصطناعي وفقًا لأربعة مستويات من المخاطر ، من الحد الأدنى إلى غير المقبول. ستواجه التطبيقات الأكثر خطورة متطلبات أكثر صرامة ، بما في ذلك أن تكون أكثر شفافية واستخدام بيانات دقيقة. قال يوهان لاوكس ، الخبير في معهد أكسفورد للإنترنت ، فكر في الأمر على أنه “نظام إدارة مخاطر للذكاء الاصطناعي”.
ما هي المخاطر؟
أحد الأهداف الرئيسية للاتحاد الأوروبي هو الحماية من أي تهديدات للذكاء الاصطناعي للصحة والسلامة وحماية الحقوق والقيم الأساسية.
وهذا يعني أن بعض استخدامات الذكاء الاصطناعي تعتبر محظورة تمامًا ، مثل أنظمة “التقييم الاجتماعي” التي تحكم على الأشخاص بناءً على سلوكهم. يُحظر أيضًا استخدام الذكاء الاصطناعي الذي يستغل الأشخاص المستضعفين بما في ذلك الأطفال أو الذي يستخدم التلاعب اللاوعي الذي يمكن أن يؤدي إلى الأذى ، مثل لعبة التحدث التفاعلية التي تشجع على السلوك الخطير.
عزز المشرعون الاقتراح بالتصويت لحظر أدوات الشرطة التنبؤية ، التي تحطم البيانات للتنبؤ بمكان حدوث الجرائم ومن سيرتكبها. كما وافقوا على حظر موسع على التعرف على الوجه عن بعد ، باستثناء بعض الاستثناءات لتطبيق القانون مثل منع تهديد إرهابي محدد. تقوم التكنولوجيا بمسح المارة وتستخدم الذكاء الاصطناعي لمطابقة وجوههم بقاعدة بيانات.
قال براندو بينيفي ، النائب الإيطالي الذي يساعد في قيادة جهود الذكاء الاصطناعي في البرلمان الأوروبي ، للصحفيين يوم الأربعاء إن الهدف هو “تجنب مجتمع خاضع للرقابة يعتمد على الذكاء الاصطناعي”. “نعتقد أنه يمكن استخدام هذه التقنيات بدلاً من الخير للشر أيضًا ، ونعتبر أن المخاطر عالية جدًا.”
أنظمة الذكاء الاصطناعي المستخدمة في فئات عالية المخاطر مثل التوظيف والتعليم ، والتي من شأنها أن تؤثر على مسار حياة الشخص ، تواجه متطلبات صعبة مثل الشفافية مع المستخدمين ووضع تدابير لتقييم المخاطر والتخفيف من حدتها.
تقول الذراع التنفيذية للاتحاد الأوروبي إن معظم أنظمة الذكاء الاصطناعي ، مثل ألعاب الفيديو أو عوامل تصفية البريد العشوائي ، تندرج في فئة منخفضة المخاطر أو معدومة.
ماذا عن ChatGPT؟
بالكاد ذكر الاقتراح الأصلي المكون من 108 صفحة روبوتات المحادثة ، ما يتطلب فقط تصنيفها حتى يعرف المستخدمون أنهم يتفاعلون مع جهاز. أضاف المفاوضون لاحقًا أحكامًا لتغطية الأغراض العامة للذكاء الاصطناعي مثل ChatGPT ، مما يعرضهم لبعض من نفس المتطلبات مثل الأنظمة عالية المخاطر.
تتمثل إحدى الإضافات الرئيسية في مطلب التوثيق الشامل لأي مواد حقوق نشر مستخدمة لتعليم أنظمة الذكاء الاصطناعي كيفية إنشاء نص أو صور أو فيديو أو موسيقى تشبه العمل البشري. سيسمح ذلك لمنشئي المحتوى بمعرفة ما إذا كانت منشورات المدونات أو الكتب الرقمية أو المقالات العلمية أو أغاني البوب قد تم استخدامها لتدريب الخوارزميات التي تعمل على تشغيل أنظمة مثل ChatGPT. ثم يمكنهم أن يقرروا ما إذا كان قد تم نسخ عملهم ويطلبوا الإنصاف.
لماذا تعتبر قواعد الاتحاد الأوروبي مهمة جدًا؟
لا يعتبر الاتحاد الأوروبي لاعبًا كبيرًا في تطوير الذكاء الاصطناعي المتطور. هذا الدور تقوم به الولايات المتحدة والصين. لكن بروكسل غالبًا ما تلعب دورًا في تحديد الاتجاهات من خلال اللوائح التي تميل إلى أن تصبح معايير عالمية بحكم الواقع.
“الأوروبيون ، على مستوى العالم ، أثرياء إلى حد ما وهناك الكثير منهم” ، لذلك تقرر الشركات والمؤسسات غالبًا أن الحجم الهائل للسوق الموحدة للكتلة التي تضم 450 مليون مستهلك يسهل الامتثال بدلاً من تطوير منتجات مختلفة لمناطق مختلفة ، قال.
لكنها ليست مجرد مسألة اتخاذ إجراءات صارمة. قال لاوكس إنه من خلال وضع قواعد مشتركة للذكاء الاصطناعي ، تحاول بروكسل أيضًا تطوير السوق من خلال غرس الثقة بين المستخدمين.
قال لاوكس: “الفكرة الكامنة وراء ذلك هي إذا كان بإمكانك حث الناس على وضع الثقة في الذكاء الاصطناعي والتطبيقات ، فسيستخدمونه أيضًا بشكل أكبر”. “وعندما يستخدمونه أكثر ، سيفتحون الإمكانات الاقتصادية والاجتماعية للذكاء الاصطناعي.”
ماذا لو خالفت القواعد؟
ستؤدي الانتهاكات إلى فرض غرامات تصل إلى 30 مليون يورو (33 مليون دولار) أو 6 ٪ من الإيرادات العالمية السنوية للشركة ، والتي قد تصل في حالة شركات التكنولوجيا مثل Google و Microsoft إلى المليارات.
ماذا بعد؟
قد تمر سنوات قبل أن تصبح القواعد سارية المفعول بالكامل. ومن المقرر أن يصوت نواب الاتحاد الأوروبي الآن على مشروع القانون في جلسة عامة في منتصف يونيو حزيران.
ثم ينتقل إلى مفاوضات ثلاثية تشمل الدول الأعضاء في الكتلة البالغ عددها 27 دولة والبرلمان والمفوضية التنفيذية ، حيث قد يواجه المزيد من التغييرات أثناء الخلاف حول التفاصيل. يُتوقع الحصول على الموافقة النهائية بحلول نهاية العام ، أو أوائل عام 2024 على أبعد تقدير ، تليها فترة سماح للشركات والمؤسسات للتكيف ، غالبًا حوالي عامين.
اكتشاف المزيد من ينبوع المعرفة
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.