تعيش الحكومات في جميع أنحاء العالم حالة من الهلع لتنظيم التكنولوجيا الناشئة للذكاء الاصطناعي، ولكن هذا يرفع أيضًا مخاطر تعطيل جهود الاتحاد الأوروبي للموافقة على أول قواعد شاملة للذكاء الاصطناعي في العالم.
الجهود الأوروبية لتنظيم الذكاء الاصطناعي
منذ سنوات طويلة، تعمل أوروبا على وضع قواعد للحد من الذكاء الاصطناعي، ولكن تعطلت هذه الجهود بسبب ظهور أنظمة الذكاء الاصطناعي الإنتاجية مثل ChatGPT التابعة لشركة OpenAI، والتي أدهشت العالم بقدرتها على إنتاج عمل يشبه العمل البشري ولكنها أثارت مخاوف بشأن المخاطر التي تشكلها.
القضايا العالقة
بالإضافة إلى تنظيم الذكاء الاصطناعي الإنتاجي، يحتاج المفاوضون في الاتحاد الأوروبي إلى حل قائمة طويلة من القضايا الأخرى المثيرة للجدل، مثل حظر كامل على استخدام أنظمة التعرف على الوجوه من قبل الشرطة، والتي أثارت مخاوف الخصوصية.
إمكانية التوصل إلى اتفاق
تعتبر فرص التوصل إلى اتفاق سياسي بين أعضاء البرلمان الأوروبي وممثلي الدول الأعضاء والمفوضين التنفيذيين “عالية إلى حد ما بسبب رغبة جميع المفاوضين في الفوز السياسي” في جهود التشريع الرئيسية، وفقًا لكريس شريشاك، الزميل الكبير المتخصص في حوكمة الذكاء الاصطناعي في المجلس الأيرلندي للحريات المدنية.
وقد تم الاتفاق على نسبة 85% من الكلمات التقنية في المشروع بالفعل، وفقًا لكارمي أرتيجاس، وزيرة الذكاء الاصطناعي والترقية الرقمية لإسبانيا، التي تحمل الرئاسة الدورية للاتحاد الأوروبي.
إذا لم يتم التوصل إلى اتفاق في جولة المحادثات الأخيرة، التي تبدأ بعد ظهر يوم الأربعاء ومن المتوقع أن تستمر حتى وقت متأخر من الليل، سيضطرون المفاوضون إلى استئنافها في العام المقبل. وهذا يرفع احتمالية تأجيل التشريع حتى بعد الانتخابات العامة في الاتحاد الأوروبي في يونيو، أو أن يسلك اتجاهًا مختلفًا مع تولي القادة الجدد المناصب.
النقاط المعلقة الرئيسية
واحدة من النقاط المعلقة الرئيسية هي نماذج الأساس، وهي الأنظمة المتقدمة التي تدعم خدمات الذكاء الاصطناعي العامة مثل ChatGPT التابعة لشركة OpenAI وBard chatbot التابعة لشركة Google.
تعرف هذه النظم أيضًا بنماذج اللغة الكبيرة، وتتم تدريبها على مجموعات ضخمة من الأعمال المكتوبة والصور المجمعة من الإنترنت. إنها تمنح أنظمة الذكاء الاصطناعي الإنتاجية القدرة على إنشاء شيء جديد، على عكس الذكاء الاصطناعي التقليدي الذي يعالج البيانات ويكمل المهام باستخدام قواعد محددة مسبقًا.
كان الهدف من قانون الذكاء الاصطناعي هو تشريع سلامة المنتج، مثل التشريعات الأوروبية المماثلة لمستحضرات التجميل والسيارات والألعاب. وسيتم تصنيف استخدامات الذكاء الاصطناعي وفقًا لأربعة مستويات من المخاطر – من المخاطر الضئيلة أو عدم وجود مخاطر تشكلها ألعاب الفيديو ومرشحات البريد المزعج إلى المخاطر غير المقبولة التي تشكلها أنظمة التصنيف الاجتماعي التي تحكم الناس بناءً على سلوكهم.
أثارت الموجة الجديدة من أنظمة الذكاء الاصطناعي العامة التي تم إصدارها منذ مسودة التشريع في عام 2021 اهتمام القوانين الأوروبيين لتعزيز الاقتراح لتشمل نماذج الأساس.
حذر الباحثون من أن نماذج الأساس القوية، التي تم بناؤها من قبل عدد قليل من شركات التكنولوجيا الكبيرة، يمكن استخدامها لتعزيز التضليل والتلاعب عبر الإنترنت، والهجمات السيبرانية أو إنشاء الأسلحة البيولوجية. إنها تعمل كهياكل أساسية لمطوري البرمجيات الذين يبنون خدمات مدعومة بالذكاء الاصطناعي بحيث “إذا كانت هذه النماذج فاسدة، فإن أي شيء يبنى فوقها سيكون أيضًا فاسدًا – ولن يتمكن المستخدمون من إصلاحه”، وفقًا لمجموعة Avaaz غير الربحية.
مقاومة فرنسا وألمانيا وإيطاليا للتحديثات على التشريع ودعوتها بدلاً من ذلك إلى الحكم الذاتي – وهو تغيير في الموقف يُنظر إليه على أنه محاولة لمساعدة الشركات الأوروبية الناشئة في مجال الذكاء الاصطناعي الإنتاجي، مثل شركة Mistral AI الفرنسية الناشئة وشركة Aleph Alpha الألمانية، على المنافسة مع شركات التكنولوجيا الكبيرة الأمريكية مثل OpenAI.
كان براندو بينيفي، عضو البرلمان الأوروبي الإيطالي الذي يشارك في جهود المفاوضة، متفائلاً بشأن حل الخلافات مع الدول الأعضاء.
هناك “بعض التحرك” فيما يتعلق بنماذج الأساس، على الرغم من وجود “مزيد من المشكلات في إيجاد اتفاق” بشأن أنظمة التعرف على الوجوه، وفقًا لما قاله.
الكاتب التكنولوجي مات أوبراين من وكالة الصحافة الأمريكية ساهم في هذا التقرير من بروفيدانس، رود آيلاند.
اترك تعليقاً