قانون الذكاء الاصطناعي للاتحاد الأوروبي: الذكاء الاصطناعي في الميزان

كان هناك ناقوس خطر متزايد بشأن النطاق الذي تخترق به تكنولوجيا الذكاء الاصطناعي الآن كل جانب من جوانب الحياة الحديثة. فالقطاعات الحيوية مثل الجيش والرعاية الصحية والمالية، التي كانت تعتمد في السابق على الحكم البشري، تعتمد الآن بشكل متزايد على أنظمة الذكاء الاصطناعي لاتخاذ القرارات.

ومع نمو هذه الأنظمة بشكل أكثر استقلالية، هناك قائمة متزايدة من المخاوف بشأن المساءلة والشفافية والنزاهة في قراراتها. وقد أبرزت الطبيعة غير المتوقعة لأنظمة الذكاء الاصطناعي قضايا محتملة مثل التحيزات المعززة، والقرارات “المغلقة”، وإزالة الطابع الإنساني الخوارزمي وانتهاك الخصوصية، من بين أمور أخرى، مما دفع تنظيم الذكاء الاصطناعي من الاعتبار إلى الضرورة.

وإدراكًا لهذا، حاولت العديد من الدول إنشاء مدونة سلوك فيما يتعلق بالذكاء الاصطناعي.

وبالتالي، فإن قانون الذكاء الاصطناعي الصادر في مايو 2024 (المشار إليه فيما بعد باسم “قانون الذكاء الاصطناعي”) من قبل الاتحاد الأوروبي يمثل معلمًا مهمًا في سياق المشهد التنظيمي للذكاء الاصطناعي.

يعد القانون الذي تم تطبيقه مؤخرًا أول قانون من نوعه، مع أحكام ملزمة قانونًا لضمان الاستخدام الأخلاقي والقانوني لمنتجات الذكاء الاصطناعي التي يتم تسويقها و/أو استخدامها داخل الاتحاد الأوروبي، بغض النظر عما إذا كان المزود أو المستخدم موجودًا فعليًا في الاتحاد الأوروبي.

يضع القانون معيارًا تنظيميًا جديدًا على الساحة العالمية، لتوفير توازن بين الابتكار والحوكمة والحقوق الأساسية.

الإطار التنظيمي للذكاء الاصطناعي

تم اقتراح قانون الذكاء الاصطناعي لأول مرة في أبريل 2021، وخضع لمناقشات متعددة قبل الموافقة عليه في 21 مايو 2024 بأغلبية ساحقة. سيتم تنفيذ القانون على مراحل، تمتد لأكثر من 24 شهرًا من تاريخ دخوله حيز التنفيذ لأول مرة (الذي كان في 1 أغسطس 2024). 1

يعرف قانون الذكاء الاصطناعي الذكاء الاصطناعي في سياق المنتج على النحو التالي:

نظام قائم على الآلة ومصمم للعمل بمستويات متفاوتة من الاستقلالية وقد يظهر القدرة على التكيف بعد النشر، والذي يستنتج، لأغراض صريحة أو ضمنية، من المدخلات التي يتلقاها، كيفية إنشاء مخرجات مثل التوقعات أو المحتوى أو التوصيات أو القرارات التي يمكن أن تؤثر على البيئات المادية أو الافتراضية.2

لقد تناول التشريع تنظيم الذكاء الاصطناعي في المقام الأول بهدف سلامة المستهلك. وهو يتبع تصنيفًا متدرجًا “يعتمد على المخاطر” للمنتجات المختلفة التي تستخدم الذكاء الاصطناعي.

يشير الخطر هنا إلى “مزيج من احتمال حدوث ضرر وخطورة هذا الضرر”.3في الأساس، يعني هذا أن منتجات الذكاء الاصطناعي المختلفة لها مستويات مختلفة من التدقيق، بناءً على “المخاطر” التي تشكلها. وهناك ثلاثة مستويات أساسية من المخاطر، وهي:

مخاطرة غير مقبولة

وتشمل هذه المخاطر تطوير أو استخدام أنظمة الذكاء الاصطناعي التي تتلاعب بالناس وتدفعهم إلى اتخاذ خيارات ضارة لم يكونوا ليتخذوها لولا ذلك.4 وقد تشمل هذه الأنظمة أيضًا استخدام الذكاء الاصطناعي في الكشط غير المستهدف لصور الوجه، وممارسات الشرطة التنبؤية المحددة والتسجيل الاجتماعي.

ويُفترض أن أنظمة الذكاء الاصطناعي هذه تشكل تهديدًا كبيرًا للبشر، وبالتالي فهي محظورة بموجب قانون الذكاء الاصطناعي بالاتحاد الأوروبي.

مخاطر عالية

وتشمل هذه الحالات استخدام الذكاء الاصطناعي في الرعاية الصحية والتعليم والعمليات الانتخابية وفحص الوظائف وإدارة البنية التحتية الحيوية. وتخضع أدوات الذكاء الاصطناعي هذه لمتطلبات تنظيمية محددة.

مخاطرة محدودة/ضئيلة

وتشمل هذه الأدوات بعض أدوات الذكاء الاصطناعي للأغراض العامة التي تنطوي على مخاطر منخفضة، مثل الذكاء الاصطناعي لتوصيات الموسيقى، وما إلى ذلك. ولا تخضع هذه الأدوات لمتطلبات تنظيمية قليلة أو معدومة، ويمكن أن تظل عمومًا بموجب مدونة سلوك طوعية تتبناها شركاتها المعنية.

يشمل نطاق قانون الذكاء الاصطناعي كل نظام ذكاء اصطناعي يتم طرحه في السوق أو تشغيله أو استخدامه داخل الاتحاد الأوروبي. ومثله كمثل اللائحة العامة لحماية البيانات (GDPR)، فإن قانون خصوصية البيانات في الاتحاد الأوروبي الذي صدر في عام 2016، لا يقتصر تطبيق القانون الجديد على الشركات التي تعمل داخل الاتحاد الأوروبي فقط.

وهذا يعني أن أي مزود (يشير إلى أي كيان يطور أو يفوض نظام ذكاء اصطناعي بقصد طرحه في السوق) أو مُنشر (أي كيان يستخدم نظام ذكاء اصطناعي تحت سلطته، باستثناء الاستخدام الشخصي) وضع نظام ذكاء اصطناعي في السوق أو قيد الاستخدام داخل الاتحاد الأوروبي مشمول بالقانون، حتى لو كان ينتمي إلى دولة غير تابعة للاتحاد الأوروبي. وتجدر الإشارة إلى أن الجيش والبحث مستبعدان من نطاق القانون.

ويفرض قانون الذكاء الاصطناعي أيضًا تدابير عقابية متدرجة ضد انتهاكات القانون. ومن شأن عدم الامتثال أن يؤدي إلى غرامات تصل إلى 15 مليون يورو أو 3 في المائة من إجمالي المبيعات السنوية على مستوى العالم، أيهما أعلى.

ومن المثير للاهتمام أن قانون الذكاء الاصطناعي يحدد مجموعة مختلفة من القواعد للشركات الصغيرة والمتوسطة الحجم والشركات الناشئة، مع غرامات أقل. ومن المرجح أن يضمن هذا الامتثال دون إضعاف إمكانية الابتكار، الذي يتم دفعه إلى حد كبير داخل منظومة الشركات الناشئة.

تداعيات

لقد تم صياغة قانون الذكاء الاصطناعي الجديد على أساس فكرة مفادها أن الابتكار في مجال الذكاء الاصطناعي واستخدامه يجب أن يتم دون أن يتعرض البشر لأضرار جانبية. ويمنح القانون درجة معينة من الإشراف على تطوير ونشر الذكاء الاصطناعي، وبالتالي ضمان قدر معين من المساءلة والشفافية لمواطني الاتحاد الأوروبي.

ولكن هناك بعض القضايا التي قد تحد من قابلية تطبيق القانون. ذلك أن تعريف الذكاء الاصطناعي يتبنى وجهة نظر اختزالية إلى حد ما فيما يتصل بالإمكانات الحالية والمستقبلية للتكنولوجيا. ويستند استخدام مصطلح “الذكاء” في الذكاء الاصطناعي إلى اعتراف ضمني بإمكانية وجود سلوكيات و/أو قدرات معقدة لم تكن جزءاً من المدخلات الأولية. ويفترض التعريف أن الأهداف ــ سواء كانت صريحة أو ضمنية ــ مستقرة أو يمكن التنبؤ بها استناداً إلى المدخلات التي تتلقاها.

ولكن في الممارسة العملية، قد “تتعلم” أنظمة الذكاء الاصطناعي أو تستنتج أهدافاً قد تؤدي إلى عواقب غير مقصودة. وبالتالي، فإن افتراض أن الذكاء الاصطناعي لن يتصرف إلا استناداً إلى ما يستنتجه من “المدخلات” هو فهم اختزالي للذكاء الاصطناعي.

في حين تم تجربة واختبار النهج القائم على المنتج في الاتحاد الأوروبي، فإن الذكاء الاصطناعي ليس مثل المنتج الشائع، بل هو منتج ينمو باستمرار ويتغير.

وقد تم الشعور بهذه القضية بشكل حاد أثناء المناقشات التي أجراها البرلمان الأوروبي أيضًا، وخاصة عندما ظهرت تطبيقات الذكاء الاصطناعي التوليدي مثل Chat-GPT. تتراوح حالة استخدام هذا التطبيق من التوصيات الحميدة منخفضة المخاطر إلى توليد معلومات مضللة.

كشفت اختبارات المستخدم أيضًا أنه باستخدام مطالبات محددة، قد تتحول هذه الذكاء الاصطناعي التوليدي من آلات الرد الحميدة إلى توليد خطابات كراهية في غضون دقائق، على الرغم من الضوابط المرفقة بها من قبل مبرمجيها. وفقًا لبيتر أرنتز، الباحث الكبير في شركة الأمن السيبراني Malwarebytes،

وتستند العديد من المبادئ التوجيهية إلى قواعد سلامة المنتجات القديمة التي يصعب ترجمتها إلى قواعد لشيء يتطور باستمرار. فلا يتحول مفك البراغي إلى منشار كهربائي بين عشية وضحاها، في حين يتحول روبوت الدردشة الودود الذي يعمل بالذكاء الاصطناعي إلى عنصري سيئ المزاج في غضون ساعات قليلة.

وهناك أيضًا مخاوف بشأن التكاليف التنظيمية التي تؤدي إلى خنق المنافسة والابتكار في مجال الذكاء الاصطناعي.

ووفقًا لدراسة أجرتها جمعية صناعة الكمبيوتر والاتصالات في أوروبا، هناك احتمالية لحدوث شراكات بين الشركات الكبيرة والصغيرة، واستغلال السلوكيات والاستحواذات المفترسة من قبل الشركات الكبيرة، مما قد يخنق الشركات الصغيرة والشركات الناشئة، وخاصة في مجال الذكاء الاصطناعي التوليدي.

إن الاستثناءات المقدمة للذكاء الاصطناعي لأغراض البحث والأمن القومي والأغراض العسكرية تحتاج إلى إعادة النظر أيضاً. ففيما يتصل بالبحث، ورغم أن الإطار التنظيمي لا ينبغي أن يكون صارماً، فهناك حاجة إلى وجود بعض الرقابة أو مدونة سلوك عامة يتم تنفيذها للاستخدام الأخلاقي، خشية نشوء حالة من الاختلاس أو الاستحواذ غير القانوني أو الاستخدام غير الأخلاقي للبيانات (مثل فضيحة كامبريدج أناليتيكا).

وهناك مخاوف أيضا من أن الاستثناء الشامل للأمن القومي قد يؤدي إلى منح الاتحاد الأوروبي حرية كاملة للدول لتطبيق دولة المراقبة، وخاصة ضد المجتمعات المهمشة.

وبموجب قانون الاتحاد الأوروبي للذكاء الاصطناعي، يتم تصنيف هذه التقنيات ضمن “المخاطر غير المقبولة” فقط في سياق أماكن العمل والتعليم.

وهناك ثغرة سهلة يمكن استغلالها لتبرير استخدام الذكاء الاصطناعي للتقييم الاجتماعي والمراقبة البيومترية وكشط الوجه من قبل سلطات إنفاذ القانون والهجرة، على عكس الهدف المعلن للقانون المتمثل في تأمين حقوق الإنسان الأساسية.

وفي حين أن الاستبعاد على أساس أن الأمن القومي هو حق سيادي له ما يبرره، كان من الممكن أن يكون هناك حكم لتشجيع صياغة المبادئ التوجيهية العامة (غير الملزمة) من قبل الدول لاستخدام الذكاء الاصطناعي في الجيش بنهج أخلاقي وحساس للإنسان.

خاتمة

لقد جاء انتشار الذكاء الاصطناعي في حياتنا بمجموعة من المزايا والعيوب. ولا شك أن قطاعات صنع القرار الحاسمة استفادت بالتأكيد من الذكاء الاصطناعي من حيث الكفاءة.

ومع ذلك، فإن القضاء على العامل البشري في صنع القرار، حتى مع تدريب الذكاء الاصطناعي على البيانات التي يولدها الإنسان، أدى إلى مخاوف من التحيزات التي قد تهدد حياة الإنسان وكرامته. وهناك أيضًا أسئلة تتعلق بالمساءلة، في ظل عدم وجود إرادة أو مشاعر حقيقية لتوجيه قرارات الآلة.

وفي هذا السياق، يسد قانون الذكاء الاصطناعي الجديد فجوة تنظيمية كبرى فيما يتصل باستخدام الذكاء الاصطناعي اليوم. فهو يحدد معايير امتثال قوية للذكاء الاصطناعي ويضمن إمكانية إسناد المساءلة إلى من يستحقها.

كما يتيح النهج غير المتحيز تكنولوجيًا لتعريف الذكاء الاصطناعي الاستعداد للمستقبل بصرف النظر عن كيفية نمو الذكاء الاصطناعي.

وربما يحاول قانون الاتحاد الأوروبي أيضًا إعادة خلق “تأثير بروكسل” الذي فرضه قانون حماية البيانات العامة ــ وهو مصطلح يستخدم غالبًا للإشارة إلى قدرة الاتحاد الأوروبي على التأثير على المعايير والسياسات التنظيمية العالمية من خلال لوائحه الخاصة ــ بحيث يمكن وضع أطر تنظيمية أحدث لضمان الامتثال لقوانين الاتحاد الأوروبي، وبالتالي ترويض الوضع المتوحش النسبي للذكاء الاصطناعي إلى حد ما.

ولكن ينبغي لنا أن ندرك أن الذكاء الاصطناعي يظل تكنولوجيا تتطور باستمرار. ولا يزال أمامه مجال للنمو، ولا يزال عنصر عدم القدرة على التنبؤ ثابتا ليس فقط في وظائفه، بل وأيضا في مساره التنموي.

ورغم أن المشرعين في الاتحاد الأوروبي ذكروا أن القانون سوف يخضع للتعديلات مع تطور مشهد الذكاء الاصطناعي، فإن المرء يتساءل من الذي سيتفوق على الآخر أولا أنظمة الذكاء الاصطناعي، أم القوانين التي تحاول تنظيمها.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.