
البنية القائمة على تقييم المخاطر في قانون الذكاء الاصطناعي الأوروبي
يشهد العالم تحوّلًا جذريًا بفعل التطور المتسارع لتقنيات الذكاء الاصطناعي، حيث لم يعد أثر هذه التقنيات مقتصرًا على تحسين الكفاءة أو تسريع العمليات، بل امتد ليؤثر مباشرة في اتخاذ القرار، وتوزيع الفرص، وممارسة السلطة، وحماية الحقوق الأساسية للأفراد. وفي هذا السياق، جاء قانون الذكاء الاصطناعي الأوروبي (EU AI Act) كأول إطار تشريعي شامل وملزم في العالم ينظم استخدام وتطوير الذكاء الاصطناعي بصورة منهجية.
يرتكز هذا القانون على نهج قائم على تقييم المخاطر، وهو نهج يعكس إدراك المشرّع الأوروبي أن الذكاء الاصطناعي ليس تقنية واحدة موحّدة، بل منظومة متعددة الاستخدامات والتأثيرات. ولذلك، فإن فرض التزامات قانونية موحّدة على جميع أنظمة الذكاء الاصطناعي سيكون إما مفرطًا في التقييد أو قاصرًا في الحماية. ومن هنا، جاءت فكرة تصنيف الأنظمة وفق مستويات مختلفة من المخاطر، بحيث تكون الالتزامات متناسبة مع حجم الأثر المحتمل على الإنسان والمجتمع.
ولا يكتفي قانون الذكاء الاصطناعي الأوروبي بتصنيف المخاطر على مستوى كل نظام على حدة، بل يذهب أبعد من ذلك، إذ يُحمّل المؤسسات مسؤولية دمج إدارة الذكاء الاصطناعي ضمن أطر الحوكمة وإدارة المخاطر والامتثال المؤسسي. ويُعد هذا التوجه اعترافًا صريحًا بأن مخاطر الذكاء الاصطناعي ليست ثابتة، بل ديناميكية، وقد تتغير بمرور الوقت نتيجة التوسع في الاستخدام، أو إعادة تدريب النماذج، أو دمجها في سياقات جديدة ذات أثر أكبر.
أولًا: أنظمة الذكاء الاصطناعي ذات المخاطر غير المقبولة
في أعلى هرم التصنيف، يضع قانون الذكاء الاصطناعي الأوروبي فئة المخاطر غير المقبولة. وتشمل هذه الفئة الأنظمة التي يُنظر إليها على أنها تتعارض جوهريًا مع القيم الأساسية للاتحاد الأوروبي، وعلى رأسها كرامة الإنسان، والحرية، والمساواة، والديمقراطية، وسيادة القانون، والحقوق الأساسية.
ولا يسعى القانون في هذه الحالة إلى تنظيم هذه الأنظمة أو الحد من آثارها، بل يفرض حظرًا تامًا على تطويرها أو استخدامها. ويعود ذلك إلى أن الضرر الناتج عنها يُعد بطبيعته غير قابل للتخفيف أو التدارك من خلال تدابير تقنية أو رقابية.
ومن أبرز الأمثلة على هذه الأنظمة: تلك التي تعتمد على التلاعب السلوكي أو النفسي بالأفراد، ودفعهم إلى اتخاذ قرارات أو سلوكيات لم يكونوا ليقوموا بها لولا تدخل النظام. كما تشمل الأنظمة التي تستغل نقاط ضعف فئات معينة من المجتمع بسبب العمر أو الإعاقة أو الوضع الاجتماعي أو الاقتصادي.
ويولي القانون اهتمامًا خاصًا بالأنظمة البيومترية، حيث يحظر أنظمة التصنيف البيومتري التي تستنتج خصائص حساسة للأفراد – مثل المعتقدات الدينية أو الميول السياسية أو العرق أو التوجه الجنسي – استنادًا إلى بيانات الوجه أو البصمات. كما يحظر أنظمة التقييم الاجتماعي (Social Scoring) التي تقوم بتصنيف الأفراد أو المجموعات بناءً على سلوكهم أو سماتهم الشخصية على مدى زمني معين.
كذلك، يُحظر استخدام أنظمة التعرف البيومتري عن بُعد في الزمن الحقيقي في الأماكن العامة لأغراض إنفاذ القانون، باستثناء حالات ضيقة ومقيدة للغاية. ويمتد الحظر أيضًا إلى أنظمة كشف المشاعر في بيئات العمل والتعليم، نظرًا لما تمثله من انتهاك مباشر للخصوصية والحرية الشخصية.
ويعكس سقف الغرامات المفروضة في هذه الفئة – والتي تصل إلى 7% من إجمالي حجم الأعمال العالمي أو 35 مليون يورو – مدى خطورة هذه الممارسات من وجهة نظر المشرّع الأوروبي.
ثانيًا: أنظمة الذكاء الاصطناعي عالية المخاطر
تشكّل فئة المخاطر العالية العمود الفقري لقانون الذكاء الاصطناعي الأوروبي. فهذه الأنظمة ليست محظورة، لكنها قادرة على إحداث تأثير كبير ومباشر على صحة الأفراد أو سلامتهم أو حقوقهم الأساسية. ولهذا السبب، يسمح القانون باستخدامها فقط ضمن إطار تنظيمي صارم يفرض التزامات واضحة على كل من مزوّدي هذه الأنظمة ومستخدميها.
تُستخدم أنظمة الذكاء الاصطناعي عالية المخاطر في مجالات حساسة مثل التوظيف، والتعليم، والبنية التحتية الحيوية، والخدمات المالية والتأمينية، والرعاية الصحية، وإنفاذ القانون، والهجرة، والعدالة. وفي هذه السياقات، قد تؤدي مخرجات الخوارزميات إلى قرارات مصيرية تؤثر في فرص العمل، أو الحصول على الخدمات الأساسية، أو حتى الحرية الشخصية.
ولمواجهة هذه المخاطر، يفرض القانون مجموعة من المتطلبات الإلزامية، تشمل إنشاء أنظمة متكاملة لإدارة المخاطر طوال دورة حياة النظام، وضمان جودة ودقة البيانات المستخدمة، وتوفير إشراف بشري فعّال، وتعزيز المتانة التقنية والأمن السيبراني، إضافة إلى الالتزام بالشفافية والتوثيق الفني وحفظ السجلات.
ويُلاحظ أن تصنيف الأنظمة عالية المخاطر ليس جامدًا، إذ تحتفظ المفوضية الأوروبية بسلطة تعديل قائمة هذه الأنظمة وإضافة تطبيقات جديدة وفق تطور التكنولوجيا والممارسات. كما أن بعض أنظمة الذكاء الاصطناعي قد تُصنّف تلقائيًا ضمن هذه الفئة إذا كانت خاضعة لتشريعات السلامة الأوروبية، مثل الأجهزة الطبية.
ثالثًا: المخاطر المحدودة ومخاطر الشفافية
في مستوى أدنى من الخطورة، تأتي فئة المخاطر المحدودة، والتي تركز بشكل أساسي على مسألة الشفافية. فهذه الأنظمة لا تُعد بطبيعتها خطرة على الحقوق الأساسية، لكنها قد تضلل المستخدمين أو تخلق لبسًا حول طبيعة التفاعل مع الذكاء الاصطناعي.
وتشمل هذه الفئة أنظمة مثل روبوتات المحادثة أو أدوات التزييف العميق، حيث يُلزم القانون الجهات المطورة والمستخدمة بإعلام الأفراد بوضوح أنهم يتعاملون مع نظام ذكاء اصطناعي أو محتوى مولّد آليًا. ويهدف ذلك إلى الحفاظ على الثقة ومنع الخداع أو التضليل.
كما تنطبق هذه الفئة على الأنظمة التي تُستخدم لدعم أو تحسين قرارات بشرية قائمة، دون أن تحل محلها، شريطة وجود مراجعة بشرية مناسبة. وقد أُدرج الذكاء الاصطناعي للأغراض العامة ضمن هذا التصنيف، مع فرض التزامات إضافية تطال بشكل أساسي كبار المطورين.
رابعًا: أنظمة الذكاء الاصطناعي ذات المخاطر المنخفضة أو المنعدمة
أما أنظمة الذكاء الاصطناعي التي لا تندرج ضمن الفئات السابقة، فتُصنّف على أنها ذات مخاطر منخفضة أو منعدمة. ولا يفرض القانون عليها التزامات تنظيمية محددة، بهدف الحفاظ على مساحة الابتكار وعدم إثقال التطبيقات البسيطة بقيود غير ضرورية.
ومع ذلك، يشدد قانون الذكاء الاصطناعي الأوروبي على أن هذا التصنيف ليس دائمًا. فالنظام الذي يُعد منخفض المخاطر اليوم قد ينتقل إلى فئة أعلى في المستقبل إذا تغيّر نطاق استخدامه أو أثره. ولهذا، تبقى الحوكمة الرشيدة وإدارة المخاطر المستمرة ضرورية حتى في غياب التزامات قانونية مباشرة.
الخلاصة
يمثل قانون الذكاء الاصطناعي الأوروبي تحولًا نوعيًا في الفكر التنظيمي، إذ ينتقل من منطق القواعد الجامدة إلى حوكمة مرنة قائمة على تقييم المخاطر. وهو بذلك لا يهدف إلى تقييد الابتكار، بل إلى توجيهه ضمن إطار يحمي الإنسان ويعزز الثقة في التكنولوجيا.
وبالنسبة للمؤسسات، لم يعد الامتثال لهذا القانون مسألة قانونية بحتة، بل أصبح خيارًا استراتيجيًا يعكس نضج الحوكمة المؤسسية والاستعداد للمستقبل الرقمي. فالجهات التي تستثمر مبكرًا في بناء أطر متكاملة لإدارة الذكاء الاصطناعي لن تكون فقط أكثر امتثالًا، بل ستكون أيضًا في موقع ريادي ضمن الاقتصاد الرقمي القائم على المسؤولية والشفافية.

