كيف تعيد اليونسكو رسم حدود القرار القضائي في عصر الذكاء الاصطناعي؟
لم يعد الذكاء الاصطناعي في سياق العدالة مسألة “ابتكار تقني” فحسب، بل تحوّل إلى سؤال جوهري يمسّ بنية الدولة القانونية نفسها: من يملك سلطة إنتاج القرار القضائي؟ وكيف تُمارس هذه السلطة في عالم تُسهم فيه الخوارزميات في فرز القضايا، تنظيم الملفات، تلخيص الأحكام، بل أحيانًا في صياغة تعليلات قضائية أو اقتراح اتجاهات حكم؟ في العقود الماضية، كان يمكن الفصل بين حقل تكنولوجيا المعلومات وبين حقل الفقه القضائي. أما اليوم، فإن الحدود بين المجالين تتفكك بصورة متسارعة. ما كان يُنظر إليه كأدوات تقنية مساعدة في إدارة المحاكم، أصبح تدريجيًا جزءًا من سيرورة إنتاج العدالة ذاتها. وهذا ما دفع اليونسكو، في 2025، إلى إصدار إرشادات لاستخدام أنظمة الذكاء الاصطناعي في المحاكم والهيئات القضائية؛ ليس باعتبارها “دليل استخدام تقني”، بل كوثيقة معيارية Normative Document تعيد تعريف شروط مشروعية استخدام AI في مجال يُعدّ من أكثر مجالات الدولة حساسية: القضاء. من هنا، لا يكفي أن نطرح السؤال في صيغة:هل يجوز أو لا يجوز استخدام الذكاء الاصطناعي في المحاكم؟بل يجب الانتقال إلى صيغة أخرى أكثر تعقيدًا:أي نمط من الذكاء الاصطناعي، في أي موضع من العملية القضائية، وبأي شروط من الشفافية والمساءلة، وتحت أي نموذج من المسؤولية القانونية؟ هذه النقلة من سؤال “الوجود” إلى سؤال “الشروط” هي ما تحاول إرشادات اليونسكو تنظيمه، ضمن منظومة أوسع تشمل:EU AI Act،GDPR،DSA،Data Governance Act،وإرشادات High-Level Expert Group on AI،في إطار ما يمكن تسميته: المشروع الأوروبي للحوكمة المعيارية للذكاء الاصطناعي. موقع إرشادات اليونسكو ضمن خريطة الحوكمة الرقمية العالمية إرشادات اليونسكو لا تُنشئ التزامات قانونية ملزِمة بالمعنى الصارم (hard law)، لكنها تمثّل مستوى متقدمًا من القانون الناعم (soft law) الذي يمارس تأثيرًا تراكميًا على: في المقابل، يأتي EU AI Act بوصفه أول محاولة تشريعية شاملة لتنظيم أنظمة الذكاء الاصطناعي على مستوى قارة كاملة، مستندًا إلى مقاربة قائمة على المخاطر (Risk-Based Approach)، حيث تُصنَّف الأنظمة حسب خطورتها على الحقوق الأساسية، مع وضع فئة خاصة بالأنظمة المستخدمة في: هذا لا يحدث في فراغ؛ فالقاضي الأوروبي يعمل ضمن شبكة تنظيمية موازية تضم: إرشادات اليونسكو تتحرك في هذا الفضاء كـ مرجعية معيارية كونية:ليست أوروبية فقط، ولا وطنية، بل موجهة لأنظمة قضائية من أكثر من 160 دولة، شارك فاعلوها في صياغة هذا الإطار. وهذا يعطي الإرشادات طابعًا ما فوق-قُطري (Transnational Normative Layer)، يجعلها جسراً بين نماذج تنظيمية متباينة: الأوروبي، الأمريكي (القائم على المسؤولية بعد الضرر ex post)، والصيني (القائم على الحوكمة المركزية). من “استخدام” الذكاء الاصطناعي إلى “إعادة تعريف” القرار القضائي في الخطاب السطحي، غالبًا ما يُطرح الذكاء الاصطناعي كأداة لتحسين الكفاءة في المحاكم: تسريع الإجراءات، تقليل التراكم، دعم الترجمة، تنظيم الملفات. لكن على مستوى أعمق، تطرح الإرشادات – وتطرح معها التجربة القضائية المقارنة – سؤالًا أشد خطورة: متى يتحول الذكاء الاصطناعي من “مساعد” إداري إلى “فاعل خفي” في إنتاج القرار القضائي؟ هنا نحتاج إلى التفريق بين مستويين تحليليين: إرشادات اليونسكو ترسم خطًا أحمر بين AI الذي يتحرك في محيط الإجراءات المساندة (بحث، تنظيم، ترجمة، تلخيص) وبين AI الذي يبدأ بالتأثير في interprétation des faits (تفسير الوقائع) أو qualification juridique (تكييفها قانونيًا) أو choix de la solution (الترجيح بين حلول قانونية متعددة).ما أن ينتقل AI إلى هذا المستوى الثاني، حتى يدخل تلقائيًا في دائرة High-Risk، سواء بمفهوم EU AI Act أو بمفهوم “التهديد لحقوق الإنسان” في إرشادات اليونسكو. من AI “مساعد” إلى AI “مُقرِّر” – تبلور ثنائية معيارية جديدة التمييز الذي تقترحه الإرشادات بين: ليس تمييزًا تقنيًا فقط، بل هو تمييز معياري Normative، يعيد رسم حدود السلطة القضائية. 1. الذكاء الاصطناعي المساعد (Assistive AI) ضمن هذا النموذج، يُسمح للذكاء الاصطناعي أن: هنا، لا يُنظر إلى النظام كـ “فاعل قانوني” بل كأداة تعزز:efficiency, access to justice, procedural management. مسؤولية القرار تبقى محصورة في القاضي، الذي يمتلك: 2. الذكاء الاصطناعي المقرِّر (Decisional AI) في المقابل، نكون أمام AI مقرِّر عندما يبدأ النظام في: هنا، لم نعد أمام أداة، بل أمام فاعل خوارزمي يشترك موضوعيًا في إنتاج القرار، حتى لو لم يُعترف له بشخصية قانونية مستقلة. وهذا ما ترفضه اليونسكو صراحة، لأنه يخلق ما يسميه بعض الفقهاء: Responsibility Gap – فجوة مسؤولية لا يُعرف فيها من يُسأل عن الخطأ. هذه الثنائية تلتقي مباشرة مع تصنيف EU AI Act الذي يرى أن الأنظمة المستخدمة في: هي في أعلى مستويات المخاطر، وتحتاج إلى شروط صارمة في:risk management, transparency, human oversight, data governance. خامسًا: حقوق الإنسان كنقطة ارتكاز – من التجريد النظري إلى الإلزام المعياري إرشادات اليونسكو لا تنطلق من سؤال: “ما الذي يمكن للذكاء الاصطناعي أن يقدّمه للمحاكم؟”، بل من سؤال أكثر جوهرية: كيف نضمن ألا يؤدي إدخال الذكاء الاصطناعي إلى تآكل الضمانات التقليدية لحقوق الإنسان داخل القضاء؟ من هنا، تُعيد الإرشادات تأكيد مجموعة من المبادئ التي يمكن قراءتها كترجمة قضائية لروح GDPR والمنظومة الأوروبية لحقوق الإنسان: بهذا المعنى، تتحرك الإرشادات ضمن ما يمكن تسميته:Human-Rights-by-Design for Judicial AIوهو امتداد مباشر لفكرة Data Protection by Design and by Default في GDPR، لكن منقولة إلى فضاء العدالة. الشفافية، قابلية التفسير، وقابلية الطعن – تفكيك منطق “الصندوق الأسود” تُشكّل إشكالية “الصندوق الأسود” (Black Box) إحدى أكثر نقاط التوتر بين منطق الذكاء الاصطناعي ومنطق القضاء. النظام القضائي يقوم، في جوهره، على: هذه العناصر الثلاثة تفترض أن: في المقابل، كثير من نماذج الذكاء الاصطناعي – وخاصة القائمة على بنية الترانسفورمر – تعمل وفق آليات معقدة تجعل من الصعب، إن لم نقل المستحيل، تحويل منطق اتخاذ القرار فيها إلى سرد تفسيري بسيط. إرشادات اليونسكو تتعامل مع هذا التوتر عبر ثلاث طبقات: أ. الشفافية (Transparency) هنا، الشفافية ليست قيمة أخلاقية فقط، بل شرط إجرائي لصحة القرار، لأنها: ب. قابلية التفسير (Explainability) إشكالية Explainability ليست تقنية بحتة، بل هي ذات طابع قانوني–معياري:ما لم يستطع القاضي أن يشرح – بلغته القانونية – كيف ساهم النظام في تشكيل قناعته، فإن العدالة تتحول إلى عملية “توكّل على النظام” Trust the System، وهو ما يتعارض مع: ج. قابلية الطعن والمسؤولية (Contestability & Accountability) أي قرار يَستند بشكل جوهري إلى مخرجات نظام AI، يجب أن يبقى: هنا يظهر الرابط المباشر مع EU AI Act، الذي يشترط: خاصة في أنظمة High-Risk، ومنها الأنظمة المرتبطة بالقضاء، بما يخلق جسرًا بين متطلبات اليونسكو الأخلاقية وبين متطلبات الاتحاد الأوروبي التنظيمية. الذكاء الاصطناعي التوليدي (ChatGPT) – بين الإغراء المعرفي وخطر الهلوسة القانونية الذكاء الاصطناعي التوليدي يقدّم للمحامي والقاضي إغراءً مزدوجًا: لكن هذا الإغراء يحمل في داخله خطرًا منظوميًا يتمثل في: إرشادات اليونسكو تتعامل مع Generative AI في القضاء عبر ثلاث قواعد حاسمة: القاعدة التي تُلخّص الموقف: Generative AI لا يعرف الحقيقة، ولا يفهم العدالة، ولا يتحمل المسؤولية.من يفعل ذلك
