كيف تعيد اليونسكو رسم حدود القرار القضائي في عصر الذكاء الاصطناعي؟

لم يعد الذكاء الاصطناعي في سياق العدالة مسألة “ابتكار تقني” فحسب، بل تحوّل إلى سؤال جوهري يمسّ بنية الدولة القانونية نفسها: من يملك سلطة إنتاج القرار القضائي؟ وكيف تُمارس هذه السلطة في عالم تُسهم فيه الخوارزميات في فرز القضايا، تنظيم الملفات، تلخيص الأحكام، بل أحيانًا في صياغة تعليلات قضائية أو اقتراح اتجاهات حكم؟

في العقود الماضية، كان يمكن الفصل بين حقل تكنولوجيا المعلومات وبين حقل الفقه القضائي. أما اليوم، فإن الحدود بين المجالين تتفكك بصورة متسارعة. ما كان يُنظر إليه كأدوات تقنية مساعدة في إدارة المحاكم، أصبح تدريجيًا جزءًا من سيرورة إنتاج العدالة ذاتها. وهذا ما دفع اليونسكو، في 2025، إلى إصدار إرشادات لاستخدام أنظمة الذكاء الاصطناعي في المحاكم والهيئات القضائية؛ ليس باعتبارها “دليل استخدام تقني”، بل كوثيقة معيارية Normative Document تعيد تعريف شروط مشروعية استخدام AI في مجال يُعدّ من أكثر مجالات الدولة حساسية: القضاء.

من هنا، لا يكفي أن نطرح السؤال في صيغة:
هل يجوز أو لا يجوز استخدام الذكاء الاصطناعي في المحاكم؟
بل يجب الانتقال إلى صيغة أخرى أكثر تعقيدًا:
أي نمط من الذكاء الاصطناعي، في أي موضع من العملية القضائية، وبأي شروط من الشفافية والمساءلة، وتحت أي نموذج من المسؤولية القانونية؟

هذه النقلة من سؤال “الوجود” إلى سؤال “الشروط” هي ما تحاول إرشادات اليونسكو تنظيمه، ضمن منظومة أوسع تشمل:
EU AI Act،
GDPR،
DSA،
Data Governance Act،
وإرشادات High-Level Expert Group on AI،
في إطار ما يمكن تسميته: المشروع الأوروبي للحوكمة المعيارية للذكاء الاصطناعي.


موقع إرشادات اليونسكو ضمن خريطة الحوكمة الرقمية العالمية

إرشادات اليونسكو لا تُنشئ التزامات قانونية ملزِمة بالمعنى الصارم (hard law)، لكنها تمثّل مستوى متقدمًا من القانون الناعم (soft law) الذي يمارس تأثيرًا تراكميًا على:

  • تفسير القوانين الوطنية والقارية،
  • صياغة المعايير القضائية،
  • بل وتحديد ما يمكن اعتباره “استخدامًا مشروعًا” للذكاء الاصطناعي في القضاء.

في المقابل، يأتي EU AI Act بوصفه أول محاولة تشريعية شاملة لتنظيم أنظمة الذكاء الاصطناعي على مستوى قارة كاملة، مستندًا إلى مقاربة قائمة على المخاطر (Risk-Based Approach)، حيث تُصنَّف الأنظمة حسب خطورتها على الحقوق الأساسية، مع وضع فئة خاصة بالأنظمة المستخدمة في:

  • المحاكم،
  • النيابات العامة،
  • والهيئات ذات الوظيفة القضائية أو شبه القضائية.

هذا لا يحدث في فراغ؛ فالقاضي الأوروبي يعمل ضمن شبكة تنظيمية موازية تضم:

  • GDPR: الذي يحدّد شروط معالجة البيانات الشخصية، بما فيها البيانات القضائية الحساسة،
  • DSA: الذي يعيد هيكلة المسؤولية عن المحتوى والخدمات الرقمية،
  • Data Governance Act وData Act: اللذين يحددان شروط إعادة استخدام البيانات وتشاركها،
  • ومجموعة من الآراء والتوصيات الصادرة عن High-Level Expert Group on AI، التي أرست مبادئ مثل: Human-Centric AI، Accountability، Explainability، وFairness.

إرشادات اليونسكو تتحرك في هذا الفضاء كـ مرجعية معيارية كونية:
ليست أوروبية فقط، ولا وطنية، بل موجهة لأنظمة قضائية من أكثر من 160 دولة، شارك فاعلوها في صياغة هذا الإطار. وهذا يعطي الإرشادات طابعًا ما فوق-قُطري (Transnational Normative Layer)، يجعلها جسراً بين نماذج تنظيمية متباينة: الأوروبي، الأمريكي (القائم على المسؤولية بعد الضرر ex post)، والصيني (القائم على الحوكمة المركزية).


من “استخدام” الذكاء الاصطناعي إلى “إعادة تعريف” القرار القضائي

في الخطاب السطحي، غالبًا ما يُطرح الذكاء الاصطناعي كأداة لتحسين الكفاءة في المحاكم: تسريع الإجراءات، تقليل التراكم، دعم الترجمة، تنظيم الملفات. لكن على مستوى أعمق، تطرح الإرشادات – وتطرح معها التجربة القضائية المقارنة – سؤالًا أشد خطورة:

متى يتحول الذكاء الاصطناعي من “مساعد” إداري إلى “فاعل خفي” في إنتاج القرار القضائي؟

هنا نحتاج إلى التفريق بين مستويين تحليليين:

  1. Interpretation – مستوى التأويل:
    كيف تُقرأ النصوص القانونية والسوابق في ضوء المخرجات التي تقترحها أنظمة الذكاء الاصطناعي؟
    هل تصبح الخوارزمية شريكًا في عملية فهم النص؟
  2. Application – مستوى التطبيق:
    كيف تُترجم هذه المخرجات إلى قرار فعلي بشأن:
    حرية شخص، ملكيته، علاقته الأسرية، وضعه القانوني أو الإداري؟

إرشادات اليونسكو ترسم خطًا أحمر بين AI الذي يتحرك في محيط الإجراءات المساندة (بحث، تنظيم، ترجمة، تلخيص) وبين AI الذي يبدأ بالتأثير في interprétation des faits (تفسير الوقائع) أو qualification juridique (تكييفها قانونيًا) أو choix de la solution (الترجيح بين حلول قانونية متعددة).
ما أن ينتقل AI إلى هذا المستوى الثاني، حتى يدخل تلقائيًا في دائرة High-Risk، سواء بمفهوم EU AI Act أو بمفهوم “التهديد لحقوق الإنسان” في إرشادات اليونسكو.


من AI “مساعد” إلى AI “مُقرِّر” – تبلور ثنائية معيارية جديدة

التمييز الذي تقترحه الإرشادات بين:

  • AI مساعد (Assistive AI)،
  • وAI مُقرِّر (Decisional AI)،

ليس تمييزًا تقنيًا فقط، بل هو تمييز معياري Normative، يعيد رسم حدود السلطة القضائية.

1. الذكاء الاصطناعي المساعد (Assistive AI)

ضمن هذا النموذج، يُسمح للذكاء الاصطناعي أن:

  • يفرز الملفات،
  • يُلخّص المستندات،
  • يصنّف القضايا،
  • يدير الجداول،
  • يحوّل الصوت إلى نص ويترجم،
  • يساهم في إخفاء الهوية قبل نشر الأحكام.

هنا، لا يُنظر إلى النظام كـ “فاعل قانوني” بل كأداة تعزز:
efficiency, access to justice, procedural management.

مسؤولية القرار تبقى محصورة في القاضي، الذي يمتلك:

  • حرية تجاهل مخرجات النظام،
  • سلطة نقدها،
  • وواجب تفسير قراره دون الاحتماء بالخوارزمية.

2. الذكاء الاصطناعي المقرِّر (Decisional AI)

في المقابل، نكون أمام AI مقرِّر عندما يبدأ النظام في:

  • تقييم الوقائع وتقديم توصية “ضمنية” بالحل،
  • اقتراح عقوبات أو حدود جزائية،
  • ترجيح اتجاهات حكم في ضوء نماذج توقعية،
  • التأثير على قناعة القاضي بطريقة لا يمكن تتبعها أو الطعن فيها.

هنا، لم نعد أمام أداة، بل أمام فاعل خوارزمي يشترك موضوعيًا في إنتاج القرار، حتى لو لم يُعترف له بشخصية قانونية مستقلة. وهذا ما ترفضه اليونسكو صراحة، لأنه يخلق ما يسميه بعض الفقهاء: Responsibility Gap – فجوة مسؤولية لا يُعرف فيها من يُسأل عن الخطأ.

هذه الثنائية تلتقي مباشرة مع تصنيف EU AI Act الذي يرى أن الأنظمة المستخدمة في:

  • Administration of justice
  • Democratic processes
  • Law enforcement

هي في أعلى مستويات المخاطر، وتحتاج إلى شروط صارمة في:
risk management, transparency, human oversight, data governance.


خامسًا: حقوق الإنسان كنقطة ارتكاز – من التجريد النظري إلى الإلزام المعياري

إرشادات اليونسكو لا تنطلق من سؤال: “ما الذي يمكن للذكاء الاصطناعي أن يقدّمه للمحاكم؟”، بل من سؤال أكثر جوهرية:

كيف نضمن ألا يؤدي إدخال الذكاء الاصطناعي إلى تآكل الضمانات التقليدية لحقوق الإنسان داخل القضاء؟

من هنا، تُعيد الإرشادات تأكيد مجموعة من المبادئ التي يمكن قراءتها كترجمة قضائية لروح GDPR والمنظومة الأوروبية لحقوق الإنسان:

  1. الحق في محاكمة عادلة – Fair Trial
    لا يجوز أن يؤدي استخدام AI إلى إضعاف قدرة المتقاضي على فهم:
    • كيف تم التعامل مع قضيته،
    • ما هي العناصر التي أثرت في القرار،
    • ومن هو المسؤول عن الحكم.
  2. قرينة البراءة والحق في الدفاع
    أي نظام يُستخدم في تقييم المخاطر أو الترجيح بين سيناريوهات، يجب ألا يتحول إلى مصدر افتراضي للحقيقة، بل يبقى خاضعًا للمجادلة والدفوع.
  3. الخصوصية وحماية البيانات
    هنا يتقاطع المجال القضائي مباشرة مع GDPR، لأن أنظمة AI القضائية تتعامل بالضرورة مع:
    • بيانات عالية الحساسية،
    • معلومات صحية، أسرية، جنائية،
    • بيانات أشخاص لم يختاروا أن يكونوا جزءًا من “مجموعة تدريب”.
  4. الكرامة الإنسانية
    لا يمكن اختزال الشخص في “Probability Score”، أو جعل تقييمه القانوني خاضعًا لخوارزميات لا تفهم السياق الاجتماعي، ولا السياسة التشريعية التي صيغ القانون في ضوئها.

بهذا المعنى، تتحرك الإرشادات ضمن ما يمكن تسميته:
Human-Rights-by-Design for Judicial AI
وهو امتداد مباشر لفكرة Data Protection by Design and by Default في GDPR، لكن منقولة إلى فضاء العدالة.


الشفافية، قابلية التفسير، وقابلية الطعن – تفكيك منطق “الصندوق الأسود”

تُشكّل إشكالية “الصندوق الأسود” (Black Box) إحدى أكثر نقاط التوتر بين منطق الذكاء الاصطناعي ومنطق القضاء. النظام القضائي يقوم، في جوهره، على:

  • علنية الحكم،
  • تسبيب القرار،
  • وإمكانية الطعن والاستئناف والمراجعة.

هذه العناصر الثلاثة تفترض أن:

  1. مسار اتخاذ القرار يمكن تتبعه
  2. المنطق الداخلي للحكم يمكن شرحه ومناقشته
  3. يوجد شخص أو جهة يمكن مساءلتها عن الخطأ

في المقابل، كثير من نماذج الذكاء الاصطناعي – وخاصة القائمة على بنية الترانسفورمر – تعمل وفق آليات معقدة تجعل من الصعب، إن لم نقل المستحيل، تحويل منطق اتخاذ القرار فيها إلى سرد تفسيري بسيط.

إرشادات اليونسكو تتعامل مع هذا التوتر عبر ثلاث طبقات:

أ. الشفافية (Transparency)

  • لا يُسمح باستخدام أنظمة AI داخل المحاكم دون علم الأطراف.
  • يجب الإفصاح عن وجود النظام، نوعه، ودوره في سير الدعوى أو الحكم.

هنا، الشفافية ليست قيمة أخلاقية فقط، بل شرط إجرائي لصحة القرار، لأنها:

  • تمكّن الدفاع من الطعن في مدى مشروعية استخدام الأداة،
  • وتسمح للمحكمة الأعلى (في الاستئناف أو النقض) أن تقيّم سلامة الإجراء.

ب. قابلية التفسير (Explainability)

إشكالية Explainability ليست تقنية بحتة، بل هي ذات طابع قانوني–معياري:
ما لم يستطع القاضي أن يشرح – بلغته القانونية – كيف ساهم النظام في تشكيل قناعته، فإن العدالة تتحول إلى عملية “توكّل على النظام” Trust the System، وهو ما يتعارض مع:

  • مبدأ المحاكمة العادلة،
  • وحق المتقاضي في فهم الأسباب التي بُني عليها الحكم.

ج. قابلية الطعن والمسؤولية (Contestability & Accountability)

أي قرار يَستند بشكل جوهري إلى مخرجات نظام AI، يجب أن يبقى:

  • قابلًا للطعن،
  • قابلاً للفحص من حيث سلامة استخدام الأداة،
  • مرتبطًا بمسؤول بشري نهائي: القاضي، والسلطة القضائية، والدولة.

هنا يظهر الرابط المباشر مع EU AI Act، الذي يشترط:

  • Human Oversight
  • Logging & Documentation
  • Risk Management

خاصة في أنظمة High-Risk، ومنها الأنظمة المرتبطة بالقضاء، بما يخلق جسرًا بين متطلبات اليونسكو الأخلاقية وبين متطلبات الاتحاد الأوروبي التنظيمية.


الذكاء الاصطناعي التوليدي (ChatGPT) – بين الإغراء المعرفي وخطر الهلوسة القانونية

الذكاء الاصطناعي التوليدي يقدّم للمحامي والقاضي إغراءً مزدوجًا:

  • إنتاج نصوص قانونية بسرعة فائقة،
  • بلغة سليمة، وبهيكلة حجاجية مقبولة ظاهريًا،
  • مع قدرة على التلخيص والدمج والمقارنة.

لكن هذا الإغراء يحمل في داخله خطرًا منظوميًا يتمثل في:

  • الهلوسة (Hallucinations):
    توليد أحكام، سوابق، أو مواد قانونية غير موجودة أصلًا،
  • وإعادة إنتاج تحيزات لغوية وثقافية كامنة في بيانات التدريب،
  • وتعميم خطاب قانوني “قياسي” قد يُهمّش السياقات الوطنية أو الفقهية الخاصة.

إرشادات اليونسكو تتعامل مع Generative AI في القضاء عبر ثلاث قواعد حاسمة:

  1. المجال المسموح:
    التلخيص، الصياغة الأولية، تنظيم الأفكار، الترجمة، تدقيق اللغة – بشرط المراجعة البشرية الكاملة.
  2. المجال الخطير:
    الاعتماد على مخرجات غير موثقة كأنها سوابق قضائية حقيقية، أو قبول استشهادات دون تحقق، أو إدخال بيانات قضائية حساسة في منصات عامة، بما يخرق متطلبات GDPR والسرية القضائية.
  3. المجال المحظور:
    استخدام Generative AI لاقتراح أحكام، تحديد عقوبات، تقييم أدلة، أو صياغة حيثيات نهائية دون مسؤولية تامة للقاضي عن كل كلمة.

القاعدة التي تُلخّص الموقف:

Generative AI لا يعرف الحقيقة، ولا يفهم العدالة، ولا يتحمل المسؤولية.
من يفعل ذلك هو الإنسان فقط؛ قاضٍ كان أو محاميًا أو مشرّعًا.


قضية كولومبيا – حين يتحول النقاش من الأخلاقي إلى الدستوري

التحول من مستوى “المبادئ الأخلاقية” إلى مستوى “القواعد الدستورية” تجسّد بوضوح في قضية المحكمة الدستورية في كولومبيا، عندما تبين أن قاضيًا اعتمد على مخرجات ChatGPT ضمن تعليل حكم يتعلق بحق أساسي لطفل في الصحة.

القضية لم تعد هنا نظرية، بل أصبحت:

  • حكمًا صادرًا،
  • بحق أساسي،
  • ملوّثًا – جزئيًا – بخطاب لم يُنتجه عقل بشري.

رد فعل المحكمة كان مفصليًا:

  • لم تحرّم استخدام الذكاء الاصطناعي بشكل مطلق،
  • لكنها وضعت شروطًا دستورية للاستخدام المقبول،
  • واستندت – بشكل صريح – إلى إرشادات اليونسكو كمرجعية معيارية.

بهذا، نكون أمام نموذج قضائي مهم:

  • دستور وطني يستوعب وثيقة معيارية دولية (اليونسكو)،
  • ويحوّلها إلى معيار تفسير لاستخدام تكنولوجيا عابرة للحدود،
  • في مجال حساس كالقضاء.

هذا النموذج يُظهر كيف يمكن للـ soft law (إرشادات اليونسكو) أن يتسلل عبر القضاء الدستوري إلى بنية الالزام القانوني الداخلي، تمامًا كما حدث مع مبادئ GDPR في بعض الأنظمة القضائية الأوروبية.


High-Risk AI في EU AI Act – حين تُعلن العدالة “مجال خطورة قصوى”

تصنيف أنظمة AI المستخدمة في القضاء ضمن فئة High-Risk في EU AI Act ليس مجرد وصف تقني، بل إعلان تشريعي بأن:

القضاء مجال لا يحتمل التجريب العشوائي في التكنولوجيا.

هذا التصنيف يترجم إلى التزامات ملموسة على:

  • مزودي الأنظمة (Providers)،
  • المستخدمين المهنيين (Deployers)،
  • والسلطات الإشرافية (Supervisory Authorities).

من بين هذه الالتزامات:

  • نظام صارم لإدارة المخاطر،
  • توثيق شامل لآلية عمل النظام،
  • تقييمات تأثير على الحقوق الأساسية (Fundamental Rights Impact Assessment)،
  • ضمان Human Oversight فعلي لا شكلي،
  • وتوفير قابلية التدقيق Auditability.

في هذا السياق، تتقاطع قراءة اليونسكو الأخلاقية مع القراءة التشريعية للاتحاد الأوروبي. كلاهما يقرّر أن:

  • القضاء ليس مجالًا لـ “السوق الحرّة للخوارزميات”،
  • بل مجال لشرطية معيارية مشددة، حيث تُقدَّم العدالة على الابتكار إن حدث تعارض.

أثر الإرشادات على المحامين وقطاع LegalTech – من سباق السرعة إلى سباق الامتثال

هذه الإرشادات لا تُخاطب القاضي وحده، بل:

  • المحامين،
  • مكاتب المحاماة،
  • شركات LegalTech،
  • ومطوري حلول Legal AI.

بالنسبة للمحامي

لم يعد استخدام AI مسألة “اختيار شخصي” أو “أداة شخصية للإنتاجية”، بل أصبح جزءًا من:

  • واجب العناية المهنية (Duty of Care)،
  • ومعيار الكفاءة المهنية (Professional Competence).

أي مذكرة قانونية تحتوي على استشهادات وهمية أو تحليل متحيّز نتيجة الاعتماد غير المتحقق على AI، قد تُعتبر:

  • إخلالًا بالواجب المهني،
  • وربما خطأً يستوجب المسؤولية المدنية أو التأديبية.

بالنسبة لشركات LegalTech

“الذكاء” لم يعد معيار نجاح كافٍ.
اليوم، السوق – خاصة في محيط القضاء – يبحث عن:

  • Compliant-by-Design Legal AI
  • Tools with Explainability & Auditability
  • Systems aligned with Human-Rights & AI Governance

أدوات التنبؤ بالأحكام، ونماذج تقييم مخاطر المتقاضين، وأنظمة “اقتراح العقوبة” تقف في قلب العاصفة التنظيمية، وستجد نفسها:

  • إما معاد تصميمها وفق هذه المبادئ،
  • أو مستبعدة تدريجيًا من أي سياق قضائي رسمي.

خاتمة: العدالة في عصر الذكاء الاصطناعي – من الخوف إلى إعادة التأسيس

إرشادات اليونسكو لا تنطلق من خوف بدائي من التكنولوجيا، بل من إدراك عميق بأن:

  • القضاء هو المكان الذي تلتقي فيه الدولة، القانون، والإنسان في أكثر صورها حساسية.
  • وأي خلل في هذا اللقاء قد يترجم إلى ظلم لا يمكن إصلاحه بسهولة.

من هنا، لا تدعو الإرشادات إلى “إخراج” الذكاء الاصطناعي من المحاكم، بل إلى:

  • إعادة تأسيس شروط دخوله،
  • وضمان أن يبقى أداة في يد العدالة، لا أن يتحول إلى بديل عنها.

في الأفق، يبدو واضحًا أن:

  • الذكاء الاصطناعي لن يغادر أنظمة العدالة،
  • والتشريعات لن تتراجع عن منطق High-Risk في هذا المجال،
  • والمحاكم لن تقبل أن تتحول إلى واجهة لقرارات خوارزمية مبهمة.

وبين هذا وذاك، سيتحدد دور الفاعل القانوني الجديد:

  • القاضي القادر على استخدام AI دون أن يفقد استقلاله،
  • المحامي الذي يوظف AI كأداة بحث وتحليل مع الحفاظ على مسؤوليته المهنية،
  • وشركات LegalTech التي تفهم أن الامتثال، والشفافية، واحترام حقوق الإنسان ليست قيودًا على الابتكار، بل شروطًا لشرعيته واستدامته.

في النهاية، العدالة لا تُستبدل بخوارزمية،
لكن الخوارزميات أصبحت جزءًا من بيئة العدالة.
والسؤال لم يعد: هل نقبل ذلك أم لا؟
بل: أي نموذج من العدالة نريد في عصر الذكاء الاصطناعي – ومن يكتب قواعد اللعبة؟

Scroll to Top