أول حكم من نوعه في الخليج: الاستشهادات الوهمية تفتح ملف تنظيم الذكاء الاصطناعي في المحاماة


مقدمة: الخليج يدخل معركة “الذكاء الاصطناعي القانوني” رسميًا

في 16 نوفمبر 2025، أصدر مركز قطر للمال QFC Civil and Commercial Court حكمًا استثنائيًا، هو الأول من نوعه في المنطقة، بعد أن اكتشفت المحكمة أن أحد المحامين قد قدّم استشهادات قضائية وهمية تم توليدها عبر أدوات ذكاء اصطناعي.

القضية Jonathan David Sheppard v Jillion LLC تحوّلت من دعوى عمالية بسيطة… إلى حكم محوري حول حدود الذكاء الاصطناعي في الممارسة القانونية، ومسؤولية المحامين تجاه ما يقدّمونه للمحكمة.


بداية القصة: طلب تمديد… يتحوّل إلى أزمة

القضية بدأت بطلب تمديد مهلة لتقديم الدفاع، وكان الطلب مرفقًا باستشهادات بقرارات سابقة من QFC supposedly حول:

  • تمديد المهل،
  • مراعاة الظروف الإنسانية،
  • سلطة المحكمة التقديرية.

لكن عندما طلبت المحكمة الاطلاع على القرارات… لم يُعثر عليها في أي مكان.

وعندما طُلب من المحامي تقديم النسخ، اكتفى بـ:

📎 لقطات شاشة من Google
📎 واعترف لاحقًا بأنها قد تكون من “مصادر بحث ثانوية غير دقيقة”

المحكمة وصفت هذا التبرير بأنه “غير معقول” في ظل أن عدد أحكام QFC قليل ومتاح بالكامل عبر موقع رسمي نظيف وواضح.


المحكمة: السلوك لم يكن خطأً… بل تضليلًا

رئيس المحكمة Lord Thomas of Cwmgiedd كان واضحًا:

“هذه ليست هفوة. هذا سلوك مقصود قدّم معلومات كاذبة ومضلّلة للمحكمة.”

ومن أهم ما جاء في الحكم:

  • السلوك يُعد ازدراءً للمحكمة (وفق المادة 35.3).
  • الاستشهاد بقضايا غير موجودة هو تضليل متعمد، بغض النظر عن الأداة المستخدمة.
  • المحامي لا يمكنه الاتكاء على AI ليقوم بدوره.
  • على كل محامٍ التحقق من كل حكم قبل تقديمه.

الحكم أكد:

“الذكاء الاصطناعي لا يرفع عن المحامي واجب التحقق.”


لماذا لم تُكشف هوية المحامي؟

رغم خطورة المخالفة، اختارت المحكمة — “وبقدر كبير من التردد” — عدم الإفصاح عن اسم المحامي، مبرّرة ذلك بـ:

  • صِغر سوق المحاماة في الخليج
  • اعتبارها أول حادثة من نوعها أمام QFC
  • الخوف من أن يؤدي نشر الاسم إلى “عقوبة مهنية مدمّرة وغير متناسبة”
  • اعتراف المحامي وبراءته السابقة من أي سلوك مشابه

وبذلك اكتفت المحكمة بنشر الحكم — كخطوة ردعية كافية لهذه المرحلة.


جزء من موجة عالمية أكبر

الحكم أشار إلى أن هذه الظاهرة ليست قطرية فقط، بل انتشرت في عدة أنظمة قانونية:

🇺🇸 الولايات المتحدة – Mata v Avianca Inc
🇬🇧 إنجلترا وويلز – Ayinde
🇨🇦 كندا
🇦🇺 أستراليا

في جميعها استخدم محامون الذكاء الاصطناعي دون رقابة، فقام الذكاء الاصطناعي باختراع سوابق قضائية غير موجودة.

The global lesson is clear:

AI can assist, but cannot be trusted blindly.


قرارات جديدة قادمة – QFC تستعد لتنظيم الذكاء الاصطناعي رسميًا

أعلنت المحكمة أنها بصدد إصدار Practice Direction مخصص للاستخدام القانوني للذكاء الاصطناعي.

التعليمات المتوقعة ستشمل:
🚫 حظر الاستشهاد بأي حكم غير موثق
📌 إلزام مراجعة بشرية لكل نتيجة بحث
📌 اعتبار تقديم نصّ مولّد دون تدقيق “سلوكًا مهنيًا غير لائق”
⚠️ إمكانية نشر اسم المحامي المخالف في الحوادث القادمة
💥 عقوبات مهنية وإجرائية “أكثر صرامة بكثير” مستقبلاً

هذا يجعل QFC أول محكمة في الخليج تنظم الذكاء الاصطناعي بهذا الوضوح.


الرسالة للمحامين: الذكاء الاصطناعي لا يلغي احترافك… بل يختبره

الحكم يضع معيارًا من الآن وصاعدًا:

✔ AI يُستخدم كمساعد، لا كبديل
✔ المحامي مسؤول عن كل كلمة في مذكرته
✔ التحقق القانوني لا يمكن أن يُستبدل بخوارزمية
✔ الأمانة المهنية لا تتغيّر مهما تغيرت الأدوات

الذكاء الاصطناعي ليس عذرًا… بل اختبارًا.


الأثر الإقليمي: بداية تشريعات AI قانونية في الخليج

نرى في Pro Digital Legal أن هذا الحكم سيفتح الباب أمام:

  • تشريعات خليجية تنظم استخدام الذكاء الاصطناعي في المحاماة
  • أدوات تحقق إلزامية في منصات البحث القانوني
  • تدريب مهني جديد حول “السلامة الرقمية في القضاء”
  • سياسات امتثال في مكاتب المحاماة تشمل AI Governance

من غير المستبعد أن نرى قريبًا:
📘 لائحة “أخطاء الذكاء الاصطناعي في المرافعات”
📘 وحدات تدريب إلزامية للمحامين
📘 متطلبات إقرار: “تمت مراجعة هذه المذكرة من البشر”


الخلاصة

حكم Sheppard v Jillion LLC ليس مجرد عقوبة…
إنه إعلان رسمي بأن عصر “الاستخدام غير المنظم للذكاء الاصطناعي” في البحث القانوني قد انتهى.

إنه بداية مرحلة جديدة تُعيد تعريف:

  • الاحتراف
  • الدقة
  • الثقة
  • والمسؤولية في مهنة المحاماة في الخليج والمنطقة.

التكنولوجيا قد تُخطئ… لكن القانون لا يغفر للخطأ المتعمّد.

Scroll to Top