
قد يتبادر إلى ذهن المشتغل بالإثبات سؤالٌ عملي قبل أن يكون تنظيريًا: عندما تُنتِج منظومة ذكاء اصطناعي “استنتاجًا” أو “تقييمًا” أو “ترجيحًا” (مثل نسبة احتمال الاحتيال، أو تطابق الشيفرة البرمجية، أو تحليل بيانات سوقية)، ثم يُقدَّم هذا الناتج إلى المحكمة دون خبير بشري يشهد ويُسأل ويُحاسَب منهجيًا—فأيُّ معيارٍ يحكم قبوله؟
هذا السؤال، في جوهره، لا يتعلّق بالتقنية بقدر ما يتعلّق بفكرة قديمة في قانون الإثبات: من الذي يتحمّل عبء تأسيس الموثوقية؟ وكيف تمارس المحكمة دور “حارس البوابة” عندما يصبح مصدر الاستنتاج صندوقًا أسود؟
ضمن هذا الإطار جاء التحرك الأمريكي الأبرز: مسودة قاعدة فدرالية جديدة مقترحة (Federal Rule of Evidence 707) تُوجّه إلى “الأدلة المولَّدة آليًا/بالآلة” في الحالة التي تقوم فيها الأداة بما يقوم به الخبير عادةً، ولكن يُراد تقديم ناتجها بوصفه دليلًا دون إسناده إلى شهادة خبير بشري—وهو موضع “الفجوة التنظيمية” التي تستهدفها المسودة.
أولًا: الخلفية النظامية للمقترح—لماذا ظهرت فكرة “قاعدة 707” الآن؟
1) ما المشكلة التي يحاول المقترح علاجها؟
المشهد التقليدي في المحاكم الفدرالية الأمريكية يقسم الأدلة—عند تبسيط شديد—إلى:
- شهادة خبير بشري تخضع لمعيار Rule 702 وما يرتبط به من رقابة منهجية (Daubert gatekeeping).
- مخرجات/سجلات قد تُقدَّم أحيانًا عبر مسارات أخرى (كسجلات الأعمال أو الشهادات الواقعية)، دون أن تُفحَص بالضرورة بوصفها “رأيًا متخصصًا” بالمعنى الدقيق.
المقترح يفترض أن بعض استخدامات الذكاء الاصطناعي تُنتِج “رأيًا متخصصًا” مقنّعًا: أي استنتاجًا يقوم مقام الخبير، لكن يُقدَّم كـ “نتيجة نظام” أو “تقرير آلي”. وهنا تكمن حساسية المسألة: قد يُتجاوَز معيار Rule 702 عمليًا إذا أمكن تمرير “الرأي” عبر بوابة أدلة لا تفرض ذات متطلبات الموثوقية.
2) هل المقترح يضيف معيارًا جديدًا؟
ليس المقصود—بحسب ما يظهر من مواد اللجنة—ابتداع معيار موثوقية مختلف، بل نقل معيار Rule 702 إلى موضعه الطبيعي عندما يؤدي الذكاء الاصطناعي وظيفة الخبير دون خبير. ولذلك تُوصَف الفكرة بأنها: “إخضاع المخرجات الآلية التي تؤدي دور الخبير لنفس اختبار الموثوقية”.
ثانيًا: جوهر المسودة—كيف تشتغل قاعدة FRE 707 المقترحة عمليًا؟
1) ما المقصود بـ “الأدلة المولّدة آليًا” في سياق المسودة؟
لفهم الفكرة، لا بد من التمييز بين نوعين غالبًا ما يختلطان في الممارسة:
- دليل آلي “قياسي”: مثل نتائج جهاز قياس مُعاير أو أنظمة تسجيل روتينية، حيث تكون الوظيفة أقرب إلى “قياس/تسجيل” لا “استنتاج تخصصي”.
- دليل آلي “استنتاجي/رأيي”: حيث تُحلّل الأداة بيانات وتنتج استدلالًا: ترجيح، تصنيف، توقع، نسبة احتمال، أو خلاصات تقويمية.
المسودة تستهدف النوع الثاني أساسًا: حين يصبح ناتج الأداة هو “الرأي” الذي يُراد أن يملأ فراغ شهادة الخبير.
2) ما الذي تغيّره القاعدة في عبء الإثبات؟
من زاوية الإثبات، النقلة الأهم هي إعادة تثبيت قاعدة كلاسيكية:
من يقدّم الدليل يتحمّل عبء بيان موثوقيته.
وبالتالي، إذا أراد الخصم تقديم “رأي آلي” دون خبير، فسيكون عليه—وفق المسودة—أن يمر عبر متطلبات تماثل متطلبات Rule 702 (ملاءمة المنهج، سلامة التطبيق، كفاية البيانات، قابلية الاعتماد).
3) لماذا الإحالة إلى Rule 702 بالذات؟
لأن Rule 702 في النظام الأمريكي تمثل “قانون الموثوقية” لشهادة الخبراء: المحكمة لا تقبل الرأي التخصصي لمجرد أن قائله متخصص؛ بل تبحث:
- هل المنهج صالح؟
- هل طُبّق على نحو سليم؟
- هل البيانات كافية؟
- هل هناك معدل خطأ ومعايير وضبط؟
المسودة تريد نقل هذا المنطق إلى “الخبير غير البشري” عندما يُقدَّم بوصفه بديلًا عن الخبير البشري.
ثالثًا: التحفظات المهنية والقضائية—لماذا قيل إن القاعدة “مبكرة”؟
خلال جلسة استماع في 15 يناير/كانون الثاني 2026 سُجّل اتجاه واضح لدى بعض المحامين والقضاة نحو التحفّظ، لاعتبارات أبرزها:
- التطور السريع للتقنيات: الخشية من أن تُصاغ قاعدة على واقع تقني سريع التحول فتغدو عاجزة أو مُعطِّلة.
- ادعاء كفاية الأدوات الحالية: بعض الممارسين يرى أن القضاة قادرون بالفعل على التعامل مع هذا النوع من الأدلة عبر قواعد الإثبات القائمة وإدارة الدعوى دون نص جديد.
- غموض نطاق التطبيق: القلق من أن تتسع القاعدة لتشمل مخرجات آلية لا تستدعي فعليًا اختبار “خبير”، أو أن تخلق نزاعات تمهيدية مرهقة حول ماهية “الرأي الآلي”.
هذه التحفظات لا تنفي جوهر المخاطر؛ لكنها تُظهر صراعًا مؤسسيًا مألوفًا في تنظيم الإثبات: التوازن بين حماية المحكمة من “علم زائف/منهج غير مُختبَر” وبين عدم تحويل كل نزاع إلى محاكمة داخل المحاكمة حول التقنية.
رابعًا: الدلالة القانونية الأوسع—ما الذي يعنيه ذلك لمهنة المحاماة ولمنطق الإثبات؟
1) إعادة تعريف “الخبير” وظيفيًا
حتى لو بقي الخبير إنسانًا في النصوص، فإن المسودة تتعامل مع الخبير باعتباره وظيفة:
- من يقدّم “استنتاجًا تخصصيًا” يجب أن يمر عبر غربال الموثوقية.
وبذلك، يصبح السؤال في المرافعة: هل هذا الناتج مجرد “بيان واقعة” أم “رأي متخصص”؟
هذا التوصيف سيصير نقطة نزاع مركزية، لأنه هو الذي يقرر إن كانت القاعدة 707 (ومعيار 702) ستُفعَّلان أم لا.
2) عبء الإثبات والتحضير الإجرائي
إذا اتجهت المحاكم إلى تطبيق منطق المسودة، فسيترتب عمليًا:
- توسّع في طلبات الاكتشاف (Discovery) المتعلقة ببيانات التدريب، الضبط، معدل الخطأ، خطوات الإعداد، إجراءات التحقق، حدود الاستخدام.
- نزاعات تمهيدية حول إمكانية إعادة إنتاج النتيجة (reproducibility) وحدود “الصندوق الأسود”.
وهذا يعيد تشكيل استراتيجية الدعوى: ليس كافيًا إحضار “تقرير آلي”، بل يلزم بناء “سلسلة تأسيس” للموثوقية شبيهة بسلسلة تأسيس شهادة الخبير.
3) المسؤولية المهنية: واجب الفهم والشرح
حتى قبل أي قاعدة جديدة، تتجه المحاكم والهيئات المهنية إلى التشديد على أن المحامي لا يملك ترف تقديم مخرجات تقنية بوصفها حقائق نهائية دون فهم حدودها. ومع وجود مسودة 707، يصبح ذلك أكثر صرامة:
- واجب التثبت من أن الأداة ليست “توليدًا لغويًا” بلا أساس بياناتي كافٍ.
- واجب الإفصاح عن القيود الجوهرية حين يكون الناتج حاسمًا.
- واجب اختيار خبير بشري عندما يكون ذلك هو الطريق الأكثر أمانًا لإسناد المنهج ولتحمّل المساءلة أمام الاستجواب.
خامسًا: انعكاسات متوقعة على قاضي الموضوع وإدارة الدعوى
إذا قُدّر للمقترح أن يتبلور في قاعدة نهائية، فالأثر الأوضح سيكون على “قاضي البوابة” (gatekeeper):
- سيُطلب من المحكمة التمييز بين “آلة تقيس” و“آلة تستنتج”.
- وسيُطلب منها أن تسأل أسئلة أقرب إلى أسئلة Daubert ولكن بلغة تقنية جديدة: ما مصدر البيانات؟ ما طريقة التحقق؟ ما هامش الخطأ؟ هل توجد معايير داخلية؟ هل النتيجة قابلة للفحص أو التدقيق الخارجي؟
خلاصة مهنية
المسودة المقترحة لا تعني “إدخال الذكاء الاصطناعي إلى الإثبات” من الصفر؛ بل تعني—على نحو أدق—منع تقديم الرأي التخصصي عبر بوابة خلفية لمجرد أن من أنتجه ليس إنسانًا حاضرًا في قفص الشهود. ومع ذلك، فإن التحفظات التي ظهرت في يناير 2026 تكشف عن سؤال تنظيمي حقيقي: هل تُكتب قاعدة مستقرة لواقع متحرك؟ أم يُترك التطور لاجتهاد القضاة مع تعزيز الممارسة المهنية للاحتياط والتحقق؟
