الذكاء الاصطناعي القانوني

الاتجاهات العالمية في المهنة القانونية, الذكاء الاصطناعي القانوني

مقترح القاعدة الفدرالية الأولى لتنظيم الأدلة المُولَّدة بالذكاء الاصطناعي في الولايات المتحدة: قراءة قانونية في مشروع “FRE 707” وعلاقته بمعيار الموثوقية في Rule 702

قد يتبادر إلى ذهن المشتغل بالإثبات سؤالٌ عملي قبل أن يكون تنظيريًا: عندما تُنتِج منظومة ذكاء اصطناعي “استنتاجًا” أو “تقييمًا” أو “ترجيحًا” (مثل نسبة احتمال الاحتيال، أو تطابق الشيفرة البرمجية، أو تحليل بيانات سوقية)، ثم يُقدَّم هذا الناتج إلى المحكمة دون خبير بشري يشهد ويُسأل ويُحاسَب منهجيًا—فأيُّ معيارٍ يحكم قبوله؟هذا السؤال، في جوهره، لا يتعلّق بالتقنية بقدر ما يتعلّق بفكرة قديمة في قانون الإثبات: من الذي يتحمّل عبء تأسيس الموثوقية؟ وكيف تمارس المحكمة دور “حارس البوابة” عندما يصبح مصدر الاستنتاج صندوقًا أسود؟ ضمن هذا الإطار جاء التحرك الأمريكي الأبرز: مسودة قاعدة فدرالية جديدة مقترحة (Federal Rule of Evidence 707) تُوجّه إلى “الأدلة المولَّدة آليًا/بالآلة” في الحالة التي تقوم فيها الأداة بما يقوم به الخبير عادةً، ولكن يُراد تقديم ناتجها بوصفه دليلًا دون إسناده إلى شهادة خبير بشري—وهو موضع “الفجوة التنظيمية” التي تستهدفها المسودة. أولًا: الخلفية النظامية للمقترح—لماذا ظهرت فكرة “قاعدة 707” الآن؟ 1) ما المشكلة التي يحاول المقترح علاجها؟ المشهد التقليدي في المحاكم الفدرالية الأمريكية يقسم الأدلة—عند تبسيط شديد—إلى: المقترح يفترض أن بعض استخدامات الذكاء الاصطناعي تُنتِج “رأيًا متخصصًا” مقنّعًا: أي استنتاجًا يقوم مقام الخبير، لكن يُقدَّم كـ “نتيجة نظام” أو “تقرير آلي”. وهنا تكمن حساسية المسألة: قد يُتجاوَز معيار Rule 702 عمليًا إذا أمكن تمرير “الرأي” عبر بوابة أدلة لا تفرض ذات متطلبات الموثوقية. 2) هل المقترح يضيف معيارًا جديدًا؟ ليس المقصود—بحسب ما يظهر من مواد اللجنة—ابتداع معيار موثوقية مختلف، بل نقل معيار Rule 702 إلى موضعه الطبيعي عندما يؤدي الذكاء الاصطناعي وظيفة الخبير دون خبير. ولذلك تُوصَف الفكرة بأنها: “إخضاع المخرجات الآلية التي تؤدي دور الخبير لنفس اختبار الموثوقية”. ثانيًا: جوهر المسودة—كيف تشتغل قاعدة FRE 707 المقترحة عمليًا؟ 1) ما المقصود بـ “الأدلة المولّدة آليًا” في سياق المسودة؟ لفهم الفكرة، لا بد من التمييز بين نوعين غالبًا ما يختلطان في الممارسة: المسودة تستهدف النوع الثاني أساسًا: حين يصبح ناتج الأداة هو “الرأي” الذي يُراد أن يملأ فراغ شهادة الخبير. 2) ما الذي تغيّره القاعدة في عبء الإثبات؟ من زاوية الإثبات، النقلة الأهم هي إعادة تثبيت قاعدة كلاسيكية:من يقدّم الدليل يتحمّل عبء بيان موثوقيته.وبالتالي، إذا أراد الخصم تقديم “رأي آلي” دون خبير، فسيكون عليه—وفق المسودة—أن يمر عبر متطلبات تماثل متطلبات Rule 702 (ملاءمة المنهج، سلامة التطبيق، كفاية البيانات، قابلية الاعتماد). 3) لماذا الإحالة إلى Rule 702 بالذات؟ لأن Rule 702 في النظام الأمريكي تمثل “قانون الموثوقية” لشهادة الخبراء: المحكمة لا تقبل الرأي التخصصي لمجرد أن قائله متخصص؛ بل تبحث: المسودة تريد نقل هذا المنطق إلى “الخبير غير البشري” عندما يُقدَّم بوصفه بديلًا عن الخبير البشري. ثالثًا: التحفظات المهنية والقضائية—لماذا قيل إن القاعدة “مبكرة”؟ خلال جلسة استماع في 15 يناير/كانون الثاني 2026 سُجّل اتجاه واضح لدى بعض المحامين والقضاة نحو التحفّظ، لاعتبارات أبرزها: هذه التحفظات لا تنفي جوهر المخاطر؛ لكنها تُظهر صراعًا مؤسسيًا مألوفًا في تنظيم الإثبات: التوازن بين حماية المحكمة من “علم زائف/منهج غير مُختبَر” وبين عدم تحويل كل نزاع إلى محاكمة داخل المحاكمة حول التقنية. رابعًا: الدلالة القانونية الأوسع—ما الذي يعنيه ذلك لمهنة المحاماة ولمنطق الإثبات؟ 1) إعادة تعريف “الخبير” وظيفيًا حتى لو بقي الخبير إنسانًا في النصوص، فإن المسودة تتعامل مع الخبير باعتباره وظيفة: 2) عبء الإثبات والتحضير الإجرائي إذا اتجهت المحاكم إلى تطبيق منطق المسودة، فسيترتب عمليًا: 3) المسؤولية المهنية: واجب الفهم والشرح حتى قبل أي قاعدة جديدة، تتجه المحاكم والهيئات المهنية إلى التشديد على أن المحامي لا يملك ترف تقديم مخرجات تقنية بوصفها حقائق نهائية دون فهم حدودها. ومع وجود مسودة 707، يصبح ذلك أكثر صرامة: خامسًا: انعكاسات متوقعة على قاضي الموضوع وإدارة الدعوى إذا قُدّر للمقترح أن يتبلور في قاعدة نهائية، فالأثر الأوضح سيكون على “قاضي البوابة” (gatekeeper): خلاصة مهنية المسودة المقترحة لا تعني “إدخال الذكاء الاصطناعي إلى الإثبات” من الصفر؛ بل تعني—على نحو أدق—منع تقديم الرأي التخصصي عبر بوابة خلفية لمجرد أن من أنتجه ليس إنسانًا حاضرًا في قفص الشهود. ومع ذلك، فإن التحفظات التي ظهرت في يناير 2026 تكشف عن سؤال تنظيمي حقيقي: هل تُكتب قاعدة مستقرة لواقع متحرك؟ أم يُترك التطور لاجتهاد القضاة مع تعزيز الممارسة المهنية للاحتياط والتحقق؟

الذكاء الاصطناعي القانوني

التزييف العميق الصوتي كاختبار لحوكمة المؤسسة

لماذا لا يتوقف التحليل القانوني عند “جاني مجهول”، وكيف تُثبت الحوكمة صلابة المؤسسة بعد التحويل 1) السيناريو الذي يتكرر داخل المؤسسات في نمط بات مألوفًا من الاحتيال المالي الحديث، يتلقى موظف في قسم المالية رسالة صوتية تبدو مطابقة لصوت المدير التنفيذي. تحمل الرسالة نبرة استعجال وسلطة: تحويل فوري مطلوب إلى مورد “طارئ” لتفادي غرامة أو لإنقاذ صفقة. يتحرك الموظف بسرعة، معتمدًا على ما يبدو أنه هوية مؤكدة للمتحدث وعلى ضغط الوقت. يُنفّذ التحويل. ثم يتبين لاحقًا أن الرسالة كانت مُزيفة. للوهلة الأولى، قد يبدو الأمر جريمة إلكترونية واضحة المعالم: مُحتال مجهول، انتحال بالصوت، وخسارة مالية. غير أن القراءة القانونية المؤسسية تتعامل معه بصورة أوسع. فالتزييف العميق هنا ليس فعلًا إجراميًا فحسب؛ بل هو أيضًا اختبار لنظام الضوابط الداخلية. وبعد خروج الأموال، يصبح السؤال الحاسم في كثير من الأحيان ليس فقط “من الفاعل؟” بل “ما الذي فعلته المؤسسة لمنع ذلك؟ وما الذي تستطيع إثبات أنها فعلته؟”. وتبرز أهمية هذا التمييز لأن الواقع بعد الحادث لا يسير في مسار واحد. فالتحقيق الجنائي قد يكون بطيئًا وعابرًا للحدود وغير مضمون النتائج. في المقابل، تتسارع فورًا مسارات أخرى: التغطية التأمينية، وتوقعات الجهات الرقابية، والالتزامات التعاقدية، ونتائج التدقيق، والمسؤوليات الداخلية. 2) لماذا لا يكفي “البحث عن الجاني” (المنظور القانوني المؤسسي) المنهج الجنائي التقني يركز عادةً على الفاعل والأثر الفني: استنساخ الصوت، انتحال الأرقام، مسارات الرسالة، وآثار الاختراق. أما التحليل القانوني المؤسسي فيضيف مسارًا ثانيًا لا يقل أهمية: واجب العناية داخل المؤسسة، ومدى معقولية إجراءاتها. وهذا المسار الثاني غالبًا هو الذي يحسم: بذلك يتحول التزييف العميق إلى واقعة تُجبر المؤسسة على إثبات نضج الحوكمة، لا مجرد إثبات كونها ضحية. 3) أسئلة الحوكمة القانونية التي تظهر فورًا بعد الحادث في هذا النوع من القضايا، تميل شركة التأمين والمدققون والجهات الرقابية إلى طرح أسئلة متقاربة. وهذه ليست أسئلة نظرية؛ بل تُحسم بالأدلة: أ) هل توجد سياسة تمنع التحويلات الحساسة بناءً على تعليمات صوتية فقط؟ الموقف الحوكموي القوي يتطلب قاعدة مكتوبة تُعامل الرسائل الصوتية (حتى إن نُسبت لكبار التنفيذيين) باعتبارها قناة غير كافية لإصدار أمر دفع حساس. المقصود ليس التشكيك في القيادة، بل الاعتراف بأن الصوت أصبح قابلًا للتلاعب. مبدأ حوكمي جوهري: لا يُنفَّذ دفع حساس اعتمادًا على قناة واحدة قابلة للانتحال. ب) هل توجد آلية تحقق ثنائية، وهل هي إلزامية؟ تقلل المؤسسات “مخاطر ضغط السلطة” عبر ضوابط لا تعتمد على شجاعة الفرد أو حدسه. آلية التحقق الثنائي هي الإجابة المؤسسية، مثل: قانونيًا، أهمية هذه الآليات أنها تُثبت أن المؤسسة استبقت مخاطر الانتحال وأدخلت وسائل منع منهجية. ج) هل تلقى الموظفون تدريبًا محددًا على مخاطر التزييف العميق والتلاعب بالإلحاح؟ التدريب التقليدي على الاحتيال قد يركز على رسائل البريد الاحتيالية والروابط المشبوهة. أما التزييف العميق الصوتي فيتطلب تركيزًا مختلفًا: قوة المهاجم ليست تقنية فقط، بل نفسية وتنظيمية. ينبغي للتدريب أن يشرح: في منطق الحوكمة، التدريب هو الجسر بين السياسة المكتوبة والامتثال الفعلي. د) هل توجد سجلات تحقق يمكن تقديمها لشركة التأمين أو للجهات الرقابية؟ الحوكمة يجب أن تكون قابلة للإثبات. بعد التحويل، لا يكفي القول “نحن عادةً نتحقق”. المطلوب سجلات، مثل: هذه السجلات غالبًا تصبح محور قرار التغطية التأمينية، لأن شركات التأمين تفحص عادةً مدى الالتزام بالإجراءات المقررة. 4) لماذا يخلق التزييف العميق نزاعات مع شركة التأمين (وكيف تمنع الحوكمة ذلك) تفترض بعض المؤسسات أن كونها ضحية يكفي لاستجابة التأمين. عمليًا، قد يثير هذا النوع من الاحتيال نقاشات صعبة حول التغطية، خاصة في وثائق: الاحتيال الاجتماعي (Social Engineering)، أو الاحتيال المالي/الجرائم (Crime)، أو مخاطر التحويلات، أو بعض مسارات التأمين السيبراني. وغالبًا يدور الخلاف حول: تخفض الحوكمة خطر النزاع بطريقتين: 5) ضوابط حوكمة تعالج هذا السيناريو مباشرةً فيما يلي ضوابط مصممة خصيصًا لمخاطر “التعليمات الصوتية المزيفة”. لا تعتمد على نصائح عامة من قبيل “كونوا حذرين”، بل تُدخل احتكاكًا إلزاميًا في المسار المالي: أ) قواعد تفويض الدفع تعتبر الصوت “غير كافٍ” للعمليات الحساسة ب) تحقق ثنائي القناة للتحويلات المستعجلة أو للمستفيد الجديد ج) مبدأ “المُنشئ–المُدقق” ومسار تصعيد يحمي الموظف من ضغط السلطة د) حوكمة تغيير بيانات الموردين والحسابات كثيرًا ما يترافق التزييف الصوتي مع التلاعب ببيانات الموردين. من الضوابط: هـ) السجلات والاستعداد الإثباتي 6) الاستجابة المؤسسية بعد اكتشاف الواقعة: ما الذي يجب أن يحدث سريعًا بعد اكتشاف التحويل، ينبغي إدارة الحدث باعتباره استجابة لحادث وإثباتًا للحوكمة في آن واحد. الاستجابة الناضجة عادةً تشمل: المهم هو تجنب سردية “حادث جنائي فقط”. فالموقف المؤسسي الرشيد يعترف بالوقوع كضحية، لكنه يُظهر أيضًا السيطرة على الإجراءات والتصحيح والانضباط في حفظ الأدلة. 7) الخلاصة: التزييف العميق مشكلة امتثال وحوكمة، لا مشكلة تقنية فقط التزييف العميق الصوتي يستغل فجوة بين طريقة المؤسسات في التعامل تاريخيًا مع إشارات السلطة، وبين واقع الهوية في البيئة الحالية. وما دام الصوت قابلًا للاستنساخ بدقة، فعلى المؤسسة الانتقال من “الثقة بالقناة” إلى “الثقة بالضابط”. ومن منظور الحوكمة القانونية، تُقاس مرونة المؤسسة بثلاثة عناصر قابلة للإثبات: إذا توافرت هذه العناصر، يبقى التزييف العميق جريمة في الأساس ضد المؤسسة. أما إذا غابت أو لم تُطبّق، فقد يتحول الحادث إلى إخفاق حوكمي يفتح أبواب نزاع إضافي: مع التأمين، ومع الجهات الرقابية، ومع المساءلة الداخلية.

الذكاء الاصطناعي القانوني

نيويورك تايمز ضد بيربلكسيتي AI: تحديات حقوق المؤلف والتوزيع في عصر الذكاء الاصطناعي

رفع The New York Times (NYT) دعوى في 5 ديسمبر 2025 أمام المحكمة الاتحادية في المنطقة الجنوبية لنيويورك ضد Perplexity AI، متّهماً فيها الشركة باستخدام ملايين من مقالات الصحيفة — نصوص، فيديوهات، بودكاستات — دون إذن، على نحو «نسخ وتوزيع وعرض محتوى محمي بحقوق النشر» لصالح تطبيقات وميزات الذكاء الاصطناعي التي تطوّرها Perplexity. وفق الدعوى، لا يقتصر الانتهاك على مجرد استخدام المحتوى كبيانات تدريب، بل تمت إعادة إنتاج المحتوى فعلياً — «متطابق أو مشابه إلى حد كبير» — في بعض المخرجات، وأحياناً بما يتضمّن محتوى مفبرك (“هلوسات”) نسبت زوراً إلى نيويورك تايمز، وعرض ذلك إلى جانب علامتها التجارية المسجّلة. القضية تطرح تحدياً جوهرياً للمؤسسات الإعلامية وقانون حقوق المؤلف: في عصر يستخدم فيه الذكاء الاصطناعي على نطاق واسع، كيف يمكن ضمان احترام الحقوق الأصلية لمنتجي المحتوى؟ وما هي الحدود القانونية لاستخدام المحتوى في تدريب أو تشغيل أنظمة ذكاء اصطناعي؟ تعريف المفاهيم القانونية الأساسية المبادئ الأساسية وتطبيقها على الحالة حماية حقوق المؤلف عند استخدام الذكاء الاصطناعي هل يُمكن لـ Perplexity الادّعاء بأن استخدام محتوى NYT يدخل ضمن “الاستخدام العادل” أو “فهرسة”؟ العلامات التجارية والتنسب الخاطئ — قضية إضافية إلى حقوق النشر الأضرار المحتملة — اقتصادية ومؤسسية أبعاد تنظيمية وسياسات عامة — مقارنة مؤسسية التداعيات jurisprudential والقانونية المحتملة نقاط خلاف وشكوك — لماذا القضية ليست محسومة سلفاً التقييم القانوني المستقبلي والنظر إلى الأمام القضية بين NYT وPerplexity هي أكثر من نزاع بين شركة إعلام وشركة تكنولوجيا — إنها اختبار مؤسسي لقواعد حقوق المؤلف في عصر الذكاء الاصطناعي. النتيجة المحتملة يمكن أن تُعيد رسم حدود ما يُسمح به في استخدام المحتوى الرقمي لتدريب وتشغيل أنظمة AI. إذا حكمت المحكمة لصالح الصحيفة — بمنح أمر قضائي وتعويضات — فسيعني ذلك أن الشركات التي تعتمد على بيانات غير مرخّص بها بحاجة إلى إعادة تقييم نموذج أعمالها، والبحث عن تراخيص أو إبرام اتفاقات مع أصحاب الحقوق. ولكن إذا انتهت الدعوى إلى رفض — بناءً على حجج مثل الفهرسة أو fair use — فقد تفتح الباب على نطاق واسع أمام استخدام محتوى محمي في الذكاء الاصطناعي. إن ذلك قد يضع ضغطاً على صناع المحتوى لإنشاء هياكل ترخيص جماعي أو نماذج تعويض جماعي لمواجهة ما قد يصبح استخداماً واسع النطاق أو “استنزافاً” لأرشيفاتهم. في أي حال، يبقى عدد من النقاط غير محسومة: ما المعايير التي سيستخدمها القضاء لتحديد ما إذا كان “نسخاً” أم “فهرسة”؟ كيف يُقيَّم الضرر للمؤسسة الإعلامية؟ وما هي الضمانات لعدم انتهاك سمعتها أو تشويش علاقتها مع قرائها؟ خلاصة تقييمية قضية NYT ضد Perplexity تضع تحت المجهر أحد أكبر التحديات القانونية في عصر الذكاء الاصطناعي: كيف يمكن توازن الحق في حماية الإبداع والمحتوى المملوك مع حق الابتكار والوصول إلى المعرفة عبر تقنيات جديدة؟ الحكم في هذه الدعوى سيشكّل سابقة محورية: إمّا بتأكيد أن المحتوى الإعلامي المحمي يستلزم ترخيصاً قبل استخدامه في AI، وإما بإعادة صياغة مفهوم fair use / الفهرسة في ضوء قدرات الذكاء الاصطناعي على الاستنساخ. بالتالي، من الضروري للمشرّعين، المحاكم، وأصحاب المحتوى تبنّي مقاربات منهجية — سواء تشريعية أو تعاقدية — لضمان أن تطور الذكاء الاصطناعي لا يتم على حساب حقوق المبدعين وحماية الصحافة.

الذكاء الاصطناعي القانوني

كيف تعيد اليونسكو رسم حدود القرار القضائي في عصر الذكاء الاصطناعي؟

لم يعد الذكاء الاصطناعي في سياق العدالة مسألة “ابتكار تقني” فحسب، بل تحوّل إلى سؤال جوهري يمسّ بنية الدولة القانونية نفسها: من يملك سلطة إنتاج القرار القضائي؟ وكيف تُمارس هذه السلطة في عالم تُسهم فيه الخوارزميات في فرز القضايا، تنظيم الملفات، تلخيص الأحكام، بل أحيانًا في صياغة تعليلات قضائية أو اقتراح اتجاهات حكم؟ في العقود الماضية، كان يمكن الفصل بين حقل تكنولوجيا المعلومات وبين حقل الفقه القضائي. أما اليوم، فإن الحدود بين المجالين تتفكك بصورة متسارعة. ما كان يُنظر إليه كأدوات تقنية مساعدة في إدارة المحاكم، أصبح تدريجيًا جزءًا من سيرورة إنتاج العدالة ذاتها. وهذا ما دفع اليونسكو، في 2025، إلى إصدار إرشادات لاستخدام أنظمة الذكاء الاصطناعي في المحاكم والهيئات القضائية؛ ليس باعتبارها “دليل استخدام تقني”، بل كوثيقة معيارية Normative Document تعيد تعريف شروط مشروعية استخدام AI في مجال يُعدّ من أكثر مجالات الدولة حساسية: القضاء. من هنا، لا يكفي أن نطرح السؤال في صيغة:هل يجوز أو لا يجوز استخدام الذكاء الاصطناعي في المحاكم؟بل يجب الانتقال إلى صيغة أخرى أكثر تعقيدًا:أي نمط من الذكاء الاصطناعي، في أي موضع من العملية القضائية، وبأي شروط من الشفافية والمساءلة، وتحت أي نموذج من المسؤولية القانونية؟ هذه النقلة من سؤال “الوجود” إلى سؤال “الشروط” هي ما تحاول إرشادات اليونسكو تنظيمه، ضمن منظومة أوسع تشمل:EU AI Act،GDPR،DSA،Data Governance Act،وإرشادات High-Level Expert Group on AI،في إطار ما يمكن تسميته: المشروع الأوروبي للحوكمة المعيارية للذكاء الاصطناعي. موقع إرشادات اليونسكو ضمن خريطة الحوكمة الرقمية العالمية إرشادات اليونسكو لا تُنشئ التزامات قانونية ملزِمة بالمعنى الصارم (hard law)، لكنها تمثّل مستوى متقدمًا من القانون الناعم (soft law) الذي يمارس تأثيرًا تراكميًا على: في المقابل، يأتي EU AI Act بوصفه أول محاولة تشريعية شاملة لتنظيم أنظمة الذكاء الاصطناعي على مستوى قارة كاملة، مستندًا إلى مقاربة قائمة على المخاطر (Risk-Based Approach)، حيث تُصنَّف الأنظمة حسب خطورتها على الحقوق الأساسية، مع وضع فئة خاصة بالأنظمة المستخدمة في: هذا لا يحدث في فراغ؛ فالقاضي الأوروبي يعمل ضمن شبكة تنظيمية موازية تضم: إرشادات اليونسكو تتحرك في هذا الفضاء كـ مرجعية معيارية كونية:ليست أوروبية فقط، ولا وطنية، بل موجهة لأنظمة قضائية من أكثر من 160 دولة، شارك فاعلوها في صياغة هذا الإطار. وهذا يعطي الإرشادات طابعًا ما فوق-قُطري (Transnational Normative Layer)، يجعلها جسراً بين نماذج تنظيمية متباينة: الأوروبي، الأمريكي (القائم على المسؤولية بعد الضرر ex post)، والصيني (القائم على الحوكمة المركزية). من “استخدام” الذكاء الاصطناعي إلى “إعادة تعريف” القرار القضائي في الخطاب السطحي، غالبًا ما يُطرح الذكاء الاصطناعي كأداة لتحسين الكفاءة في المحاكم: تسريع الإجراءات، تقليل التراكم، دعم الترجمة، تنظيم الملفات. لكن على مستوى أعمق، تطرح الإرشادات – وتطرح معها التجربة القضائية المقارنة – سؤالًا أشد خطورة: متى يتحول الذكاء الاصطناعي من “مساعد” إداري إلى “فاعل خفي” في إنتاج القرار القضائي؟ هنا نحتاج إلى التفريق بين مستويين تحليليين: إرشادات اليونسكو ترسم خطًا أحمر بين AI الذي يتحرك في محيط الإجراءات المساندة (بحث، تنظيم، ترجمة، تلخيص) وبين AI الذي يبدأ بالتأثير في interprétation des faits (تفسير الوقائع) أو qualification juridique (تكييفها قانونيًا) أو choix de la solution (الترجيح بين حلول قانونية متعددة).ما أن ينتقل AI إلى هذا المستوى الثاني، حتى يدخل تلقائيًا في دائرة High-Risk، سواء بمفهوم EU AI Act أو بمفهوم “التهديد لحقوق الإنسان” في إرشادات اليونسكو. من AI “مساعد” إلى AI “مُقرِّر” – تبلور ثنائية معيارية جديدة التمييز الذي تقترحه الإرشادات بين: ليس تمييزًا تقنيًا فقط، بل هو تمييز معياري Normative، يعيد رسم حدود السلطة القضائية. 1. الذكاء الاصطناعي المساعد (Assistive AI) ضمن هذا النموذج، يُسمح للذكاء الاصطناعي أن: هنا، لا يُنظر إلى النظام كـ “فاعل قانوني” بل كأداة تعزز:efficiency, access to justice, procedural management. مسؤولية القرار تبقى محصورة في القاضي، الذي يمتلك: 2. الذكاء الاصطناعي المقرِّر (Decisional AI) في المقابل، نكون أمام AI مقرِّر عندما يبدأ النظام في: هنا، لم نعد أمام أداة، بل أمام فاعل خوارزمي يشترك موضوعيًا في إنتاج القرار، حتى لو لم يُعترف له بشخصية قانونية مستقلة. وهذا ما ترفضه اليونسكو صراحة، لأنه يخلق ما يسميه بعض الفقهاء: Responsibility Gap – فجوة مسؤولية لا يُعرف فيها من يُسأل عن الخطأ. هذه الثنائية تلتقي مباشرة مع تصنيف EU AI Act الذي يرى أن الأنظمة المستخدمة في: هي في أعلى مستويات المخاطر، وتحتاج إلى شروط صارمة في:risk management, transparency, human oversight, data governance. خامسًا: حقوق الإنسان كنقطة ارتكاز – من التجريد النظري إلى الإلزام المعياري إرشادات اليونسكو لا تنطلق من سؤال: “ما الذي يمكن للذكاء الاصطناعي أن يقدّمه للمحاكم؟”، بل من سؤال أكثر جوهرية: كيف نضمن ألا يؤدي إدخال الذكاء الاصطناعي إلى تآكل الضمانات التقليدية لحقوق الإنسان داخل القضاء؟ من هنا، تُعيد الإرشادات تأكيد مجموعة من المبادئ التي يمكن قراءتها كترجمة قضائية لروح GDPR والمنظومة الأوروبية لحقوق الإنسان: بهذا المعنى، تتحرك الإرشادات ضمن ما يمكن تسميته:Human-Rights-by-Design for Judicial AIوهو امتداد مباشر لفكرة Data Protection by Design and by Default في GDPR، لكن منقولة إلى فضاء العدالة. الشفافية، قابلية التفسير، وقابلية الطعن – تفكيك منطق “الصندوق الأسود” تُشكّل إشكالية “الصندوق الأسود” (Black Box) إحدى أكثر نقاط التوتر بين منطق الذكاء الاصطناعي ومنطق القضاء. النظام القضائي يقوم، في جوهره، على: هذه العناصر الثلاثة تفترض أن: في المقابل، كثير من نماذج الذكاء الاصطناعي – وخاصة القائمة على بنية الترانسفورمر – تعمل وفق آليات معقدة تجعل من الصعب، إن لم نقل المستحيل، تحويل منطق اتخاذ القرار فيها إلى سرد تفسيري بسيط. إرشادات اليونسكو تتعامل مع هذا التوتر عبر ثلاث طبقات: أ. الشفافية (Transparency) هنا، الشفافية ليست قيمة أخلاقية فقط، بل شرط إجرائي لصحة القرار، لأنها: ب. قابلية التفسير (Explainability) إشكالية Explainability ليست تقنية بحتة، بل هي ذات طابع قانوني–معياري:ما لم يستطع القاضي أن يشرح – بلغته القانونية – كيف ساهم النظام في تشكيل قناعته، فإن العدالة تتحول إلى عملية “توكّل على النظام” Trust the System، وهو ما يتعارض مع: ج. قابلية الطعن والمسؤولية (Contestability & Accountability) أي قرار يَستند بشكل جوهري إلى مخرجات نظام AI، يجب أن يبقى: هنا يظهر الرابط المباشر مع EU AI Act، الذي يشترط: خاصة في أنظمة High-Risk، ومنها الأنظمة المرتبطة بالقضاء، بما يخلق جسرًا بين متطلبات اليونسكو الأخلاقية وبين متطلبات الاتحاد الأوروبي التنظيمية. الذكاء الاصطناعي التوليدي (ChatGPT) – بين الإغراء المعرفي وخطر الهلوسة القانونية الذكاء الاصطناعي التوليدي يقدّم للمحامي والقاضي إغراءً مزدوجًا: لكن هذا الإغراء يحمل في داخله خطرًا منظوميًا يتمثل في: إرشادات اليونسكو تتعامل مع Generative AI في القضاء عبر ثلاث قواعد حاسمة: القاعدة التي تُلخّص الموقف: Generative AI لا يعرف الحقيقة، ولا يفهم العدالة، ولا يتحمل المسؤولية.من يفعل ذلك

الذكاء الاصطناعي القانوني

تحليل قرار Getty Images v Stability AI وأثره على الملكية الفكرية في عصر الذكاء الاصطناعي

مقدمة لم يعد سؤال علاقة الذكاء الاصطناعي بالملكية الفكرية سؤالًا تقنيًا أو وظيفيًا، بل أصبح سؤالًا جوهريًا يتعلق بطبيعة الإبداع نفسه، وبحدود الحق في الحماية، وبالخيط الرفيع الذي يفصل بين التعلم الآلي من جهة، والاستنساخ غير المشروع من جهة أخرى. من هنا تأتي أهمية الحكم الصادر عن المحكمة العليا في إنجلترا وويلز في قضية Getty Images ضد Stability AI، بوصفه أول محاولة قضائية جادة لإعادة رسم الحدود بين الملكية الفكرية والذكاء الاصطناعي التوليدي، في لحظة تاريخية أصبحت فيها النماذج الخوارزمية قادرة على إنتاج صور تتقاطع بصريًا وبنيويًا مع الأعمال البشرية. إعادة تعريف النزاع: بين الصور والبيانات تبدأ أهمية هذه القضية من طبيعة الادعاءات التي تقدمت بها Getty Images، والتي زعمت أنّ Stability AI قامت بتدريب نموذج Stable Diffusion باستخدام ملايين الصور المملوكة لــ Getty دون الحصول على ترخيص أو موافقة. يتجاوز هذا النزاع حدود الصورة الفردية، باتجاه سؤال أكثر عمقًا يتعلّق بالشرعية القانونية لعملية جمع البيانات، وبمفهوم “النسخ غير المباشر”، وبمدى إمكانية اعتبار تدريب النموذج سلوكًا يشكل تعديًا على الحق المالي للمصنف الأصلي. وعلى الرغم من اتساع هذه الأسئلة، فإن Getty اختارت في مرحلة متقدمة من إجراءات التقاضي سحب ادعاءاتها الرئيسية المتعلقة بحقوق النشر وقواعد حماية قواعد البيانات. وهذا الانسحاب غيّر الإطار التحليلي للقضية، وجعل المحكمة تنظر في نطاق أضيق وأكثر تحديدًا يتعلق باستخدام العلامات التجارية، إضافة إلى ما إذا كان النموذج يحتفظ داخليًا بالصور الأصلية أو أجزاء منها. قرار المحكمة: نفي “التخزين” وإعادة تقييم مفهوم النسخ أحد أكثر عناصر الحكم إثارة للاهتمام هو أن المحكمة لم تجد أي دليل يشير إلى أن نموذج Stable Diffusion يقوم بتخزين الصور الأصلية أو استرجاعها أو إعادة إنتاجها بصيغة مطابقة. وبعبارة أخرى، تبنّت المحكمة التفسير العلمي الذي يفصل بين آلية “التعلم” وآلية “الاستنساخ”، معتبرة أن النموذج يعمل من خلال بناء فضاء احتمالي لاتجاهات الأنماط، وليس من خلال الاحتفاظ بالصور نفسها. هذا التمييز بين “النموذج الذي يتعلم” و“النموذج الذي يخزّن” ليس تمييزًا تقنيًا فقط، بل هو تمييز قانوني يعيد تشكيل المعيار الذي سيُستخدم مستقبلاً في تقييم الانتهاكات المحتملة. فإذا كان النموذج لا يخزن الصور، بل يحولها إلى أوزان رياضية ضمن شبكة معقدة، فإن ذلك يجعل إثبات الانتهاك أصعب بكثير، ويجعل العبء ينتقل من فكرة “الاسترجاع المطابق” إلى سؤال أكثر تعقيدًا: هل يمكن اعتبار التمثيل الرياضي ذاته جزءًا من المصنف الأصلي؟ العلامات التجارية: الانتهاكات المحدودة وتحديد الحدود ورغم أن المحكمة لم تدعم ادعاءات Getty المتعلقة بحقوق النشر، فقد أثبتت وجود حالتين قديمتين ومحدودتين من انتهاك العلامة التجارية. هذه الحالات نشأت من صور تولّدها النماذج بشكل بدا فيه عناصر تحمل تشابهًا واضحًا مع العلامة التجارية لـ Getty. ومع أن هذه الانتهاكات لم تكن واسعة، إلا أن المحكمة اعتبرتها “حقيقية” بالمعنى القانوني، ما يشير إلى أن الذكاء الاصطناعي ليس محصنًا تمامًا من المسؤولية، حتى وإن كان بعيدًا عن عمليات النسخ المباشر. القضية المفتوحة: شرعية الـ Web Scraping على الرغم من أن الحكم حسم مسألة “التخزين” لصالح Stability AI، فإنه ترك الباب مفتوحًا أمام السؤال الذي سيظل محورًا لكل النزاعات المستقبلية: هل يُعد جمع البيانات عبر Web Scraping دون إذن المالك الأصلي للمحتوى انتهاكًا لحقوق النشر أو لحقوق قواعد البيانات؟ لم تُصدر المحكمة حكمًا حاسمًا في هذه النقطة، لأنها لم تُعرض عليها بشكل مباشر بعد سحب الادعاءات، مما يجعل هذه المسألة تنتظر حكمًا قادمًا أو تدخلًا تشريعيًا من الحكومة البريطانية. ومع تصاعد الدعوات داخل المملكة المتحدة لتنظيم استخدام البيانات في تدريب النماذج، فإن السنوات المقبلة قد تشهد إقامة إطار قانوني يحدد بدقة العلاقة بين الذكاء الاصطناعي والمحتوى المحمي. انعكاسات القرار على مستقبل الملكية الفكرية يمثّل هذا الحكم نقطة تحول تاريخية، لأنه يضع الأساس لأول معيار قضائي يفصل بين “التعلم المشروع” و“الاستنساخ غير المشروع”. وهو معيار قد يعمل على إعادة تعريف مفهوم “الاقتباس” في بيئة رقمية أصبحت فيها الآلة لاعبًا مركزيًا في عملية الإبداع. ويشير الحكم أيضًا إلى أن المسؤولية القانونية في عصر الذكاء الاصطناعي لم تعد مرتبطة فقط بنية الفاعل أو بإرادته، بل بالبنية التقنية للأنظمة وبقدرتها على التأثير في المصنفات الأصلية. وهذا يعيدنا إلى النقاش الفلسفي حول الفعل القانوني نفسه: هل يمكن مساءلة خوارزمية؟ ومن يمثّلها؟ وما حدود مسؤولية المطور والمستخدم في نظام لا يملك قصدًا؟ توقعات مستقبلية: نحو تشريع جديد؟ من المتوقع أن يعقب هذا الحكم حركة تشريعية في المملكة المتحدة تسعى إلى توضيح مسألة استخدام البيانات المحمية في تدريب النماذج. وقد تتجه الحكومة نحو إنشاء آليات تعويض جديدة، أو نحو صياغة تراخيص جماعية تحكم العلاقة بين المؤلفين وشركات الذكاء الاصطناعي، بما يشبه الأنظمة المعمول بها في قطاع الموسيقى. وفي المقابل، من المتوقع أن ترى المحاكم قضايا جديدة، خاصة من شركات المحتوى الكبرى، سواء لطلب التعويض أو لفرض حدود جديدة على جمع البيانات. ولذلك، يبدو أن قضية Getty لم تكن نهاية المعركة، بل بدايتها. خاتمة تكشف قضية Getty Images v Stability AI عن لحظة تاريخية يعاد فيها التفكير في الأسس التي بنيت عليها الملكية الفكرية. وفي عالم تتداخل فيه الإبداع البشري مع إنتاج الخوارزميات، يصبح القانون مدعوًا لإعادة صياغة معاييره ليميز بين النسخ والتعلم، وبين التعدي المشروع والتطور الطبيعي للمعرفة الآلية. إن هذا الحكم، بكل ما يقدمه من وضوح وما يتركه من غموض، يفتح بابًا جديدًا للبحث الأكاديمي وللنقاش القانوني، ويضع على عاتق الممارسين مهمة استيعاب التحولات العميقة التي ستعيد تشكيل الفكر القانوني في عصر الذكاء الاصطناعي التوليدي.

الذكاء الاصطناعي القانوني

خريطة القوانين الوطنية للذكاء الاصطناعي في عام 2025: قراءة مقارنة في النماذج العالمية

مقدمة شهد عام 2025 اتساعًا غير مسبوق في التشريعات الوطنية الخاصة بالذكاء الاصطناعي، حيث بدأت الدول الكبرى في صياغة أطر قانونية وتنظيمية واضحة تتعامل مع المخاطر والفرص الناتجة عن هذه التكنولوجيا. ولأول مرة، يمكن رسم خريطة عالمية توضّح الاتجاهات القانونية في الولايات المتحدة، الاتحاد الأوروبي، المملكة المتحدة، الصين، اليابان، ودول أخرى تعمل على وضع تشريعاتها الخاصة. استنادًا إلى المسح المقارن الصادر عن Anecdotes.ai في نوفمبر 2025، يتضح أن المشهد العالمي لا يتجه نحو نموذج واحد، بل نحو تنوع تشريعي عميق يفرض على الشركات متعددة الجنسيات تبنّي سياسات متخصصة ومتباينة لكل دولة. 1. الاتحاد الأوروبي: النموذج الأفقي الأكثر شمولًا (EU AI Act) يُعد EU AI Act أول إطار شامل للذكاء الاصطناعي في العالم. يعتمد الاتحاد الأوروبي على: يعكس هذا النموذج رغبة الاتحاد الأوروبي في بناء منطقة حماية رقمية تمنع أي أنظمة غير آمنة من دخول السوق الأوروبي. وبالتالي، يعتبر الاتحاد الأوروبي النموذج الأكثر صرامة ووضوحًا من بين جميع الأطر العالمية. 2. الولايات المتحدة: تنظيم قطاعي وليس إطارًا موحدًا على عكس الاتحاد الأوروبي، لا تمتلك الولايات المتحدة قانونًا وطنيًا موحدًا للذكاء الاصطناعي. بل تعتمد على: يعني ذلك أن الشركات في الولايات المتحدة تتمتع بحرية أكبر، لكنها تتحمل عبء المسؤولية القانونية عند حدوث مشاكل.وهذا يجعل التميز بين المنتج الآمن والخطر مسؤولية الشركات وليس المشرّعين. 3. المملكة المتحدة: نموذج “المبادئ الخمسة” دون تشريع ملزم بعد خروجها من الاتحاد الأوروبي، اختارت بريطانيا نهجًا مختلفًا يقوم على: تركّز المملكة المتحدة على: غير أن هذا النموذج يفتقر إلى آليات إلزامية، مما يضعف قدرته على ضبط المخاطر بشكل محكم. 4. الصين: تنظيم مركزي صارم قائم على الأمن القومي تتبنى الصين رؤية مختلفة جذريًا، حيث تعتمد على: تُعامل الصين الذكاء الاصطناعي كمسألة أمن قومي.وبالتالي، تميل قوانينها إلى: ولذلك، يعد النموذج الصيني الأكثر مركزية وتحكمًا. 5. اليابان: نموذج تعاون حكومي–شركاتي ختارت اليابان طريقًا ثالثًا بين نهجي الصين وأوروبا، يقوم على: يهدف هذا النموذج إلى خلق توازن بين التنمية الاقتصادية والضوابط الأخلاقية. 6. دول أخرى تتقدم في سنّ قوانينها إضافة إلى القوى الخمس الكبرى، بدأت دول حول العالم بوضع تشريعات مبدئية للذكاء الاصطناعي، مثل: الإمارات العربية المتحدة السعودية الهند كندا وأستراليا هذا يعكس سباقًا عالميًا نحو السيطرة على المخاطر، لكن دون وجود نموذج موحد. لماذا تهم هذه الخريطة الشركات والمحامين؟ تشير دراسة Anecdotes.ai إلى حقيقة أساسية: → لا يمكن الاعتماد على نموذج واحد عالمي لتنظيم الذكاء الاصطناعي. لذلك أصبح على الشركات متعددة الجنسيات: وهذا يخلق تحديًا كبيرًا للمستشارين القانونيين في الشركات (In-House Counsel) الذين يجب أن: خلاصة Pro Digital Legal إن مشهد الذكاء الاصطناعي في 2025 لا يتجه نحو “عولمة تشريعية”، بل نحو تعددية قانونية ستؤثر على: ولذلك، يجب على المؤسسات القانونية والمتخصصين في القانون والتكنولوجيا: ✔ امتلاك فهم عميق للاختلافات بين هذه النماذج ✔ معرفة أي نموذج ينطبق على أي سوق ✔ تعديل استراتيجياتهم القانونية والتقنية وفق كل ولاية قضائية وفي هذا الإطار، تواصل Pro Digital Legal دورها كمنصة رائدة في دعم الممارسين القانونيين لفهم هذه المنظومة العالمية المتغيرة بسرعة وتطوير أدوات امتثال قادرة على مواكبة هذا التحول.

الذكاء الاصطناعي القانوني

أول حكم من نوعه في الخليج: الاستشهادات الوهمية تفتح ملف تنظيم الذكاء الاصطناعي في المحاماة

مقدمة: الخليج يدخل معركة “الذكاء الاصطناعي القانوني” رسميًا في 16 نوفمبر 2025، أصدر مركز قطر للمال QFC Civil and Commercial Court حكمًا استثنائيًا، هو الأول من نوعه في المنطقة، بعد أن اكتشفت المحكمة أن أحد المحامين قد قدّم استشهادات قضائية وهمية تم توليدها عبر أدوات ذكاء اصطناعي. القضية Jonathan David Sheppard v Jillion LLC تحوّلت من دعوى عمالية بسيطة… إلى حكم محوري حول حدود الذكاء الاصطناعي في الممارسة القانونية، ومسؤولية المحامين تجاه ما يقدّمونه للمحكمة. بداية القصة: طلب تمديد… يتحوّل إلى أزمة القضية بدأت بطلب تمديد مهلة لتقديم الدفاع، وكان الطلب مرفقًا باستشهادات بقرارات سابقة من QFC supposedly حول: لكن عندما طلبت المحكمة الاطلاع على القرارات… لم يُعثر عليها في أي مكان. وعندما طُلب من المحامي تقديم النسخ، اكتفى بـ: 📎 لقطات شاشة من Google📎 واعترف لاحقًا بأنها قد تكون من “مصادر بحث ثانوية غير دقيقة” المحكمة وصفت هذا التبرير بأنه “غير معقول” في ظل أن عدد أحكام QFC قليل ومتاح بالكامل عبر موقع رسمي نظيف وواضح. المحكمة: السلوك لم يكن خطأً… بل تضليلًا رئيس المحكمة Lord Thomas of Cwmgiedd كان واضحًا: “هذه ليست هفوة. هذا سلوك مقصود قدّم معلومات كاذبة ومضلّلة للمحكمة.” ومن أهم ما جاء في الحكم: الحكم أكد: “الذكاء الاصطناعي لا يرفع عن المحامي واجب التحقق.” لماذا لم تُكشف هوية المحامي؟ رغم خطورة المخالفة، اختارت المحكمة — “وبقدر كبير من التردد” — عدم الإفصاح عن اسم المحامي، مبرّرة ذلك بـ: وبذلك اكتفت المحكمة بنشر الحكم — كخطوة ردعية كافية لهذه المرحلة. جزء من موجة عالمية أكبر الحكم أشار إلى أن هذه الظاهرة ليست قطرية فقط، بل انتشرت في عدة أنظمة قانونية: 🇺🇸 الولايات المتحدة – Mata v Avianca Inc🇬🇧 إنجلترا وويلز – Ayinde🇨🇦 كندا🇦🇺 أستراليا في جميعها استخدم محامون الذكاء الاصطناعي دون رقابة، فقام الذكاء الاصطناعي باختراع سوابق قضائية غير موجودة. The global lesson is clear: AI can assist, but cannot be trusted blindly. قرارات جديدة قادمة – QFC تستعد لتنظيم الذكاء الاصطناعي رسميًا أعلنت المحكمة أنها بصدد إصدار Practice Direction مخصص للاستخدام القانوني للذكاء الاصطناعي. التعليمات المتوقعة ستشمل:🚫 حظر الاستشهاد بأي حكم غير موثق📌 إلزام مراجعة بشرية لكل نتيجة بحث📌 اعتبار تقديم نصّ مولّد دون تدقيق “سلوكًا مهنيًا غير لائق”⚠️ إمكانية نشر اسم المحامي المخالف في الحوادث القادمة💥 عقوبات مهنية وإجرائية “أكثر صرامة بكثير” مستقبلاً هذا يجعل QFC أول محكمة في الخليج تنظم الذكاء الاصطناعي بهذا الوضوح. الرسالة للمحامين: الذكاء الاصطناعي لا يلغي احترافك… بل يختبره الحكم يضع معيارًا من الآن وصاعدًا: ✔ AI يُستخدم كمساعد، لا كبديل✔ المحامي مسؤول عن كل كلمة في مذكرته✔ التحقق القانوني لا يمكن أن يُستبدل بخوارزمية✔ الأمانة المهنية لا تتغيّر مهما تغيرت الأدوات الذكاء الاصطناعي ليس عذرًا… بل اختبارًا. الأثر الإقليمي: بداية تشريعات AI قانونية في الخليج نرى في Pro Digital Legal أن هذا الحكم سيفتح الباب أمام: من غير المستبعد أن نرى قريبًا:📘 لائحة “أخطاء الذكاء الاصطناعي في المرافعات”📘 وحدات تدريب إلزامية للمحامين📘 متطلبات إقرار: “تمت مراجعة هذه المذكرة من البشر” الخلاصة حكم Sheppard v Jillion LLC ليس مجرد عقوبة…إنه إعلان رسمي بأن عصر “الاستخدام غير المنظم للذكاء الاصطناعي” في البحث القانوني قد انتهى. إنه بداية مرحلة جديدة تُعيد تعريف: التكنولوجيا قد تُخطئ… لكن القانون لا يغفر للخطأ المتعمّد.

Scroll to Top