كتابات

بين القاضي والذكاء الاصطناعي الى أي حد يتدخل العقل الاصطناعي في جوهر العدالة

بين القاضي والذكاء الاصطناعي

الى أي حد يتدخل العقل الاصطناعي في جوهر العدالة

المحامية/ مُنى ناصر مطري الجماعي* 

لم تعد العدالة اليوم محصورة بين دفّتَي قانون، ولا محكومة فقط بضمير القاضي وخبرته الطويلة، بل باتت تقف عند مفترق طرق جديد تُزاحم فيه الخوارزميات العقل البشري، وتُشارك فيه الأنظمة الذكية في صياغة القرار القضائي ذاته ففي زمن الذكاء الاصطناعي لم يعد السؤال المطروح: هل يمكن استخدام التكنولوجيا داخل المحاكم؟ بل أصبح إلى أي حد يمكن للعقل الاصطناعي أن يتدخل في جوهر العدالة دون أن ينتزع عنها إنسانيتها؟

لقد تسللت أنظمة التحليل الآلي إلى كثير من النظم القضائية حول العالم فتُقيّم احتمالات تكرار الجريمة، وتُحلّل السوابق القضائية، بل وتقترح بعض الأحكام استنادًا إلى البيانات. غير أن العدالة بطبيعتها ليست معادلة رياضية قابلة للحل التلقائي فهي مزيج دقيق بين النص وروح القانون، بين الوقائع والضمير، بين المنطق والرحمة فهل تستطيع آلة مهما بلغت دقتها أن تُدرك الألم الإنساني؟ أو أن تفرّق بين الخطأ الذي يستوجب العقوبة والزلّة التي تستحق العفو؟

إن إدخال الذكاء الاصطناعي في ميدان القضاء قد يبدو لأول وهلة خطوة نحو السرعة والدقة وتقليل التحيّز البشري، إلا أنه في الوقت ذاته يفتح بابًا واسعًا للمساءلة: من يُحاسِب الخوارزمية إذا أخطأت؟ ومن يتحمّل مسؤولية قرار بُني على كودٍ غير مرئي؟ وهل تتحول العدالة مع مرور الوقت من فعلٍ إنساني يُراعي الضمير والواقع إلى مجرّد نِتاجٍ رقمي بارد تُسيّره البيانات؟

من هنا تنطلق هذه المقالة لتبحث في العلاقة الدقيقة بين القاضي والذكاء الاصطناعي محاولةً الإجابة عن السؤال الأعمق: هل يبقى القرار القضائي إنسانيًا أم أننا أمام ميلاد نموذج جديد للعدالة بلا وجه؟

ويجدر بالذكر أن الذكاء الاصطناعي قد دخل إلى مختلف الميادين ولم يكن القضاء بمنأى عن هذا الزخم التقني المتسارع فأصبحت الخوارزميات اليوم قادرة على قراءة آلاف القضايا في لحظات، وتحليل ملايين البيانات، واستنتاج أنماطٍ وسوابق قد تعجز الذاكرة البشرية عن استيعابها غير أنّ العدالة ليست مجرد عملية حسابية محضة، بل هي فعلٌ إنسانيّ مركّب يتداخل فيه العقل مع المشاعر والنص مع الواقع ولهذا فإنّ إدخال الذكاء الاصطناعي إلى ساحة القضاء لا يثير فقط تساؤلات تقنية، بل يوقظ إشكاليات فلسفية وأخلاقية وقانونية عميقة تبدأ بمن صاحب القرار الحقيقي؟ وأين ينتهي دور القاضي ويبدأ دور الخوارزمية؟ وهل يمكن للآلة أن تفهم معنى الإنصاف والرحمة والمصلحة العامة؟

ويُمكن التمييز في هذا الخصوص بين نوعين رئيسيين من الذكاء الاصطناعي لهما أثر مباشر على المجال القانوني:

الذكاء الاصطناعي الضيق:
وهو المُصمَّم لأداء مهام محددة ومقيدة مثل تحليل النصوص القانونية، وفرز القضايا، وترتيب السوابق القضائية، واقتراح مسودات أولية للأحكام أو المذكرات، وهذا النوع هو الأكثر استخدامًا في المؤسسات القضائية حاليًا حوّل العالم .

الذكاء الاصطناعي العام:
وهو نظريّ إلى حد كبير حتى اليوم، ويهدف إلى محاكاة القدرة البشرية الشاملة على التفكير والفهم والتعلّم في مختلف المجالات، وهو ما يثير مخاوف قانونية وأخلاقية عميقة، لأنه قد يقترب من اتخاذ القرار المستقل بما يتجاوز حدود الأداة المساعدة.

ومع ذلك، فإنّ هذه الاستخدامات على الرغم من فائدتها العملية لا تخرج عن كونها وسائل مساعدة للقاضي، وليست بدائل عنه.

فالنظام القانوني في جوهره لا يعترف بإسناد سلطة الحكم لغير الإنسان، لأن الحكم القضائي لا يقوم على البيانات وحدها، بل يقوم على قناعة وجدانية مستقلة يشكّلها القاضي بعد فحص الأدلة وموازنتها وفقًا لمبادئ العدالة وروح القانون.

ولهذا، يُطرح تساؤل قانوني جوهري: هل يمكن اعتبار الذكاء الاصطناعي فاعلًا قانونيًا في العملية القضائية، أم أنه مجرد امتداد تقني لإرادة بشرية خاضعة للمساءلة؟

والإجابة الراجحة في ظل المفاهيم القانونية الراهنة أن الذكاء الاصطناعي لا يمتلك صفة الذات القانونية، ولا يمكن تحميله مسؤولية الحكم، وإنما تبقى المساءلة القانونية قائمة دائمًا على عاتق الإنسان سواء كان قاضيًا أو مشرِّعًا أو محامياً.

ومن هنا تتضح لنا حدود الدور الذي يمكن أن يلعبه الذكاء الاصطناعي في ساحة العدالة: دورٌ تقني داعم لا سلطة مقرِّرة ومُعينٌ على التنظيم لا بديلٌ عن الضمير القضائي.

دور الذكاء الاصطناعي وآليات استخدامه:

ويتمثّل الدور الأساسي للذكاء الاصطناعي داخل النظام القضائي في كونه أداة تحليل ومعالجة معلومات، وليس صاحب سلطة حكم أو قرار نهائي وبالتالي يجدر بالذكر أبرز آليات استخدامه:

1. تحليل السوابق القضائية:

تستطيع الأنظمة الذكية فحص آلاف الأحكام السابقة خلال وقتٍ قصير جدًا، واستخلاص الأنماط القانونية والاتجاهات الغالبة في القضاء بشأن مسألة معينة وهذا يُعين القاضي في مسائل منها الاطلاع على اجتهادات مماثلة لحالته وفهم مسار القضاء في قضية محددة، بالإضافة إلى تقليص زمن البحث اليدوي التقليدي الذي قد يؤخر عملية إصدار الأحكام.

2. إدارة القضايا وتنظيم الملفات:

من خلال تقنيات التصنيف الآلي، يمكن للذكاء الاصطناعي تنظيم القضايا حسب نوعها وموضوعها وأولويتها مما يساعد على تقليل التكدّس في المحاكم وتسريع تحديد مواعيد الجلسات وتنظيم الوثائق والمرفقات القانونية مما يسهل الرجوع إليها وهذه الوظيفة الإدارية تُمثّل جانبًا مهمًا في تحسين كفاءة النظام القضائي دون المساس بجوهر القرار القضائي.

3. دعم عمل القاضي في التحليل القانوني:

بعض الأنظمة الذكية صُمّمت لتقديم مقترحات أولية في توصيف الوقائع وربطها بالقواعد القانونية المناسبة كأن تُشير إلى المادة المحتملة الواجب تطبيقها، أو تُبرز التناقضات في الملف، أو تُلخص دفوع الخصوم، غير أن هذا الدعم يظل استشاريًا وغير مُلزم وفي كل الأحوال خاضع لمراجعة القاضي.

4. التنبؤ باتجاهات الأحكام (بشكل إحصائي فقط):

في بعض التجارب استُخدم الذكاء الاصطناعي لاستشراف التوجهات المحتملة في إصدار الأحكام استنادًا إلى معطيات سابقة ورغم دقة بعض النتائج إلا أن هذا الاستخدام يُعدّ الأكثر حساسية؛ لأنه قد يؤدي إلى التأثير النفسي على القاضي ومن ثمة خلق قناعة مسبقة والتي قد تؤثر بدورها على إصدار حكم عادل بالإضافة إلى خلق نوع من “الاعتماد الضمني” على الآلة مما قد يعطل جوانب العقل التحليلية والفلسفية في تقصي الحقيقة والوصول لها بشكل مجرد وموضوعي.

وبناءً على ذلك، فإنّ أخطر ما قد تواجهه العدالة مستقبلًا ليس استخدام الذكاء الاصطناعي ذاته وإنما تحوّله من أداة مساعدة إلى مرجعية بديلة دون رقابة أو ضوابط قانونية واضحة.

منافع الذكاء الاصطناعي:

وعلى الرغم من الجدل الواسع حول إدخال الذكاء الاصطناعي إلى ساحة القضاء إلا أنّ له عددًا من المنافع العملية لا يمكن إنكارها، خاصة في ظل التحديات التي تواجهها الأنظمة القضائية التقليدية مثل بطء الفصل في القضايا وتراكم الملفات، وندرة الموارد البشرية المؤهلة في بعض المناطق، ولذا يُنظر إلى الذكاء الاصطناعي– من زاوية براغماتية– على أنه أداة يمكن أن تُسهم في تطوير منظومة العدالة وتحسين كفاءتها وبالتالي فإن أبرز إيجابيات الذكاء الاصطناعي كعضو مساعد في العملية القضائية كالآتي:

أولًا: تسريع الفصل في النزاعات:

يمتلك الذكاء الاصطناعي قدرة هائلة على معالجة كميات ضخمة من البيانات خلال وقت قياسي، مما يساعد على اختصار الزمن اللازم لدراسة الملفات وتحليل السوابق، وبالتالي تقليل مدد التقاضي وتحقيق مبدأ العدالة الناجزة الذي يُعدّ من أهم متطلبات العدالة الحديثة.

ثانيًا: الحد من التراكم القضائي:

من خلال استخدام الذكاء الاصطناعي في التصنيف والتنظيم وأتمتة بعض الإجراءات الشكلية يمكن تقليل العبء الإداري الواقع على المحاكم، وهو ما يؤدي بدوره إلى تخفيف الضغط على القضاة وتقليص عدد القضايا المتراكمة وتنظيم مواعيد الجلسات بكفاءة أكبر

ثالثًا: تقليل التحيّز البشري (نسبيًا):

رغم أن الذكاء الاصطناعي لا يخلو من التحيّز إلا أن توظيفه بشكل صحيح قد يسهم في الحدّ من بعض الانفعالات والعوامل الشخصية التي قد تؤثر– بوعي أو دون وعي– في تقدير القاضي للأدلة أو الأطراف مثل  العواطف والضغوط الاجتماعية والانطباعات السابقة التي قد تكون تشكلت مسبقاً .
وبذلك يُمكن أن يكون عنصرًا مساعدًا في تعزيز قدر من الحياد الشكلي.

رابعًا: رفع دقة تحليل المعطيات:

تتفوق الأنظمة الذكية في تحليل البيانات المعقدة وربط التفاصيل المتناثرة، واكتشاف العلاقات التي قد تغيب عن الذهن البشري خصوصًا في القضايا ذات الطبيعة التقنية أو المالية المعقدة، مثل قضايا الجرائم الإلكترونية وغسل الأموال والتزوير الرقمي ونزاعات الملكية الفكرية.

خامسًا: توحيد نسبـي للمعايير القضائية:

يسهم تحليل السوابق عبر الذكاء الاصطناعي في إبراز الاتجاهات القضائية المستقرة، وهو ما قد يساعد في الحدّ من التباين الكبير في الأحكام بين قاضٍ وآخر في الوقائع المتشابهة ويحقق نوعًا من الاستقرار القانوني.

ومع ذلك، لا يمكن اعتبار هذه الإيجابيات قائمة بذاتها أو مطلقة، بل تظل مرهونة بضوابط دقيقة وإشراف بشري صارم، فالآلة مهما بلغت من تطور لا تمتلك وعيًا أخلاقيًا، ولا إدراكًا للعدالة في بُعدها الإنساني والاجتماعي، ولذلك فإن هذه الإيجابيات إن لم تُضبط بإطار قانوني واضح قد تتحول من وسائل للإصلاح إلى أدوات تهدد جوهر العدالة نفسها.

مخاطر وتحديات لا يمكن التعامل معها:

على الرغم من الإمكانات الواسعة التي يوفّرها الذكاء الاصطناعي للمنظومة القضائية، إلا أنّ الاعتماد عليه يفتح بابًا معقدًا من المخاطر والتحديات التي لا يمكن التعامل معها باعتبارها مجرد إشكاليات تقنية، بل ينبغي النظر إليها كقضايا قانونية وأخلاقية تمسّ جوهر العدالة ومبدأ سيادة القانون، ومن تلك التحديات والإشكاليات ما يلي:

1-  إشكالية المسؤولية القانونية:

إذا استُخدم نظام ذكاء اصطناعي في تحليل قضية ما أو تقديم توصية غير دقيقة أثّرت في مسار الحكم، يثور تساؤل بالغ الأهمية: من يتحمّل المسؤولية؟ هل هو القاضي الذي اعتمد على نتائج النظام أم الجهة التي صمّمته وبرمجته؟
أم المؤسسة القضائية التي أقرّت استخدامه؟

إن غياب تحديد مسؤول قانوني واضح قد يؤدي إلى فراغٍ تشريعي خطير يُضعف من ضمانات المحاسبة ويُقوّض مبدأ “لا مسؤولية بلا شخص”.

2-   خطر التحيّز الخوارزمي:

تعتمد أنظمة الذكاء الاصطناعي في تعلّمها على بيانات سابقة وإذا كانت هذه البيانات مشوبة بتحيزات تاريخية أو اجتماعية أو ثقافية، فإن النظام لن يفعل سوى إعادة إنتاج تلك التحيزات بصورة رقمية مما يؤدي بطبيعة الحال إلى إصدار تقييمات غير عادلة وترسيخ صور نمطية غير قانونية والمساس بمبدأ المساواة أمام القضاء وهذا التحيز قد يكون غير مرئي، مما يزيد خطورته.

3- غياب الشفافية وصعوبة الطعن:

في النظام القضائي التقليدي يكون الحكم مبنيًا على تسبيب قانوني واضح يمكن الطعن فيه ومراجعته أما في حالة الذكاء الاصطناعي، فإن بعض الخوارزميات تعمل وفق ما يُعرف بـ “الصندوق الأسود” حيث يصعب معرفة كيفية توصل النظام إلى النتيجة وهذا يتعارض مع مبدأ العلنية وحق الدفاع وضمانات المحاكمة العادلة، وبالتالي كيف يمكن للطرف المتضرر أن يطعن في قرار لم يفهم آلية صدوره؟

3-  تهديد استقلالية القاضي

قد يؤدي الاعتماد المفرط على مخرجات الذكاء الاصطناعي إلى تقليص دور القاضي وتحويله تدريجيًا إلى منفّذ لتوصيات تقنية وهو ما يُضعف استقلاله الفكري وقناعته الوجدانية وسلطته التقديرية.
وبذلك يتحول مركز القرار من إنسان مسؤول إلى نظام غير خاضع للمساءلة المباشرة.

4-  المساس بالخصوصية وسرّية البيانات:

تعتمد أنظمة الذكاء الاصطناعي على تجميع ومعالجة كميات هائلة من البيانات بعضها يتعلّق بحياة الأفراد الخاصة ومصائرهم القانونية وإذا لم تُحط هذه البيانات بضمانات أمنية صارمة فإن خطر الاختراق أو التسريب أو سوء الاستخدام يصبح قائمًا وهو ما يشكل انتهاكًا صريحًا لحقوق الإنسان الرقمية، وبناءً على هذه التحديات، يتّضح أن الذكاء الاصطناعي إذا لم يُنظّم بإطار قانوني صارم وضوابط دقيقة، قد يتحوّل من أداة لتحقيق العدالة إلى وسيلة للمساس بها في صميمها.

ضوابط للتعامل مع الذكاء الاصطناعي:

وبالتالي لابد من وضع ضوابط وحدود قانونية صارمة للتعامل مع الذكاء وكيفية استخدامه في العملية القضائية، فالقضاء ليس مجرد عملية تقنية لحساب النتائج، بل هو منظومة قيم ومبادئ إنسانية وأخلاقية تقوم على العدالة والضمير والتقدير الإنساني وتتمثل تلك الضوابط فيما يأتي:

أولاً: أول هذه الضوابط تتمثل في مبدأ عدم تفويض القرار النهائي للآلة:

فلا يجوز– قانونًا أو أخلاقيًا– أن يكون الذكاء الاصطناعي هو الجهة الفاصلة في النزاع، وبالتالي فإن القرار القضائي يجب أن يظل صادرًا عن قاضٍ بشري مسؤول يملك سلطة التقدير ويتحمل تبعات الحكم الصادر عنه، وفي هذا السياق يمكن للذكاء الاصطناعي أن يكون أداة مساعدة لا بديلًا عن الإرادة القضائية.

ثانيًا: هناك ضرورة للشفافية في عمل الأنظمة الذكية:

إذ تعتمد كثير من خوارزميات الذكاء الاصطناعي على “الصندوق الأسود” حيث لا يكون من الواضح كيف توصل النظام إلى نتيجة معينة وهذا يتعارض مع مبدأ علنية الأحكام القضائية ووجوب تسبيبها، فالحكم الذي لا يمكن تفسير أسبابه لا يمكن الطعن فيه بصورة عادلة مما يشكل تهديدًا خطيرًا لضمانات التقاضي.

ثالثًاً: تجب مراعاة حماية البيانات والخصوصية:

فالذكاء الاصطناعي يعتمد على تجميع وتحليل كم هائل من البيانات الشخصية والحساسة للمتقاضين وهذا يستوجب وجود إطار قانوني صارم يمنع إساءة استخدام البيانات أو اختراقها أو توظيفها لأغراض خارج إطار العدالة، خصوصًا في ظل غياب تشريعات يمنية تفصيلية تنظم حماية البيانات الرقمية بشكل شامل حتى الآن.

كما تبرز ضرورة وضع تشريعات واضحة تُنظم حدود استخدام الذكاء الاصطناعي في المحاكم ومستوى مسؤوليته القانونية عند الخطأ والجهة المعنية التي تراقب نزاهة الخوارزميات وكيفية الاعتماد على مخرجاته قانونًا.
ومع غياب نصوص صريحة في القوانين اليمنية الحالية يصبح الأمر بحاجة ماسة إلى تدخل تشريعي مستقبلي، يواكب التطور التقني ويمنع حدوث فراغ قانوني قد يُستغل بطريقة تُخل بثقة الناس في العدالة.

لقد حاولت هذه المقالة أن تفتح نافذة تأمل ونقاش حول العلاقة المعقدة بين القاضي والذكاء الاصطناعي، بين العقل البشري والخوارزمية الرقمية، بين الضمير والبيانات. وتبيّن أن الخطر الحقيقي لا يكمن في التكنولوجيا نفسها، بل في طريقة استخدامها ومن يُمسك بزمامها وأي قيم تُزرع داخلها.

فإذا بقي القرار القضائي بيد الإنسان، وإذا استُخدمت التكنولوجيا كوسيلة تمكين لا كأداة سيطرة، فإن الذكاء الاصطناعي قد يصبح إضافة قوية تعزز من جودة العدالة بدل أن تُهددها.

ـــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــــ

*محامية وباحثة دراسات عليا في القانون

 

 

Loading