الرقمنة و الذكاء الاصطناعيفي الواجهةمقالات قانونية

الـــذكـــاء الاصـــطنـــاعــي والأتــمــتــة الإداريــة: “متطلبات مبدأ الأمن القانوني وضمانات حماية حقوق الإنسان ” الدكتور: عبدالله المخلوق

الـــذكـــاء الاصـــطنـــاعــي والأتــمــتــة الإداريــة:

“متطلبات مبدأ الأمن القانوني وضمانات حماية حقوق الإنسان ”

الدكتور: عبدالله المخلوق

دكتور في القانون العام والعلوم السياسية،

بجامعة محمد الخامس، كلية العلوم القانونية والاقتصادية والاجتماعية أكدال-الرباط-المغرب

هذا البحث منشور في مجلة القانون والأعمال الدولية الإصدار رقم 62 الخاص بشهر فبراير 2026
رابط تسجيل الاصدار في DOI

https://doi.org/10.63585/COPW7495

للنشر و الاستعلام
mforki22@gmail.com
الواتساب 00212687407665

للاطلاع و التحميل 

الـــذكـــاء الاصـــطنـــاعــي والأتــمــتــة الإداريــة:

“متطلبات مبدأ الأمن القانوني وضمانات حماية حقوق الإنسان ”

الدكتور: عبدالله المخلوق

دكتور في القانون العام والعلوم السياسية،

بجامعة محمد الخامس، كلية العلوم القانونية والاقتصادية والاجتماعية أكدال-الرباط-المغرب

ملخص :

يشهد العالم اليوم طفرة غير مسبوقة في توظيف تقنيات الذكاء الاصطناعي داخل الإدارة العمومية، وهو ما يطرح تحديات قانونية وأخلاقية جوهرية تتعلق بضمان مبدأ الأمن القانوني وحماية حقوق الإنسان. فبينما يُعد الذكاء الاصطناعي رافعةً لرفع كفاءة الخدمات الإدارية وتسريع المعاملات، فإنه يحمل، بين الفينة والأخرى، مخاطر قد تمسّ بالحقوق والحريات إذا لم يُحَطْ بإطار قانوني واضح وآليات رقابية فعالة.

وتسعى هذه الدراسة، المعتمدة على المقاربة التحليلية، إلى إبراز أوجه التوازن الممكنة بين متطلبات التطور التكنولوجي وضمانات دولة الحق والقانون، من خلال تحليل الضمانات القانونية والمؤسساتية والقضائية الكفيلة بضبط استعمال الذكاء الاصطناعي داخل الإدارة العمومية، وصولا إلى استخلاص استنتاجات عملية موجهة للمشرّع والإدارة، بغية تكريس الأمن القانوني وحماية حقوق الإنسان كأهداف وغايات مثلى.

كلمات مفتاحية للبحث: مبدأ الأمن القانوني، حقوق الإنسان، الذكاء الاصطناعي، المجال الإداري، القرارات الإدارية المؤتمتة.

Artificial Intelligence and Administrative Automation:

“The Requirements of the Principle of Legal Certainty and the Safeguards for the Protection of Human Rights”

Abdellah EL MAKHLOUK

Abstract:

The increasing integration of artificial intelligence in public administration raises major legal and ethical challenges related to legal certainty and the protection of human rights. While AI enhances administrative efficiency and speeds up procedures, it may also pose risks to rights and freedoms if not governed by clear legal rules and effective oversight.

Using an analytical approach, this study examines how to strike a balance between technological progress and the requirements of the rule of law by analyzing the legal, institutional, and judicial safeguards regulating AI use in public administration, with the aim of reinforcing legal certainty and human rights protection.

Mots-clés: sécurité juridique, droits de l’homme, intelligence artificielle et automatisation administrative.

Keywords:The principle of legal certainty, human rights, artificial intelligence, the administrative field, automated administrative decisions.

مقدمة

يشهد العالم المعاصر تحولا عميقا بفعل الثورة الرقمية والذكاء الاصطناعي، الذي أصبح جزءًا لا يتجزأ من منظومة العمل الإداري في مختلف الدول. فقد انتقل الذكاء الاصطناعي من مجرد تقنية مساعدة إلى عنصر أساسي في تسيير الشأن العام، من خلال تحليل المعطيات، واتخاذ القرارات، وتنفيذ الإجراءات الإدارية بسرعة ودقة غير مسبوقتين. هذا التطور غير بشكل جذري طبيعة الإدارة العمومية، وجعلها أكثر اعتمادا على النظم المؤتمتة والخوارزميات الذكية، مما يستدعي إعادة التفكير في أسس الأمن القانوني وضمان حقوق الإنسان داخل هذا الإطار الجديد.

فمبدأ الأمن القانوني، الذي يمثل أحد المرتكزات الجوهرية لدولة القانون، يقوم على وضوح القاعدة القانونية واستقرارها وإمكانية توقعها من قبل الأفراد. لكن دخول الذكاء الاصطناعي إلى مجال الإدارة العمومية يجعل هذا المفهوم يكتسب أبعادًا جديدة، إذ لم يعد القرار الإداري دائما من إنتاج العنصر البشري القابل للمساءلة، بل قد يصدر عن نظام ذكي مبرمج لاتخاذ القرار وفق معطيات رقمية ضخمة. وفي هذه الحالة، يصبح الحفاظ على الأمن القانوني رهينا بقدرة الإدارة على ضبط استعمال هذه الأدوات التكنولوجية ضمن إطار قانوني يضمن الشفافية، ويكرس مبدأ المشروعية في جميع مراحل العمل الإداري.

كما أن الذكاء الاصطناعي يفرض واقعا جديدا على مستوى العلاقة بين الإدارة والمواطن، حيث أصبحت الخوارزميات تُسهم في تحديد الحقوق، والواجبات، والاستحقاقات الإدارية، دون أن يكون للأفراد بالضرورة وعي كامل بآلية اشتغالها أو بحقهم في مراقبتها. ومن هنا تتأكد أهمية تعزيز المقومات التقنية والقانونية التي تضمن للمواطنين إمكانية الاطلاع على الأسس التي بُنيت عليها القرارات الإدارية، وضمان حقهم في الاعتراض أو التصحيح عند الحاجة، بما يحافظ على الثقة المتبادلة بين الإدارة والمتعاملين معها.

أما في مجال حقوق الإنسان، فإن حضور الذكاء الاصطناعي داخل الإدارة العمومية يفتح آفاقا كبيرة لتحسين جودة الخدمات العمومية وتعميم الشفافية والنجاعة، غير أنه يثير في المقابل متطلبات جديدة تتعلق بصون الكرامة الإنسانية والحرية الشخصية. فالأنظمة الذكية القائمة على تحليل البيانات تحتاج إلى ضوابط دقيقة تحمي الخصوصية، وتمنع التمييز، وتكفل المساواة في المعاملة بين المواطنين. كما أن استعمال الذكاء الاصطناعي في تصنيف الأشخاص أو تقييمهم يجب أن يتم في إطار يحترم القيم الإنسانية ويستند إلى معايير موضوعية ومعلنة، تجنبا لأي تحيز أو ظلم ناتج عن برمجة أو خطأ في الخوارزميات.

ويُعد التقدم التكنولوجي فرصة لتعزيز فعالية الإدارة العمومية وتطوير أدواتها الرقابية، شرط أن يتم توظيف الذكاء الاصطناعي في خدمة الإنسان لا على حسابه. فالقانون يظل المرجع الذي يوجه التطور التقني ويضمن اتساقه مع مبادئ العدالة والإنصاف. حيث أن تطوير المنظومة الإدارية يجب أن يرافقه تطوير تشريعي يكرس مبدأ المسؤولية والمساءلة في استعمال الذكاء الاصطناعي، ويُخضع هذه التقنيات لرقابة قانونية وأخلاقية دقيقة.

ومن هذا المنطلق، يتجه التفكير القانوني الحديث نحو بناء إدارة رقمية ذكية قادرة على الجمع بين الكفاءة التكنولوجية والالتزام بالقيم القانونية والحقوقية. فالإدارة التي تستعمل الذكاء الاصطناعي مطالبة بأن تكون أكثر شفافية وعدلا، لأنها تتعامل مع أدوات قوية قد تؤثر مباشرة في مصائر الأفراد. ومن ثم، فإن التحدي الحقيقي لا يكمن في توظيف الذكاء الاصطناعي ذاته، بل في كيفية توظيفه بما يخدم مقاصد العدالة ويحافظ على الأمن القانوني وحقوق الإنسان في آن واحد.

إن هذا التفاعل بين القانون والتكنولوجيا لا يمثل صراعا بين طرفين، بل تكاملا ضروريا يهدف إلى بناء إدارة عمومية حديثة، فعالة ومسؤولة، قادرة على مواكبة التحولات الرقمية دون أن تفقد هويتها القانونية والإنسانية. فمبدأ الأمن القانوني وحقوق الإنسان يجب أن يظلا المعيارين الحاكمين لكل تطور إداري، لأنهما يشكلان الضمانة الأساسية لتحقيق توازن حقيقي بين التقدم التقني واحترام القيم التي يقوم عليها المجتمع الإنساني.

وتقوم العلاقة بين متغيرات البحث في هذا الموضوع، على تأثير الذكاء الاصطناعي باعتباره متغيرًا مستقلا في كلٍّ من الأمن القانوني وحقوق الإنسان باعتبارهما متغيرين تابعين، داخل إطار العمل الإداري الذي يمثل المجال التطبيقي للدراسة. فالتطور السريع لتقنيات الذكاء الاصطناعي أصبح يفرض تحديات جديدة على ضمان استقرار القواعد القانونية وحماية الحقوق الفردية والجماعية، خاصة في ظل استعمال الإدارة لهذه التقنيات في اتخاذ القرارات أو معالجة المعطيات. ومن ثم، فإن العلاقة بين هذه المتغيرات تقوم على مدى تأثير الذكاء الاصطناعي في تحقيق أو تهديد الأمن القانوني واحترام حقوق الإنسان في الممارسة الإدارية المعاصرة.

و تنبع أهمية هذا البحث من كونه يلامس موضوعا بالغ الحساسية في المرحلة الراهنة، حيث تتقاطع فيه التحولات التكنولوجية مع المبادئ القانونية الأساسية التي تحكم علاقة الدولة بالمواطن. فالذكاء الاصطناعي لم يعد مجرد أداة تقنية، بل أصبح عنصرا مؤثرا في ممارسة السلطة الإدارية، الأمر الذي يجعل دراسته من منظور قانوني وحقوقي أمرا ضروريا لضمان التكيف السليم مع هذا التحول. كما تتجلى أهمية الموضوع في قلة الدراسات العربية التي تناولت العلاقة بين الذكاء الاصطناعي والإدارة العمومية من زاوية الأمن القانوني وحقوق الإنسان، مما يمنح هذا البحث بعدا تأصيليا ومواكبا للتطورات العالمية في هذا المجال.

ويهدف هذا البحث إلى تحليل الإطار النظري والقانوني المنظم لاستخدام الذكاء الاصطناعي في الإدارة العمومية، مع بيان آثاره على مبدأ الأمن القانوني وحماية حقوق الإنسان. ويسعى إلى استخلاص دروس يمكن أن تساعد التشريع الوطني على تبني نموذج متوازن يحقق الكفاءة التقنية دون المساس بالمشروعية القانونية، ويواكب في الوقت نفسه متطلبات التحول الرقمي مع احترام الحقوق والحريات الأساسية وأمنهم القانوني.

وبذلك، فإن هذا العمل العلمي لا يقتصر على تشخيص الواقع أو رصد المخاطر، بل يتجه نحو بناء رؤية مستقبلية واضحة المعالم، قوامها تحقيق التفاعل الإيجابي بين القانون والذكاء الاصطناعي، عبر صياغة قواعد وضوابط تضمن إدارة عمومية ذكية وعادلة، تحافظ على مقومات دولة الحق والقانون وتؤسس لمرحلة جديدة من الأمن القانوني والإنصاف الإنساني في ظل التحول الرقمي الشامل.

ومن جانب آخر يشكل الذكاء الاصطناعي فرصة لإحداث نقلة نوعية في الأداء الإداري من حيث الكفاءة والسرعة، لكنه يثير في المقابل تحديات قانونية وأخلاقية تتعلق بمبدأ الأمن القانوني وحماية حقوق الإنسان. وفي ضوء هذه الموازنة الصعبة، نطرح الإشكالية التالية:

إلى أي حد يمكن اعتماد الأتمتة الإدارية القائمة على الذكاء الاصطناعي دون الاخلال بمبدأ الأمن القانوني وضمانات حقوق الإنسان؟

وتتفرع هذه الإشكالية إلى مجموعة من الأسئلة، التي تسعى الدراسة إلى الإجابة عنها:

  • ما المقصود بمبدأ الأمن القانوني والذكاء الاصطناعي وحقوق الإنسان؟
  • ما هي العلاقة بين حقوق الإنسان والذكاء الاصطناعي ومبدأ الأمن القانوني في المجال الإداري؟
  • ما هي أهم التحديات التي تواجه توظيف الذكاء الاصطناعي في العمل الإداري ؟

ويفترض هذا البحث أن تحقيق التوازن بين فعالية الذكاء الاصطناعي في الإدارة من جهة، وضمان مبدأ الأمن القانوني وحماية حقوق الإنسان من جهة أخرى، ممكن عبر وضع أطر قانونية دقيقة وآليات رقابية فعالة، ترتكز على مبادئ الشفافية والمساءلة، بما يضمن الاستخدام المسؤول للتقنيات الذكية.

وتتمثل القيمة المضافة لهذه الدراسة في إدراج مفهوم مبدأ الأمن القانوني ضمن النقاش العلمي حول حكامة الذكاء الاصطناعي في الإدارة العمومية، واقتراح حلول عملية تعزز الشفافية وتحمي الحقوق الأساسية في ظل التحول الرقمي.

كما يرتكز البحث على المقاربة التحليلية لدراسة النصوص القانونية والأدبيات العلمية ذات الصلة، إضافة إلى المنهج الوصفي لتحديد ملامح الظاهرة وتفصيل أبعادها النظرية والعملية.

وعليه، تم تقسيم الموضوع إلى مبحثين. يتناول المبحث الأول، الإطار العام لمبدأ الأمن القانوني وحقوق الإنسان في ظل توظيف الذكاء الاصطناعي، بينما يستعرض المبحث الثاني، مبدأ الأمن القانوني وحقوق الإنسان في ظل الأتمتة الإدارية: المخاطر والضمانات.

المبحث الأول: الإطار العام لمبدأ الأمن القانوني وحقوق الإنسان في ظل توظيف الذكاء الاصطناعي

في المطلب الأول نتطرق لمفهوم مبدأ الأمن القانوني، أما في المطلب الثاني فسنتناول موقع حقوق الإنسان وأهميتها ضمن سياق القرارات الإدارية المؤتمتة (المطلب الثاني).

المطلب الأول: مفهوم مبدأ الأمن القانوني

في الفرع الأول نسلط الضوء على مبدأ الأمن القانوني: التطور التاريخي والمفهوم، ثم تناول في الفرع الثاني، الذكاء الاصطناعي بين المسار التاريخي وبناء المفهوم.

الفرع الأول: مبدأ الأمن القانوني: التطور التاريخي والمفهوم

نعرج على التطور التاريخي للأمن القانوني (الفقرة الأولى)، وبعد ذلك تعريفه (الفقرة الثانية).

الفقرة الأولى: التطور التاريخي للأمن القانوني

لقد تم تصور، أو تقديم، الأمن القانوني في الخطاب القانوني الأوروبي على أنه قيمة، أو هدف من أهداف القانون، وكان في المقام الأول موضوع دراسات في النظرية القانونية وفلسفتها. وتطور الخطاب القانوني الأوروبي تدريجيا نحو الاعتراف بوضعه الرسمي، ثم أصبح في نظر الكثير من المؤلفين مبدأً ومقتضى قانونيا. وقد اعترفت المحكمة الأوروبية لحقوق الإنسان، ومحكمة العدل الأوروبية على وجه الخصوص، بعد ذلك، بوجود مبدأ عام للأمن القانوني، وطبقتاه بمقتضى اجتهاداتهما القضائية. وقد ردد الفقه بعد ذلك ما جاء في الاجتهادات القضائية، وأعطاه صدى كبيرا، عندما أكد هذا الفقه أن مبدأ الأمن القانوني، الذي انبثق من بعض القوانين الأوروبية الوطنية وفوق الوطنية، قد ظهر وتكرّس تحت توجيهاته ونصحه وقيادته. غير أن بعض المؤلفين ذهبوا إلى أبعد من ذلك، حينما ادّعوا أن الأمن القانوني يعتبر قاعدة كونية ملازمة لدولة القانون، وتبعا لذلك فهي تفرض وتملى على رجال القضاء والتشريع. وحيث إن الأمن القانوني يعتبر مفهوما بمحتوى متغير، فإنه يتجلى وكأنه من المقتضيات المتعددة الأشكال والوجوه، وقابل للتكيّف والجمع بين متطلّبات كل نظام قانوني، إلا أنّ استقلاليته تعد موضوعا إشكاليا[1].

وعليه فإن مفهوم الأمن القانوني برز داخل الخطاب القانوني الأوروبي مع بدايات القرن العشرين، ليترسخ تدريجيا كمبدأ قانوني أساسي[2].حيث كانت ألمانيا أول من كرّس هذا المبدأ بشكل واضح سنة 1961، حيث أقرت المحكمة الدستورية الفيدرالية آنذاك بدستوريته. وبعد عام واحد فقط، أي سنة 1962، اعترفت محكمة العدل التابعة للمجموعة الأوروبية بهذا المبدأ في أحد قراراتها، كما أصدرت لاحقا أحكاما أخرى تناولت فكرة “الثقة المشروعة” التي تعد من أهم صور الأمن القانوني. وفي سنة 1981، أكدت المحكمة الأوروبية لحقوق الإنسان بدورها على ضرورة التوقع القانوني باعتباره مطلبا جوهريا لتحقيق الأمن القانوني[3]. وفي الولايات المتحدة الأمريكية، فإن مبدأ الأمن القانوني يأخذ شكله من خلال بند الوسائل السليمة قانونا dur-process clause.حيث في ظل هذا القانون، يتطور مبدأ “الحقوق المكتسبة”، ببطء، نحوى مبدأ “حماية التوقعات المشروعة”[4].

ومن الجدير بالذكر أن تحديد تعريف دقيق وشامل لمبدأ الأمن القانوني يواجه تحديات عدة، وذلك بسبب تنوع مظاهره وتشابك أبعاده، فضلا عن اختلاف المقاربات المفاهيمية التي تناولته. هذا التعدد أدى إلى ظهور تعاريف متعددة ومتباينة في الأوساط الفقهية والأكاديمية. ومع ذلك، فإن القاسم المشترك بين هذه التعاريف يتمثل في كون مبدأ الأمن القانوني يُعنى أساسًا بتمكين الأفراد من الشعور بالطمأنينة والثقة في النظام القانوني، بما يضمن لهم الاستقرار في علاقاتهم القانونية بشتى أنواعها. وسنتناول هذا المفهوم بمزيد من التفصيل في الفقرة الثانية أدناه.

الفقرة الثانية: تعريف مبدأ الأمن القانوني

إن الأمن القانوني في تعريفه الظاهري الصوري، كما يؤكد المحامي مارتن نادو، يحيل إلى فكرة وجود سلسلة من المتطلبات أو الشروط التي يجب أن تتوفر في المقتضيات القانونية، أو في النظام الذي يؤخذ على هذا النحو[5].

وسعيا لتحديد مفهوم دقيق لمبدأ الأمن القانوني، نستند إلى التعريف الذي قدمه المفكر يسري العصار، والذي يرى فيه أن الأمن القانوني يتمثل في كونه:”عملية وليس مجرد فكرة تستهدف توفير حالة من الاستقرار في العلاقات والمراكز القانونية،وذلك من خلال إصدار تشريعات متطابقة مع الدستور ومتوافقة مع مبادئ القانون الدولي، غايتها إشاعة الثقة والطمأنينة بين أطراف العلاقات القانونية من أشخاص القانون الخاص أو العام، بحيث يجب على التشريع أن لا يتسم بالمفاجئات والاضطراب، أو التضخم في النصوص، أو برجعية القوانين أو القرارات، الأمر قد يزعزع الثقة في الدولة وقوانينها”[6].

ونجد أرنولد وولفر Arnold Walfersعرف مبدأ الأمن القانوني بأنه :” يعني من الناحية الموضوعية عدم وجود تهديد للقيم المكتسبة، أما من وجهة النظر الذاتية فيعني عدم وجود مخاوف من تعرض هذه القيم للخطر”. أما بالنسبة لمايكل فيلهلم جوزيف بيرWilhelm Joseph Behr،فأكد أن:” المواطن يجب أن يشعر أن حقوقه محمية من قبل الدولة في حياته،حريته، وممتلكاته تكريما له وأن استقرار القانون والاستمرارية القانونية هي عنصر من عناصر الأمن القانوني الذي بات يتم الاعتراف به دوليا كمطلب مركزي لسيادة القانون”[7].

في حين ذهب جانب من الفقه الفرنسي،في تعريفه لمبدأ الأمن القانوني وذلك باعتماد على بيان عناصره، حيت عرفه بأنه:”ذلك المبدأ الذي يتضمن طائفتين من القواعد، أولهما:القواعد التي تكفل استقرار المراكز القانونية أو الثبات النسبي واستقرار هذه المراكز من حيث الوقت أو الزمان،وثانيهما:القواعد القانونية المتعلقة بوضوح وتحديد القواعد القانونية وقرارات السلطات العامة،مما يعني توافر الجودة في هذه القواعد والقرارات”[8].

كما يرى بعض الفقه أنه يوجد معنيان للأمن القانوني، يتعلق الأول، وهو معنى ضيق، بـ”ثلاث مرتكزات أساسية هي إمكانية الوصول إلى القانون، وإمكانية توقع القانون، واستقرار القانون”. في حين أن المعنى الواسع للأمن القانوني يضم، إلى المرتكزات الثلاث السالفة الذكر، اليقين القانوني والثقة المشروعة[9].وتجدر الإشارة إلى أن مبدأ الأمن القانوني أو مبدأ أمن القانون، يستنبط من المبدأ الدستوري لحكم القانون أو القاعدة القانونية أو سيادة القانون أو دولة القانون[10].

إذن، يتبين من خلال تتبّع المسار التاريخي والمفاهيمي أنّ الأمن القانوني لم يظهر كمفهوم حديث فقط، بل هو نتاج تطور طويل: فقد برزت ملامحه الأولى في القانون الروماني الذي اشترط وضوح القاعدة حتى يتمكن الأفراد من ترتيب سلوكهم، ثم تكرّس في العصور الوسطى من خلال ارتباط العدالة بالشرعية الدينية والسياسية. ومع عصر التنوير والثورات الدستورية في القرنين الثامن عشر والتاسع عشر، أضحى الأمن القانوني جزءًا من قيم دولة القانون، حيث ارتبط بمبادئ الوضوح، الاستقرار، والشفافية. وفي التجربة الأوروبية الحديثة، خاصة عبر القضاء الإداري الفرنسي والألماني، تطور ليصير مبدأً مستقلا يقوم على حماية الحقوق المكتسبة ومنع التغيير المفاجئ وغير المتوقع للنصوص. أما في المغرب والدول العربية، فقد انتقل المفهوم تدريجيا مع الدساتير والقوانين الحديثة بشكل صريح وضمني، باعتباره ضمانة جوهرية للحقوق والحريات.

غير أن دخول الذكاء الاصطناعي إلى المجال القانوني والإداري أفرز تحديات جديدة تهدد جوهر الأمن القانوني؛ فالغموض المرتبط بالخوارزميات، والتطور المستمر للأنظمة الذكية، وصعوبة تحديد المسؤولية، كلها عوامل قد تؤدي إلى إضعاف وضوح واستقرار القاعدة القانونية. ومع ذلك، فإن هذه التكنولوجيا نفسها تحمل فرصا كبيرة لتقوية الأمن القانوني عبر تسهيل الولوج إلى المعلومة القانونية، وتوحيد الاجتهادات، وتحقيق النجاعة والسرعة في الإجراءات.

وعليه، يمكن القول إن الأمن القانوني الذي نشأ تاريخياً كحاجة لضبط العلاقة بين الحاكم والمحكوم، يواجه اليوم تحديا جديدا يتمثل في الذكاء الاصطناعي. والرهان الحقيقي يكمن في التوفيق بين متطلبات الاستقرار والوضوح التي يفرضها الأمن القانوني، وبين مزايا الثورة التكنولوجية التي يقدمها الذكاء الاصطناعي، بما يحفظ الثقة في القانون ويضمن حماية الحقوق والحريات في ظل التحولات الرقمية المتسارعة.

وبعبارة أخرى، يشكّل مبدأ الأمن القانوني إحدى الركائز الأساسية التي تضمن استقرار العلاقات القانونية وثقة الأفراد في الإدارة العمومية، غير أن إدماج تقنيات الذكاء الاصطناعي في عمل الإدارة يثير تساؤلات عميقة حول مدى احترام هذا المبدأ. فالقرارات الإدارية المؤتمتة، رغم ما توفره من سرعة وفعالية، قد تنطوي على مخاطر مرتبطة بالغموض في الخوارزميات، أو بصعوبة مساءلة مصدر القرار عند وقوع خطأ أو تجاوز. لذلك، فإن موقع الأمن القانوني يظل حيويا كآلية لضمان الشفافية، إمكانية التنبؤ، وحماية الحقوق، مما يفرض على المشرع والإدارة وضع أطر قانونية دقيقة تُلزم بتفسير القرارات المؤتمتة، وتحدد المسؤوليات بوضوح، وتضمن للمتعاملين مع الإدارة سبل الطعن والرقابة القضائية الفعالة.

الفرع الثاني: الذكاء الاصطناعي بين المسار التاريخي وبناء المفهوم

نتناول في الفقرة الأولى لمحة عن التطور التاريخي للذكاء الاصطناعي، ثم ننتقل في الفقرة الثانية إلى تعريفه وتحديد أبرز مبادئه الأساسية.

الفقرة الأولى: لمحة عن التطور التاريخي للذكاء الاصطناعي

يشير التطور الأولي للذكاء الاصطناعي إلى الجهود العلمية المبكرة التي سعت إلى فهم ومحاكاة آليات الذكاء البشري. ففي خمسينيات القرن الماضي، حاول عدد من العلماء توضيح هذا المفهوم من خلال تصميم نماذج حاسوبية أولية هدفت إلى تقليد عملية التفكير الإنساني. وقد شكّل مؤتمر دارتموث عام 1956 نقطة الانطلاق الحقيقية، إذ تم فيه استخدام مصطلح “الذكاء الاصطناعي” لأول مرة، مما فتح المجال أمام اهتمام أكاديمي واسع النطاق بهذا التخصص الناشئ.

خلال ستينيات وسبعينيات القرن العشرين، شهد المجال تطورات ملحوظة في بناء الخوارزميات القادرة على معالجة المشكلات المعقدة، بينما تميز عقد الثمانينيات بتكامل التقدم في علوم الحاسوب والرياضيات وعلم النفس، مما عزز من أسس البحث في الذكاء الاصطناعي. ورغم ذلك، عرف هذا الميدان فترات من التراجع، عُرفت بـ”شتاء الذكاء الاصطناعي”، بسبب التوقعات المبالغ فيها والعقبات التقنية التي حدّت من تطوره. ومع مطلع الألفية الجديدة، شهد العالم نقلة نوعية بفضل تزايد قدرات الحوسبة وتوافر كميات ضخمة من البيانات، ما أتاح لتقنيات تعلم الآلة والتعلم العميق تحقيق نتائج باهرة ومهّد الطريق لتطبيقات أكثر فعالية في مجالات متعددة، منها التعليم، حيث أصبح الذكاء الاصطناعي أداة واعدة لتحسين تجربة التعلم ورفع مستوى الأداء الأكاديمي.

أما اليوم، فيتقدم الذكاء الاصطناعي ضمن منظومة معقدة تشمل أبعادًا اجتماعية واقتصادية وتكنولوجية مترابطة، حيث تمتد تطبيقاته من قطاع التعليم إلى الرعاية الصحية وغيرها من المجالات الحيوية. ويُعزى هذا التوسع إلى التسارع العلمي الذي يعيد باستمرار تشكيل أدوات الذكاء الاصطناعي وأدواره المستقبلية. غير أن هذا التقدم يثير في المقابل قضايا أخلاقية جوهرية تتطلب وعيا نقديا وإبداعيا لضمان انسجام التطورات التقنية مع القيم الإنسانية، وتوجيهها نحو خدمة الإنسان والمجتمع بصفة مستدامة[11].

وعليه، يمكن القول إن تطور الذكاء الاصطناعي مر بعدة محطات بارزة عبر التاريخ؛ ففي أوائل القرن التاسع عشر صمّم تشارلز باباج أول آلة حاسبة ميكانيكية في العالم، ثم في منتصف القرن ذاته ابتكر جورج بول نظرية المنطق الجبري المبنية على قيمتي الصفر والواحد، وهي الأساس الرياضي للحوسبة الحديثة. وفي العشرينات تقريبا ظهر لأول مرة مصطلح “روبوت” في مسرحية تشيكية، وبدأت آنذاك محاولات بدائية لابتكار شبكات إلكترونية تحاكي الخلايا العصبية. أما في الخمسينات فقد طرح آلان تورينغ فكرته الشهيرة حول إمكانية صنع آلات تفكر كالبشر، ثم تلاها اختراع جون مكارثي في أواخر العقد نفسه للغة البرمجة “LISP” التي أصبحت لاحقا لغة أساسية في أبحاث الذكاء الاصطناعي. ومع حلول الثمانينات شهد المجال نهضة كبرى بفضل النظم الخبيرة التي حاكت التفكير البشري وحققت نجاحا تجاريا لافتا، حيث تجاوزت أرباحه المليار دولار وبدأت الحكومات في دعمه وتمويله. وفي أواخر العقد نفسه، توسّع الذكاء الاصطناعي ليحقق نجاحات كبيرة في مجالات متعددة مثل اللوجستيك، واستخراج البيانات، وتشخيص الأمراض[12].

الفقرة الثانية: الذكاء الاصطناعي: المفهوم والمبادئ

فالذَّكَاءُ فِي اللُّغَةِ: ..تَمَامُ الشَّيْءِ، وَمِنْهُ الذَّكَاءُ فِي الفَهْمِ، وَهُوَ أَنْ يَكُونَ فهما تاما سريع القبولِ.. والبلادةُ: ضد النفاذ والذكاء المضاد في الأمور، ورجل بليد إذا لم يكن ذكيا[13].

وهناك عدة تعاريف للذكاء الاصطناعي، نجد منها ما قدمه Levin وآخرون على أنه:” الذكاء الاصطناعي هو الطريقة التي يصبح بها الحاسب مفكرا بذكاء”. وما قدمه O’Brien بأنه:” علم وتقنية مبنية على عدد من المجالات المعرفية مثل علم الحسابات الآلية والرياضيات والأحياء والفلسفة والهندسة، والتي تستهدف تطوير وظائف الحاسبات الآلية لتحاكي الذكاء البشري”[14].

وفي نفس الاتجاه، وفي كتابه 1998 The Oxford Companion to the Mind ، أوضح ريتشارد جريجوري، بأن هناك العديد من تعريفات للذكاء. كما كان هناك العديد من الخبراء الذين طلب منهم تعريفه، بينما تحدد إحدى الدراسات أكثر من 70 تعريفًا للذكاء (Legg and Marcus 2007). وبشكل عام فإن الذكاء الاصطناعي أحد فروع علم الكمبيوتر التي تدرس كيفية جعل الآلات تعمل بذكاء في التفكير واتخاذ القرار[15].

ويمتاز الذكاء الاصطناعي بمرونته وقدرته على التكيّف مع المتغيرات بفضل اعتماده على التحليل المستمر والتعلم الذاتي، مما يجعله عنصرا محوريا في مسيرة التحول الرقمي والتنمية المستدامة. كما أنه يثير في المقابل تساؤلات أخلاقية ومعيارية تتعلق بحدود استخدامه ومسؤوليته، الأمر الذي يفرض ضرورة توجيه تطوره بما ينسجم مع القيم الإنسانية ويخدم المصلحة العامة[16].

وينقسم الذكاء الاصطناعي، إلى الذكاء الاصطناعي القوي Strong Artificial Intelligence (Strong AI): ،وهو مصطلح يستخدم لوصف عملية تطوير الذكاء الاصطناعي إلى الدرجة التي تكون فيها الآلة الفكرية مساوية وظيفيا للإنسان. في فلسفة الذكاء الاصطناعي، لا يوجد تمييز جوهري بين الدماغ البشري والآلة القادرة على الذكاء الاصطناعي، بل يفترض أن بالإمكان ضبط أنظمة الذكاء وأفعال الآلة لتصبح بما في ذلك القوة على الفهم والوعي[17]. وأيضا الذكاء الاصطناعي القوي هي أجهزة لديها القدرة على التفكير مثل الإنسان إلى حد بعيد، لديها قدرة على التعلم والتقييم واتخاذ القرارات[18].

فالذكاء الاصطناعي القوي ينص على أن الحاسوب يمكن برمجته ليكون عقلا بشريا، وأن يكون ذكيا بكل ما تحمله الكلمة من معنى، وأن يكون لديه إدراك، ومعتقدات، وأن يكون لديه حالات إدراكية أخرى عادة ما تكون مسندة للإنسان فقط. وتشمل الخصائص الرئيسة للذكاء الاصطناعي القوي: القدرة على التفكير والتفاعل الذكي، حل الألغاز، إصدار الأحكام، التخطيط والتعلم، والتواصل. كما يجب أن يكون لديه وعي، أفكار موضوعية، ومشاعر، وسلوك.

بينما الذكاء الاصطناعي الضعيف Weak artificial intelligence ( weak AI): ،هو شكل من أشكال الذكاء الاصطناعي المصمم خصيصًا لكي يركز على مهمة معينة تم تعيينها له بحيث يكون متقنا للغاية، وهو يتناقض مع الذكاء الاصطناعي القوي (الذكاء العام)، الذي يكون فيه الذكاء الاصطناعي قادرًا على جميع الوظائف الإدراكية التي يمتلكها الإنسان (يشبه الإنسان البشري الحقيقي).

كما أن أنظمة الذكاء الضعيف أو الضعيفة لا تمتلك ذكاء عاما، لديها ذكاء يحاكي السلوك الذكي في نطاق محدد. ومن الأمثلة الجيدة على الذكاء الاصطناعي الضعيف هو تطبيق “المساعد الشخصي SIRI” حيث يمكنه فهم أوامر المستخدمين، وإجراء محادثة مع أشخاص فعليين، ولكنه يعمل بطريقة محددة وفقا للبرمجة. ويمكن إثبات ذلك من خلال الأسئلة غير الدقيقة التي لا يستطيع البرنامج فهمها، فيبقى بدون استجابة لها.

كذلك يُستخدم الذكاء الضعيف في تحويل البيانات الضخمة إلى معلومات قابلة للاستخدام مثل اقتراحات الأصدقاء والمشتريات المقترحة من Amazon، كما تعد عوامل تصفية البريد الإلكتروني العشوائي مثالا آخر على نظام الذكاء الاصطناعي الضعيف حيث يستخدم الكمبيوتر خوارزمية للتعرف على الرسائل التي من المحتمل أن تكون غير مرغوب فيها، ثم يعيد توجيهها من البريد الوارد إلى مجلد الرسائل غير المرغوب فيها. كما تلتزم تقنيات الذكاء الاصطناعي الضعيف بهذا الشكل[19]. وباختصار فالذكاء الاصطناعي الضعيف لديه قدرة على تقليد جزء محدود من الذكاء البشري مثل الآلات الحاسبة، ونظرا لأن ذكائها محدود فلا داعي للقلق منها[20].

الروبوتات (Robotics) هي آلات كهروميكانيكية تتميز بهياكل قد تُشبه إلى حدّ ما شكل الإنسان، وتُبرمج لتنفيذ أعمال شاقة أو دقيقة أو خطرة عادةً ما ينجزها الإنسان، ولكن بدرجة أعلى من الدقة والسرعة. ويُنجز الروبوت مهامه بشكل آلي اعتمادًا على برامج حاسوبية، كما يمكن دعمه بأنظمة ذكاء اصطناعي تمنحه القدرة على الحركة، والتفاعل مع البيئة المحيطة، والتكيف مع مجموعة من العوامل الخارجية[21].

وتُعد المبادئ الأساسية للذكاء الاصطناعي، الأساس الذي يقوم عليه هذا الحقل التقني والعلمي، إذ تهدف إلى فهم كيفية عمل الأنظمة الذكية وتطبيقها في مجالات متعددة. ويعد التعلم الآلي أبرز هذه المبادئ، حيث يعتمد على تحليل البيانات باستخدام خوارزميات متقدمة لاكتشاف الأنماط واستنتاج السلوكيات المستقبلية، مما يساعد في اتخاذ قرارات دقيقة وفعّالة. ويتفرع التعلم الآلي إلى ثلاثة أنواع رئيسية: التعلم الإشرافي الذي يُدرَّب على بيانات مصنفة، والتعلم غير الإشرافي الذي يستخلص العلاقات من بيانات غير مصنفة، والتعلم التعزيزي الذي يقوم على مبدأ المكافأة والعقاب لتحسين أداء النظام بمرور الوقت.

إلى جانب هذه المبادئ، تُعد الشبكات العصبية الاصطناعية أداة محورية في تطوير الذكاء الاصطناعي، إذ تحاكي في عملها آلية الدماغ البشري من خلال طبقات مترابطة عبر الخلايا العصبية، وتُستخدم في تقنيات التعلم العميق لاستخراج الأنماط المعقدة من البيانات في مجالات مثل معالجة الصور، والتعرف على الصوت، وتحليل النصوص. كما تبرز أهمية الأنظمة الخبيرة والاستدلال المعرفي في تحليل المعلومات المعقدة وتوليد الحلول المناسبة بناءً على قاعدة معرفية واسعة، مما يجعل الذكاء الاصطناعي أداة فعالة في دعم القرار، وتحسين الأداء، وتعزيز الابتكار في مختلف القطاعات العلمية والاقتصادية[22].

المطلب الثاني: موقع حقوق الإنسان وأهميتها ضمن سياق القرارات الإدارية المؤتمتة

نُعالج في الفرع الأول حقوق الإنسان باعتبارها مبدأً موجها للقرارات الإدارية المؤتمتة، ثم نُبرز في الفرع الثاني إدماج الذكاء الاصطناعي في العمل الإداري، من خلال بيان فرص التطوير وحدود احترام الأمن القانوني وحقوق الإنسان.

الفرع الأول: حقوق الإنسان كمبدأ موجه للقرارات الإدارية المؤتمتة

بشكل مختصر نقوم بتعريف حقوق الإنسان والقرار الإداري المؤتمت (الفقرة الأولى)، وبعد ذلك نتطرق إلى احترام هذه الحقوق في الأتمتة الإدارية (الفقرة الثانية).

الفقرة الأولى: مفهوم حقوق الإنسان والقرار الإداري المؤتمت

إن موضوع حقوق الإنسان، موضوع فضفاض ويحتاج لأكثر من مقال، حبذا هنا أن نقوم بتعريف هذه الحقوق، حيت أن هذه الأخيرة هي مجموعة من الحقوق والحريات الأساسية التي يمتلكها كل إنسان لمجرد كونه إنسانًا، دون تمييز بسبب الجنس أو اللون أو الدين أو اللغة أو الأصل. تهدف إلى ضمان الكرامة، والحرية، والمساواة، والعدالة لكل فرد في المجتمع.

وجانبا من الفقه يرى أن حقوق الإنسان هي :” مجموعة الحقوق الطبيعية التي يمتلكها الإنسان واللصيقة بطبيعته والتي تظل موجودة وإن لم يتم الاعتراف بها، بل أكثر من ذلك، حتى ولو انتهكت من قبل سلطة ما”[23]. ومن جهة أخرى، فمصطلح “حقوق الإنسان” – الذي يتم تناوله دوليا – يعرف على أنه :” مجموعة الحقوق والمطالب الواجبة الوفاء بها لكل البشر على قدم المساواة دونما تمييز فيما بينهم”[24].

ويُقصد بالقرار الإداري المؤتمت، ذلك القرار الذي يُتخذ بصورة آلية اعتمادا على نظم معلوماتية وخوارزميات قادرة على تحليل البيانات المتاحة، وتطبيق القواعد القانونية والنماذج الإحصائية دون تدخل بشري مباشر. وتُستخدم هذه التقنية لتسريع معالجة الملفات وضمان الدقة في النتائج، بما يعزز كفاءة المرفق العمومي من خلال تقليص الأخطاء البشرية وتبسيط الإجراءات الإدارية، خصوصا في فحص الوثائق وتحديد المستحقين للخدمات أو الوظائف وفق معايير محددة سلفا. ويذهب الفقه إلى أن كلًّا من القرارات الإدارية الإلكترونية، والقرارات المتخذة في الفضاء الافتراضي، والقرارات الإدارية المؤتمتة، تعبر في جوهرها عن مضمون واحد، وهو القرار الذي تُصدره الإدارة بالاعتماد على تقنيات المعلومات وأنظمة الاتصالات الإلكترونية[25].

غير أن هذا النمط من القرارات، رغم مزاياه التقنية، قد يترتب عنه آثار سلبية في حال الإفراط في الاعتماد عليه، إذ يمكن أن يُكرّس بعض أشكال التمييز أو الانحياز بناءً على معطيات أو معايير غير موضوعية، نتيجة استناده إلى بيانات تاريخية أو نماذج تحليلية غير دقيقة، كما كشفت بعض التجارب الدولية في هذا المجال. فضلا عن ذلك، فإن ارتباط القرار الإداري بمنظومات مغلقة قد يقيّد إمكانيات الطعن والمراجعة، ويُضعف روح الاجتهاد القانوني، مما قد يؤدي إلى صدور قرارات غير منصفة رغم ما توفره هذه النظم من فعالية ظاهرية في الأداء الإداري[26].

الفقرة الثانية: احترام حقوق الإنسان في الأتمتة الإدارية

وتُعد حقوق الإنسان الإطار المرجعي لأي قرار إداري مؤتمت، حيث تشكل الضابط الأساسي الذي يمنع انحراف الأتمتة عن مقاصدها ويضمن عدم تحولها إلى وسيلة للمساس بالكرامة أو إقصاء الأفراد. فاعتماد التقنية في اتخاذ القرار يجب أن يظل خاضعا لمبدأ احترام الحقوق والحريات الأساسية، باعتباره الشرط الجوهري لمشروعيته في أي ممارسة إدارية.

يساهم الذكاء الاصطناعي في تحسين أداء الإدارة العمومية عبر دعم اتخاذ القرار، وتسريع المساطر الإدارية، وتقليص التعقيد البيروقراطي، وتعزيز التنسيق وتيسير الوصول إلى البيانات. كما يشكل أداة فعّالة للحد من الفساد والوساطة بفضل الاعتماد على معايير وقواعد مبرمجة تضمن السرعة والدقة وجودة القرار. ويُوفر كذلك معطيات دقيقة وموضوعية لتقييم النتائج، مستفيدًا من قدراته على التعلم الذاتي والتحليل المنطقي ومعالجة كميات هائلة من البيانات، ما جعله عنصرًا أساسيًا في مختلف المجالات[27].

بمعنى أنه يساهم عند توظيفه بشكل منضبط، في تعزيز حقوق الإنسان من خلال تكريس مبدأي الشفافية والمساواة أمام الإدارة، والحد من القرارات التعسفية والفساد. غير أن هذا الأثر الإيجابي يظل مشروطًا بإخضاع الأنظمة الذكية لضوابط قانونية وأخلاقية تحمي الحق في الخصوصية وتضمن عدم التمييز. فالتكنولوجيا بحد ذاتها محايدة، أما حماية الحقوق فتتوقف على كيفية تنظيم استخدامها ومراقبتها.

الفرع الثاني: إدماج الذكاء الاصطناعي في العمل الإداري: فرص التطوير وحدود احترام الأمن القانوني وحقوق الإنسان

وانسجاما مع العنوان أعلاه، سنتطرق فيما يلي إلى فرص التحول الرقمي القيادي في تعزيز الفعالية الإدارية (الفقرة الأولى)، ثم الأتمتة الإدارية وضرورة احترام مبدأ الأمن القانوني وحقوق الإنسان (الفقرة الثانية).

الفقرة الأولى: فرص التحول الرقمي القيادي في تعزيز الفعالية الإدارية

التحول الرقمي القيادي في الإدارة هو عملية تطبيق وتوظيف التقنيات الحديثة والتكنولوجيات المتنوعة (كالإنترنت، والحوسبة السحابية، والهواتف الذكية، والذكاء الاصطناعي) في مختلف وظائف الإدارة، مثل التخطيط والتنظيم والتوجيه واتخاذ القرار والرقابة والعلاقات العامة والتواصل والتنسيق.

ويمتد هذا التحول إلى وظائف المنظمة الأخرى كالإنتاج والتسويق والتمويل والموارد البشرية، بحيث تشمل عمليات إدارة الموارد البشرية المتنوعة (من تخطيط للموارد البشرية وتحديد الاحتياجات الوظيفية والاختيار والتوظيف والتدريب والتأهيل وتقييم الأداء وأنظمة الأجور والمكافآت والصحة المهنية)، وتطوير علاقات العمل الداخلية والخارجية لتحل محل التطبيقات التقليدية[28].

ويعد التحول الرقمي من أهم الفرص الإستراتيجية لتعزيز الفعالية الإدارية داخل المؤسسات العمومية والخاصة، إذ يتيح اعتماد التكنولوجيا الحديثة في تسيير الموارد والإجراءات الإدارية، تحقيق السرعة والشفافية والدقة في إنجاز المهام. فاستعمال الأنظمة الرقمية في إدارة الوثائق والمعطيات، وتبسيط المساطر الإدارية عبر المنصات الإلكترونية، يساهم في تقليص الزمن الإداري وتقليل التكاليف وتحسين جودة الخدمات المقدمة للمواطنين والمقاولات. كما يمكِّن التحول الرقمي من تعزيز مبدأ الحكامة الجيدة من خلال تتبع الأداء، واتخاذ القرارات المبنية على البيانات، وتقوية آليات الرقابة والتقييم المستمر. وإلى جانب ذلك، يشجع على الابتكار الإداري ويُحفِّز الكفاءات على اكتساب مهارات رقمية جديدة، مما يجعل الإدارة أكثر مرونة واستجابة للتغيرات المجتمعية والتكنولوجية، ويساهم في تحقيق تنمية مستدامة مبنية على الكفاءة والشفافية.

وتواجه القيادة الإدارية عدة معوقات تحول دون نجاح التحول الرقمي، من أبرزها محدودية عقلية بعض المسؤولين الذين يفتقرون إلى روح الإبداع والرؤية الحديثة، مما يؤدي إلى ضعف تبني السياسات والاستراتيجيات الداعمة للتحول. كما تعاني المؤسسات من مقاومة بعض الموظفين للتغيير وخوفهم من الأنظمة الرقمية الجديدة أو من فقدان وظائفهم، وهو ما يعيق عملية التكيف مع المستجدات. وإلى جانب ذلك، يشكل ضعف الثقافة التنظيمية عائقا أساسيا، حيث تفتقر بعض الإدارات إلى بيئة مؤسسية مشجعة على الابتكار وإلى البنية التحتية والموارد البشرية والمالية الكفيلة بإنجاح التحول الرقمي وتحقيق نتائجه المرجوة[29].

الفقرة الثانية: الأتمتة الإدارية وضرورة احترام مبدأ الأمن القانوني وحقوق الإنسان

قبل الخوض في الإشكالات القانونية والأخلاقية المرتبطة بالذكاء الاصطناعي، يبرز توظيفه المتزايد في العمل الإداري العمومي باعتباره أداة لتحسين الكفاءة والفعالية في مجالات متعددة، من بينها تسيير الموارد البشرية عبر فرز طلبات التوظيف وتقييم الأداء، وتحسين الخدمات الإدارية للمواطنين من خلال رقمنة المساطر والمساعدين الافتراضيين، ودعم التخطيط وصنع القرار بالاعتماد على تحليل المعطيات الضخمة والتنبؤ بالاحتياجات المستقبلية، إضافة إلى تعزيز المراقبة والشفافية عبر كشف التجاوزات وتتبع الصفقات العمومية، وتطوير العمل القضائي والإداري من خلال تحليل الاجتهادات وتسريع معالجة القضايا، فضلا عن دعم الإدارة الترابية في المراقبة الميدانية وتتبع المشاريع والتنبؤ بالأزمات، وهو ما يجعل هذه الاستعمالات في حاجة ملحة إلى ضمانات قانونية وأخلاقية ومؤسساتية واضحة.

كما يساهم الذكاء الاصطناعي في تطوير عملية اتخاذ القرارات وجعلها أكثر ذكاء ودقة، من خلال ما توفره تقنيات التعلم الآلي من قدرة على معالجة وتحليل كميات هائلة من البيانات في وقت قصير وبمستوى دقة يتجاوز الإمكانات البشرية. وبفضل هذه القدرات التحليلية المتقدمة، تُتيح الأنظمة المعتمدة على الذكاء الاصطناعي إنتاج رؤى وتوصيات دقيقة تستند إلى معطيات واقعية، من خلال تحديد الاتجاهات العامة، واستخلاص الأنماط الخفية، وإجراء التحليلات والتنبؤات التي تعين صُنّاع القرار في المجالات القانونية والإدارية وغيرها من القطاعات الحيوية[30].

كما ينبغي التمييز بين الأتمتة الكاملة والأتمتة الجزئية. فالأتمتة الكاملة تعني أن النظام يتكفل بجميع الإجراءات والتحقق من الشروط بشكل آلي ودون أي تدخل بشري، كما هو الحال في النمسا حيث تُصرف العلاوات الأسرية تلقائياً بمجرد تسجيل الطفل وتوافر الشروط القانونية. أما الأتمتة الجزئية (Assistance System) فتعتمد على أن يقوم النظام بأداء بعض الخطوات واقتراح الحلول، بينما يظل القرار النهائي بيد الإنسان. غير أن هذا النموذج يطرح إشكالية أساسية تتمثل في تحيز البيانات، وهو ما قد يؤثر سلبا على دقة المعلومات المعروضة ويُضلل متخذ القرار[31].

ومع انتشار أنظمة الذكاء الاصطناعي المعتمدة على القواعد المحددة مسبقًا (Rule-based AI systems)، والتي يُلجأ إليها في معالجة المسائل المتوقعة واتخاذ القرارات، يُنظر إلى هذه الأنظمة باعتبارها ملائمة بشكل خاص للقرارات الإدارية ذات السلطة المقيّدة، لما توفره من دقة عالية وتقليل لمعدلات الخطأ عند التطبيق. غير أن أبرز ما يُؤخذ عليها هو محدودية مرونتها، إذ تبقى أسيرة القواعد المبرمجة مسبقا، الأمر الذي يجعلها عاجزة عن التكيف مع الحالات المستجدة أو غير المتوقعة[32].

ويرتبط اتخاذ القرار الإداري بمدى توفر معلومات دقيقة وذات جودة عالية، باعتبارها الوسيلة الأساسية لتقليص درجة الغموض وتقليل مستوى المخاطر. فكلما كانت المعطيات أوضح، كان من الممكن بلوغ الأهداف بكفاءة أكبر، مع حسن توظيف الموارد وتحقيق أقصى منفعة بأقل التكاليف. كما تسمح المعلومات الموثوقة لصانعي القرار بتقييم مختلف السياسات والبدائل المتاحة بشكل أدق، عبر إبراز النتائج المتوقعة والآثار المحتملة، سواء قبل اعتماد القرار أو بعده[33].

وفي سياق موازٍ، تُعد الإدارة العامة الفرنسية من أبرز الإدارات التي أولت أهمية كبيرة لاعتماد المواقع الإلكترونية كوسيلة لإصدار القرارات وتنفيذها بشكل رقمي. إذ اعتادت على استقبال الطلبات والمعاملات المقدمة من المواطنين عبر هذه المنصات، ثم تقوم بدراستها واتخاذ ما يلزم بشأنها والتوقيع عليها إلكترونيا، قبل أن تُبلِّغ أصحابها بالنتائج عبر البريد الإلكتروني. كما طورت ما يُعرف بالقرارات الإدارية الفورية، حيث تتم الاستجابة للطلبات وإصدار القرار مباشرة دون إبطاء، وهو ما جعل التجربة الفرنسية نموذجا متقدما في مجال أتمتة الإجراءات الإدارية وإصدار القرارات[34].

كما أن المرفق العام الإلكتروني يراد به مشروع من الشبكات المرفقية المتصلة ببعضها البعض عن طريق الحاسب الآلي، وتتبع أشخاص القانون العام بشكل مباشر أو غير مباشر بغية تحقيق المصلحة العامة. ولكل عصر سماته ومتطلباته، وأحد أبرز متطلبات العصر الحالي هو التحول إلى الإدارة الذكية واعتماد التقنية والرقمنة كمنهاج عام لتحكم عملها، والأهم هو القدرة على الاستفادة من هذه الأدوات التكنولوجية الحديثة في الدفع بالإدارة قُدُماً.

وتقوم فلسفة الإدارة الذكية، التي يجري الحديث عنها الآن، على استخدام التطبيقات التكنولوجية في البيانات المعلومات عن عمليات الإدارة، وتوفير سبل الوصول إليها وتحليلها، فهي لا تتوقف المهمة عند مجرد جمع البيانات، ولا الحصول على البيانات في صورتها الخام، وإنما المساعدة في التحليل والتصنيف كذلك. وهو ما يساعد في اتخاذ القرار، ويمكن أن ندرج هذا التحول الإداري الحديث إن أحسنا استثماره ضمن رؤية ما يمكن أن تُنسب إليه القرارات الخاطئة من خسائر فادحة، ومن ثم يكون الاستثمار فيه ضرورة[35].

لا ريب أن الذكاء الاصطناعي سيحدث تحولا عميقا في المجال القانوني، إذ يعد هذا الأخير من أكثر المجالات التي تتضمن مهاما متكررة تستهلك وقتا وجهدا كبيرين، في حين يُعتبر الوقت موردا ثمينا بالنسبة للممارسين القانونيين، مما يجعل ترشيده واستثماره بفعالية أمرا حيويا. ويقضي المهنيون في هذا القطاع جزءا مهما من وقتهم في أعمال إدارية كإعداد المذكرات، وإجراء الاتصالات، ومراجعة التكاليف القانونية، وتحليل الوثائق، وغيرها من الإجراءات المعقدة. ونظرا للطابع الدقيق والحساس الذي يميز العمل القانوني، فإن فكرة تفويض المهام القانونية كليا للأنظمة الحاسوبية تثير تساؤلات حول حدود الموثوقية والدقة. ومع ذلك، فإن تطور الذكاء الاصطناعي المستمر يبشر بمستقبل تدمج فيه أدوات وتقنيات قانونية ذكية تعتمد على التعلم الآلي ومعالجة اللغة الطبيعية، بما يعزز من كفاءة العمل القانوني ويسهم في ترسيخ العدالة وتحسين جودة الممارسة القانونية[36].

ويُسهم الذكاء الاصطناعي، شأنه شأن باقي المجالات، في تطوير العمل القانوني بشكل ملموس من خلال توظيفه في جملة من الاستخدامات الجوهرية التي يقوم عليها مفهوم المساعد القانوني الذكي، إذ تبرز قدرته أولا في صياغة الوثائق القانونية اعتمادا على تقنيات المعالجة اللغوية والتوليد النصي، مما يسمح بإعداد المستندات القانونية المتكررة بسرعة ودقة كبيرتين، وتقليص الجهد والوقت والتكلفة مع ضمان تضمين المعطيات القانونية ذات الصلة، كما يُوظف في المراجعة القانونية عبر تدقيق وفحص النصوص المعقدة كالعقود والتشريعات والأحكام القضائية، مستندًا إلى قواعد بيانات ومكتبات رقمية واسعة تُمكنه من تحليل النصوص الطويلة واستخلاص عناصرها الجوهرية بكفاءة تفوق الأداء البشري وتحد من الأخطاء المحتملة، فضلا عن دوره البارز في التحليل القانوني من خلال معالجة كميات ضخمة من البيانات لاكتشاف الأنماط والعلاقات الخفية، بما يدعم اتخاذ القرار بشكل قانوني، ويُسرع من دراسة القضايا وبناء الاستنتاجات، ويسهم في تعزيز فعالية العمل القضائي وتحقيق العدالة في آجال زمنية أقصر[37].

وتكتسي عملية اتخاذ القرار أهمية استثنائية داخل الإدارات العمومية، نظرا لدورها المحوري في ضمان استمرارية المرفق العام وتحسين أدائه. فالقرار الإداري السليم يسهم في تعزيز كفاءة الإدارة العمومية وفعاليتها، إذ يُعد عملية مستمرة ترتبط ارتباطا وثيقا بمستقبلها ومسارها الاستراتيجي. وفي الفكر الإداري الحديث، ظهر ما يُعرف بـ “مدرسة اتخاذ القرارات”، التي ترى أن عملية اتخاذ القرار تمثل جوهر النشاط الإداري ومحوره الأساسي. إذ يقوم المسؤولون من خلالها بجمع المعلومات وتحليلها وتوظيفها لاتخاذ القرارات الأنسب في مواجهة المشكلات المختلفة، بما يضمن التوجيه الفعّال للموارد نحو تحقيق الأهداف العامة للإدارة العمومية[38].

وفي هذا السياق، يعتبر الذكاء الاصطناعي من الأدوات الحديثة التي تدعم عملية اتخاذ القرار الإداري، إذ يساهم في تحليل كميات ضخمة من البيانات، واستنتاج الأنماط والعلاقات، واقتراح الحلول الأنسب للمشكلات الإدارية، مما يعزز فعالية الإدارة العمومية في اتخاذ قرارات دقيقة وسريعة قائمة على المعرفة والتحليل العلمي.

المبحث الثاني: مبدأ الأمن القانوني وحقوق الإنسان في ظل الأتمتة الإدارية: المخاطر والضمانات

نتناول في المطلب الأول، المخاطر القانونية والأخلاقية لتوظيف الذكاء الاصطناعي في العمل الإداري على حقوق الإنسان ، ثم في المطلب الثاني الضمانات المقترحة لتحقيق التوازن بين الفعالية الإدارية وحماية حقوق الإنسان.

المطلب الأول: المخاطر القانونية والأخلاقية لتوظيف الذكاء الاصطناعي في العمل الإداري على حقوق الإنسان

رغم ما يتيحه الذكاء الاصطناعي من فرص لتطوير العمل الإداري والرفع من كفاءته، إلا أن اعتماده يثير جملة من المخاطر القانونية والأخلاقية التي تستدعي الحذر. فمن الناحية القانونية، يطرح إشكال تحديد المسؤولية عند وقوع الأخطاء الناتجة عن القرارات المؤتمتة، إضافة إلى ما يرافق ذلك من تحديات تتعلق بحماية المعطيات الشخصية وضمان الشفافية والانسجام مع القواعد الدستورية والمبادئ العامة للقانون. أما من الناحية الأخلاقية، فإن الاعتماد على الأنظمة الذكية في إصدار القرارات الإدارية قد يؤدي إلى المساس بمبدأ العدالة والإنصاف نتيجة غياب البعد الإنساني، فضلاً عن احتمال وقوع انحيازات بسبب طبيعة البيانات المستعملة، إلى جانب غموض الخوارزميات الذي يجعل من الصعب مراقبة القرارات أو الطعن فيها. وعليه، فإن التحديات القانونية والأخلاقية مترابطة، وتقتضي وضع أطر دقيقة توازن بين الاستفادة من مزايا الذكاء الاصطناعي وضمان احترام حقوق الإنسان وقيم العدالة والمشروعية.

وعليه نعرج على المخاطر القانونية الناشئة عن القرارات الإدارية المؤتمتة في الفرع الأول، وبعد ذلك الإشكالات الأخلاقية الناتجة عن ه في الفرع الثاني.

الفرع الأول: المخاطر القانونية الناشئة عن القرارات الإدارية المؤتمتة

ينطوي الاعتماد على القرارات الإدارية المؤتمتة على مجموعة من المخاطر القانونية، من أبرزها انحراف السلطة في القرارات الإدارية المؤتمتة (الفقرة الأولى)، وهي من المخاطر التي تهدد مشروعية القرار الإداري ذاته. كما تُطرح في هذا السياق إشكالية تحديد المسؤولية القانونية عن الأخطاء الناتجة عن الأنظمة الذكية (الفقرة الثانية)، باعتبارها من النتائج المترتبة على تحقق تلك المخاطر وما قد ينجم عنها من أضرار قانونية أو مادية.

الفقرة الأولى: انحراف السلطة في القرارات الإدارية المؤتمتة

ويقصد بانحراف السلطة في القرارات الإدارية المؤتمتة لجوء الإدارة إلى استعمال الأنظمة الآلية أو الخوارزميات في إصدار قراراتها لأغراض غير التي خُوِّلت لها السلطة من أجلها، كأن تتذرع بالذكاء الاصطناعي لتحقيق أهداف سياسية أو تمييزية أو انتقامية تخالف المصلحة العامة. ويأخذ هذا الانحراف صورًا متعددة، منها التحكم في معايير الخوارزمية لتوجيه النتائج، أو إخفاء المنطق البرمجي بغرض حرمان المتضرر من معرفة أسباب القرار، أو استعمال الذكاء الاصطناعي كغطاء لتبرير قرارات تعسفية. ورغم الطابع التقني لهذه القرارات، فإن القضاء الإداري يبقى مختصا برقابتها متى ثبت أن القرار المؤتمت قد انحرف عن الغاية المشروعة أو بني على معطيات مغلوطة. غير أن إثبات الانحراف في هذا المجال يواجه صعوبات تقنية، أبرزها غياب الشفافية الخوارزمية وصعوبة فهم آلية اتخاذ القرار الآلي. لذا يقتضي الأمر إدخال مبادئ جديدة في القانون الإداري، أهمها إلزام الإدارة بالشفافية في تصميم واستعمال الخوارزميات، وتدعيم الرقابة القضائية بخبرات تقنية، مع الإبقاء على تدخل العنصر البشري في المراحل الحاسمة من اتخاذ القرار لضمان تحقيق مبدأ المشروعية وحماية الحقوق والحريات.

الفقرة الثانية: إشكالية تحديد المسؤولية القانونية عن الأخطاء الناتجة عن الأنظمة الذكية

إن توظيف الذكاء الاصطناعي في المجال الإداري يثير إشكالات قانونية معقدة، من أبرزها مسألة تحديد المسؤولية القانونية عند وقوع خطأ أو ضرر ناتج عن القرارات المؤتمتة. فالسؤال المحوري يتمثل في: من يتحمل المسؤولية، هل هو المبرمج، أم الإدارة التي اعتمدت النظام، أم الشركة المطورة للتقنية؟ كما يشكل موضوع حماية المعطيات الشخصية تحديا كبيرا، خاصة في ظل توسع نطاق جمع البيانات وتحليلها دون ضمانات كافية لحماية الخصوصية. إضافة إلى ذلك، يظل غياب إطار قانوني واضح يواكب التطور السريع للتقنيات الذكية عاملاً يزيد من خطورة الاعتماد المفرط عليها، مما قد يؤدي إلى تعارض مع المبادئ الدستورية.

وعليه، تبرز على الإدارة العمومية مسؤوليات متزايدة في مجال التكيف مع ثورة الذكاء الاصطناعي بوجه عام، ومع التطبيقات الخوارزمية على وجه الخصوص، وهو ما يفرض عليها التزامات متشابكة لضمان استثمار هذه التقنيات بشكل فعّال وآمن. ويأتي في مقدمة هذه الالتزامات ضرورة توفير التأهيل والتكوين المستمر للأعوان والموظفين المكلّفين بتشغيل تلك الأنظمة، حتى يتمكنوا من متابعتها والإشراف المباشر على أدائها. كما تلتزم الإدارة بتحمل تبعات الأضرار التي قد تنشأ نتيجة اعتمادها على هذه الخوارزميات، سواء بسبب تقصير في رصد العيوب الواضحة خلال مرحلة الاختبار أو بسبب أخطاء في التنفيذ. غير أن العيوب المستترة التي تتضمن مخالفات خطيرة، كالممارسات التمييزية أو تسريب المعطيات في الخفاء، قد تترتب عنها مسؤولية خاصة تقع على عاتق المصممين والمهندسين القائمين على بناء تلك البرمجيات[39].

الفرع الثاني: الإشكالات الأخلاقية الناتجة عن القرارات الإدارية المؤتمتة

نعرج فيما يلي على صون حرية الرأي والتعبير أمام تحديات الذكاء الاصطناعي (الفقرة الأولى)، وبعد ذلك الذكاء الاصطناعي وضمان الحق في الخصوصية والأمن (الفقرة الثانية).

الفقرة الأولى: صون حرية الرأي والتعبير أمام تحديات الذكاء الاصطناعي

ورغم ما يتيحه الذكاء الاصطناعي من فرص لتطوير العمل الإداري والرفع من كفاءته، إلا أن اعتماده يثير جملة من المخاطر القانونية والأخلاقية التي تستدعي الحذر. فمن الناحية القانونية، يطرح إشكال تحديد المسؤولية عند وقوع الأخطاء الناتجة عن القرارات المؤتمتة، إضافة إلى ما يرافق ذلك من تحديات تتعلق بحماية المعطيات الشخصية وضمان الشفافية والانسجام مع القواعد الدستورية والمبادئ العامة للقانون. أما من الناحية الأخلاقية، فإن الاعتماد على الأنظمة الذكية في إصدار القرارات الإدارية قد يؤدي إلى المساس بمبدأ العدالة والإنصاف نتيجة غياب البعد الإنساني، فضلا عن احتمال وقوع انحيازات بسبب طبيعة البيانات المستعملة، إلى جانب غموض الخوارزميات الذي يجعل من الصعب مراقبة القرارات أو الطعن فيها. وعليه، فإن التحديات القانونية والأخلاقية مترابطة، وتقتضي وضع قانونية ومؤسساتية وأخلاقية دقيق توازن بين الاستفادة من مزايا الذكاء الاصطناعي وضمان احترام حقوق الأفراد وقيم العدالة والمشروعية.

مع التوسع السريع لتطبيقات الذكاء الاصطناعي، ازدادت المخاوف المرتبطة بالخصوصية والأمن بسبب اعتماد هذه التطبيقات على كميات ضخمة من البيانات الشخصية. وتزداد أهمية هذا الموضوع في ظل تصاعد الهجمات السيبرانية التي تستهدف البيانات والمعلومات الحساسة، ما يفرض ضرورة اعتماد استراتيجيات فعّالة لحماية البيانات وتحديد المسؤوليات القانونية للمستخدمين وغيرهم.

وتتطلب هذه المرحلة الالتزام بالمعايير الأخلاقية والقوانين التي تضمن الشفافية والمسؤولية في التعامل مع البيانات. فنجاح تطبيقات الذكاء الاصطناعي لا يمكن أن يتحقق إلا عبر تحقيق توازن دقيق بين الاستفادة من البيانات وبين حماية الخصوصية والأمن المعلوماتي. إذ تعتمد التطبيقات الذكية على جمع بيانات حساسة عن سلوك المستخدمين وتفضيلاتهم، مما يفرض اعتماد أنظمة قوية تضمن عدم إساءة استخدام هذه البيانات[40].

ورغم أن العلاقة بين حرية التعبير وتقنيات الذكاء الاصطناعي قد تبدو بعيدة في الظاهر، إلا أن التعمق في هذه المسألة يُظهر ترابطا وثيقا بينهما. فالذكاء الاصطناعي أصبح اليوم أحد أبرز الأدوات المؤثرة في تشكيل الوعي الجمعي، من خلال قدرته على التحكم في ما يُعرض من معلومات وكيفية تداولها. إذ تعتمد المؤسسات الإعلامية والمنصات الرقمية على خوارزميات الذكاء الاصطناعي في تنظيم المحتوى وترتيب أولوياته، مما يؤثر مباشرة في ما يراه الأفراد ويقرأونه ويُكوِّنون على أساسه مواقفهم وآراءهم.

وتتجلى خطورة هذا الواقع في تركُّز السيطرة على أنظمة الذكاء الاصطناعي في أيدي عدد محدود من الشركات الكبرى، القادرة على توجيه تدفق المعلومات وفقا لمصالحها الاقتصادية أو السياسية. فاحتكار هذه الشركات لوسائل النشر والتصفية قد يؤدي إلى تغييب أو تهميش بعض الحقائق وإبراز أخرى، وهو ما يشكل تهديدا جوهريا لحرية التعبير، ويقوض قدرة المجتمعات على اتخاذ قرارات حرة وواعية مبنية على معرفة متوازنة وشاملة[41].

الفقرة الثانية: الذكاء الاصطناعي وضمان الحق في الخصوصية والأمن

إن مبدأ الخصوصية والأمن، يهدف إلى حماية البيانات الشخصية وضمان معالجتها بأمان ومسؤولية داخل أنظمة الذكاء الاصطناعي. ويقوم على تصميم أنظمة تحافظ على سرية المعلومات وتمنع تسربها أو إساءة استخدامها، من خلال بروتوكولات أمنية متقدمة وتحديد دقيق للصلاحيات. كما يشمل مراقبة العمليات والالتزام بالقوانين والأخلاقيات لضمان الشفافية والثقة. يُعد هذا المبدأ التزاما مستمرا يرافق كل مراحل النظام، من التصميم إلى التشغيل، لتحقيق التوازن بين الاستفادة من الذكاء الاصطناعي وصون حقوق الأفراد وخصوصيتهم[42].

كلما توسعت دائرة الأدوات والتطبيقات المعتمدة على الذكاء الاصطناعي، تعاظمت معها التحديات والمخاطر المحتملة الناتجة عن استخدامه. ويُعدّ المساس بالخصوصية من أبرز هذه التحديات، إذ أضحى الذكاء الاصطناعي عنصرا محوريا لا غنى عنه في مختلف مناحي الحياة اليومية. فقد أسهم الانتشار الواسع للتكنولوجيا في جعل الأفراد في حالة تفاعل دائم مع أنظمة الذكاء الاصطناعي حول العالم، مما جعلها تؤثر بشكل مباشر في سلوكياتهم وقراراتهم، بل وتتغلغل في أدق تفاصيل حياتهم الخاصة.

وبناءً على ما سبق ذكره، يتضح أن الاستخدام المتزايد للذكاء الاصطناعي، رغم ما يوفره من فرص وإمكانات، يثير في المقابل تساؤلات جوهرية تتعلق بحماية حقوق الإنسان، وفي مقدمتها الحق في الخصوصية. لذا، فإن ضمان الاستخدام الآمن والمسؤول لهذه التقنيات يستوجب وضع أطر قانونية وتنظيمية دقيقة، تكفل التوازن بين التطور التكنولوجي ومتطلبات حماية الكرامة الإنسانية[43].

المطلب الثاني: الضمانات المقترحة لتحقيق التوازن بين الفعالية الإدارية وحماية حقوق الإنسان

نتناول في الفرع الأول، الضمانات القانونية والمؤسساتية لترسيخ الأمن القانوني وبعدها في الفرع الثاني، الضمانات التقنية والأخلاقية لترسيخ الشفافية والمسؤولية في الأتمتة.

الفرع الأول: الضمانات القانونية والمؤسساتية لترسيخ الأمن القانوني

نستعرض فيما يلي، الإطار التشريعي والتنظيمي للأتمتة الإدارية (الفقرة الأولى)، وبعد ذلك دور المؤسسات الرقابية والقضائية في حماية الحقوق في ظل الأتمتة الإدارية (الفقرة الثانية).

الفقرة الأولى: الإطار التشريعي والتنظيمي للأتمتة الإدارية

يُعد المغرب من الدول العربية التي سنت مجموعة من القوانين لتنظيم التحول الرقمي وتأمين استخدام التقنيات الحديثة، ونجد هنا القانون رقم 09.08 الخاص بحماية الأشخاص تجاه معالجة المعطيات ذات الطابع الشخصي[44]. واعتمد المشرّع أيضا القانون رقم 43.20 المتعلق بخدمات الثقة بشأن المعاملات الإلكترونية[45]، لتنظيم التوقيع والختم والإرسال الإلكتروني المضمون، والقانون رقم 05.20 حول الأمن السيبراني[46] الذي يهدف إلى حماية نظم المعلومات من الهجمات الرقمية. أما في ما يخص الذكاء الاصطناعي، فالمغرب لا يتوفر بعد على قانون شامل ومتكامل، غير أن هناك مشروع قانون إطار قيد الإعداد يهدف إلى وضع أسس الحكامة الأخلاقية والتقنية لاستعمال الذكاء الاصطناعي، مع ضمان مبادئ الشفافية والمساءلة واحترام حقوق الإنسان، كما تم اقتراح إنشاء وكالة وطنية للذكاء الاصطناعي تتولى مهام الرقابة والتنظيم. وبذلك.

ويبرز توجه المشرّع المغربي نحو تنظيم التحول الرقمي والذكاء الاصطناعي باعتباره ركيزة لتحقيق الأمن القانوني وحماية حقوق الإنسان، من خلال ضبط استعمال التكنولوجيا، ضمان الشفافية والمساءلة، وحماية الأفراد من التعسف التقني، بما يجعل الرقمنة أداة لخدمة الإنسان لا للهيمنة عليه. غير أن هذه الدينامية لا تزال في مرحلة التأسيس ولم تبلغ بعد مستوى النضج التشريعي الكامل.

الفقرة الثانية: دور المؤسسات الرقابية والقضائية في حماية الحقوق في ظل الأتمتة الإدارية

إلى جانب ذلك، تضطلع المؤسسات الرقابية بدور محوري في تتبع عمل الإدارات وتقييم مدى احترامها لمبادئ الشفافية والإنصاف، حيث تتدخل هيئات مستقلة مثل هيئات حماية البيانات أو المجالس العليا للحسابات لتأمين رقابة فعلية. كما تسهر اللجان البرلمانية والحكومية على مساءلة الإدارة وضمان احترام القوانين، مما يعزز مبدأ الشفافية والمحاسبة في تدبير الشأن العام بما فيه الرقمي.

وعلى المستوى الدولي، أقر مجلس حقوق الإنسان التابع للأمم المتحدة، بإجماع أعضائه، مجموعة من التدابير الرقابية والوقائية المرتبطة باستخدام تقنيات الذكاء الاصطناعي. ويهدف هذا القرار إلى تعزيز مبادئ الشفافية في توظيف تطبيقات الذكاء الاصطناعي، وضمان إدارة جميع البيانات ذات الصلة ـــــــ من مراحل جمعها واستخدامها ومشاركتها وتخزينها وصولا إلى حذفها ــــــ بما يتوافق مع المعايير والمبادئ الأساسية لحقوق الإنسان.

ورغم أن المجلس سبق أن تناول قضايا تتعلق بالتقنيات الحديثة بوجه عام، فإن هذه المرة تُعد السابقة الأولى التي يتم فيها تناول موضوع تطوير الذكاء الاصطناعي بعمق وتحليل معمّق. كما شهدت الفترة الأخيرة تصاعدا في الدعوات الصادرة عن قادة دوليين وخبراء وممثلين للأمم المتحدة، تطالب بوضع أطر تنظيمية وتشريعية دقيقة تضمن أن تبقى تطبيقات الذكاء الاصطناعي في خدمة الإنسان، وألا تتحول إلى مصدر تهديد له أو لحقوقه الأساسية.[47]

ومن جهته، يلعب القضاء الإداري دورا محوريا في حماية الحقوق في ظل الأتمتة الإدارية، إذ يعد الضامن الأساسي لمشروعية القرارات الإدارية الصادرة عن الأنظمة المؤتمتة. فهو يراقب مدى احترام الإدارة للمبادئ القانونية، خصوصا المساواة والشفافية، ويُعيد التوازن بين السلطة التقديرية للإدارة وحقوق الأفراد المتضررين من قرارات آلية قد تشوبها أخطاء تقنية أو انحرافات خوارزمية. كما يسهم القضاء الإداري في تطوير الرقابة القانونية لتشمل الخوارزميات وأنظمة الذكاء الاصطناعي، مكرسا بذلك مفهوم “القاضي الرقمي” الذي يواكب التحول التكنولوجي دون التفريط في ضمانات العدالة والإنصاف.

وتقوم الضمانات القانونية والمؤسساتية بدور أساسي في تأمين شرعية استعمال الوسائل الرقمية والتكنولوجية الحديثة في مجال الإدارة أو أي قطاع آخر. فهي توفر الإطار التشريعي الذي يحدد القواعد المنظمة لهذا الاستعمال، ويبين حقوق الأفراد وواجبات الإدارة. كما تضمن هذه الضمانات إمكانية اللجوء إلى القضاء الإداري للطعن في أي قرار مؤتمت غير مشروع، مع إقرار حق الأفراد في حماية معطياتهم الشخصية وصون خصوصيتهم.

الفرع الثاني: الضمانات التقنية والأخلاقية لترسيخ الشفافية والمسؤولية في الأتمتة

نتطرق فيما يلي إلى، متطلبات الشفافية وتفسير القرارات الآلية (الفقرة الأولى)، وبعد ذلك إلى المسؤولية الأخلاقية عن الاتمتة الإدارية (الفقرة الثانية).

الفقرة الأولى: متطلبات الشفافية وتفسير القرارات الآلية

ترتبط منظومة الذكاء الاصطناعي في الإدارة العمومية بالمرتكزات الأساسية التي تقوم عليها فكرة المرفق العام، من إنصاف المواطنين وضمان المساواة بينهم في التمتع بالخدمات، إلى تيسير ولوجها وتطويرها بشكل مستمر. إن احترام هذه المبادئ يضفي المشروعية على القرارات الإدارية ويحقق الغاية المرجوة من التكنولوجيا المستعملة، شريطة أن تُبنى الخوارزميات على قواعد دقيقة، وأن تُصاغ من قبل هيئات قانونية مختصة تلتزم بالشفافية والوضوح، بما يتيح للقضاء والأفراد مراقبة القرارات ومراجعتها. ومع ذلك، غالبا ما تظل هذه الخوارزميات مطموسة داخل أنظمة مغلقة تشبه “الصناديق السوداء”، وهو ما يشكل عائقا أمام تكريس مبدأ الشفافية في الممارسة الإدارية[48].

ومن منظور موازٍ، يُعد حق المواطن في الإحاطة الكاملة بالأسس والمعايير التي تُبنى عليها القرارات الإدارية الصادرة في حقه من الحقوق الأساسية المرتبطة بمبدأي الشفافية وحسن الإدارة. ويقتضي ذلك تمكينه من الاطلاع على القواعد والخوارزميات التي تسهم في تحديد وضعيته القانونية أو الإدارية، متى كان القرار متخذا كليا أو جزئيا بواسطة نظم آلية. وعلى هذا الأساس، كرّست عدة تشريعات مقارنة مبدأ «الحق في الإعلام» فيما يخص المعطيات المرتبطة بالأنظمة الخوارزمية المعتمدة في اتخاذ القرارات الفردية. ويُعدّ التشريع الفرنسي مثالا بارزا في هذا المجال، إذ نصّت المادة السادسة من قانون الجمهورية الرقمية على إدخال تعديل على قانون العلاقات بين الإدارة والمتعاملين معها، ولا سيما من خلال إقرار مقتضيات المادة L.312-1-3، التي تعزّز التزام الإدارة بتمكين المعنيين من معلومات جوهرية بشأن منطق اشتغال المعالجة الخوارزمية وأثرها في القرار الإداري، حيث تم التنصيص صراحة على هذا الحق والذي جاء فيها: “مع مراعاة الأسرار المحمية بموجب الفقرة الثانية من المادة L. 311-5، فإنه على الإدارات […] أن تنشر عبر الإنترنت القواعد التي تحدد المعالجات الخوارزمية المستعملة في أداء مهامها عند اتخاذ القرارات الفردية”[49].

إن تجديد الذكاء الاصطناعي وتوسيع مجالات استخدامه يقتضيان فهما عميقا لمختلف الأبعاد المرتبطة به، إذ يُعد من الضروري أن يظلّ المطورون والعاملون في هذا المجال واعين تماما بالتحديات التي قد تنشأ عن توظيف هذه التكنولوجيا بطرق غير مسؤولة. فإهمال الجوانب الأخلاقية قد يؤدي إلى الإضرار بالخصوصية والأمان، ويؤثر سلبا في شفافية البيانات وآليات جمعها واستعمالها، خاصة في المجالات ذات الحساسية العالية[50].

أما الضمانات التقنية، فهي تمثل الجانب العملي والتطبيقي لضمان نزاهة وفعالية النظم الرقمية. فالشق التقني يفرض اعتماد آليات متطورة لحماية البيانات من الاختراق أو التلاعب، من خلال التشفير والنسخ الاحتياطية واستعمال معايير تقنية دولية تضمن سلامة المعالجة الرقمية. كما يشمل ذلك مراقبة أداء الخوارزميات والتأكد من خلوها من الانحياز أو الأخطاء التي قد تؤدي إلى قرارات غير عادلة.

الفقرة الثانية: المسؤولية الأخلاقية عن الاتمتة الإدارية

ومن الناحية الأخلاقية، تقتضي هذه الضمانات احترام القيم الإنسانية الأساسية، وعلى رأسها العدالة والمساواة، بحيث لا يؤدي استعمال الذكاء الاصطناعي أو القرارات المؤتمتة إلى أي شكل من أشكال التمييز. كما تفرض ضرورة إشراك العنصر البشري في المراحل الحساسة من اتخاذ القرار، لضمان التوازن بين فعالية التكنولوجيا ومتطلبات العدالة الإنسانية. وتظل حماية كرامة الأفراد وخصوصياتهم واجبا أخلاقيا لا يمكن تجاوزه تحت مبرر التطور التقني. والمسؤولية الأخلاقية عن الأتمتة الإدارية تتجلى أولا في قرار الإنسان بأتمتة الفعل الإداري وتصميم الخوارزمية وما يتضمنه من اختيارات وقيم وتحيزات. وتظهر ثانيا في اعتماد النظام وتشغيله دون إشراف بشري فعلي أو إمكانية تفسير القرار والطعن فيه. أما أخطر مظاهرها فتتمثل في التنصل من المسؤولية بدعوى “قرار آلي”، وهو في الحقيقة هروب إداري من المحاسبة.

كما إن تطوير الذكاء الاصطناعي وتطبيقاته يتطلب فهما عميقا للجوانب الأخلاقية المرتبطة به. لذلك من الضروري أن يظل القائمون على تطوير هذه التكنولوجيا واعين تماما بالتحديات التي قد ترافق عملهم، إذ إن استخدام الذكاء الاصطناعي بطرق غير مسؤولة قد يؤدي إلى آثار سلبية تمس الخصوصية والأمن الشخصي. ومن هنا تبرز أهمية مراعاة مبادئ الشفافية في جمع البيانات واستخدامها، إلى جانب تبني سياسات واضحة تضمن احترام القيم الأخلاقية في مختلف مراحل التطوير والتطبيق. وتشير العديد من الدراسات الحديثة( Janas وآخرون، 2024 ) إلى ضرورة تحقيق توازن بين الابتكار التقني ومتطلبات الأخلاق، من خلال السعي إلى إيجاد حلول تراعي احتياجات الأفراد والمجتمع. كما يؤكد الباحثون أن تعزيز الأخلاقيات في الذكاء الاصطناعي يسهم في تطوير تقنيات أكثر أمانا ومسؤولية، ويقلل من المخاطر المحتملة الناتجة عن سوء الاستخدام في مجالات متعددة، سواء في الطب أو التعليم أو غيرهما[51]

وقد تصدر النقاش العلمي القلق المتزايد من اعتبار أنظمة تعلم الآلة بمثابة «صناديق سوداء»، إذ إن عددا كبيرا من الخوارزميات الحديثة يُنتج قرارات ونتائج يصعب تتبع منطقها أو تفسيرها. واستجابة لذلك، برزت موجة واسعة من الأبحاث الحديثة التي اقترحت تقنيات تهدف إلى توفير تفسيرات قابلة للفهم لنماذج «الصندوق الأسود» دون الإضرار بمستوى دقتها، ومن بين هذه التقنيات: الأساليب التفسيرية المحلية والعالمية للنماذج وتنبؤاتها، وتقنيات تصور تدفق المعلومات داخل الشبكات العصبية، فضلا عن مقاربات تسعى إلى تعليم النماذج ذاتها كيفية تقديم تفسيرات لقراراتها[52].

ومن المتفق عليه أن الذكاء الاصطناعي يحمل في طياته فوائد جمة للبشرية، إذ يمكنه تعزيز القدرة على الاستشراف الاستراتيجي والتنبؤ بالمستقبل، وتوسيع نطاق الوصول إلى المعرفة بشكل ديمقراطي، وتسريع وتيرة التقدم العلمي، إضافة إلى تمكين الإنسان من معالجة كميات ضخمة من المعلومات في وقت وجيز. غير أن الاستفادة المثلى من هذه الإمكانات تستوجب الحرص على أن تفوق المنافعُ المخاطرَ، مع وضع ضوابط واضحة تضمن الاستخدام الآمن والمسؤول لهذه التكنولوجيا. ولكي تكون هذه الضوابط فعالة وإنسانية، ولكي يبقى تطوير التقنيات الجديدة متمحورًا حول الإنسان، لا بد أن يستند أي تنظيم أو إطار قانوني إلى احترام حقوق الإنسان كأساس ثابت. وفي هذا السياق، يمكن تمييز بين مدرستين فكريتين توجهان مسار تنظيم الذكاء الاصطناعي اليوم:[53]

المدرسة الأولى تعتمد نهجا يقوم على تقييم المخاطر، حيث تركز بشكل رئيسي على التنظيم الذاتي والتقييم الداخلي من قبل مطوري أنظمة الذكاء الاصطناعي، دون اللجوء إلى قواعد تفصيلية صارمة. حيث يهدف هذا النهج إلى الحد من المخاطر وتحقيق النتائج المرجوة، لكنه في المقابل يُلقي بقدر كبير من المسؤولية على عاتق الشركات والمطورين. والمدرسة الثانية تدمج مبادئ حقوق الإنسان في جميع مراحل دورة حياة الذكاء الاصطناعي، بدءًا من جمع البيانات واختيارها، مرورا بعمليات التصميم والتطوير، وصولا إلى نشر النماذج واستخدامها.

إن تكريس حقوق الإنسان في سياق الأتمتة الإدارية لا يكتمل إلا بوجود ضمانات عملية وقانونية تحميها، من خلال آليات للشفافية والمساءلة، وإقرار حق الأفراد في الطعن والمراجعة، وتمكين الرقابة المؤسسية والقضائية على عمل الخوارزميات. وبذلك يتحقق التوازن بين متطلبات الكفاءة والسرعة التي توفرها الأتمتة وبين احترام حقوق الإنسان الأساسية المكفولة دستوريا.

وتثير تقنيات الذكاء الاصطناعي تحديات جدّية مرتبطة بحماية الخصوصية والأمن المعلوماتي، نتيجة قدرتها على جمع وتحليل بيانات حساسة، مما يفرض سنّ قواعد قانونية ملزمة تضمن الاستخدام الأخلاقي للبيانات. ومع تسارع التطور التكنولوجي، تزداد الحاجة إلى آليات تحقق مستويات عالية من الأمان والشفافية في معالجة المعطيات والبيانات ( (Alasdair Swenson, 2023 ،كما يُنتظر من الإدارات العمومية توضيح طرق استخدام البيانات والمعايير المعتمدة، بما يعزز ثقة المواطنين في الخدمات الرقمية. ويظل البعد الأخلاقي محورياً في إدماج الذكاء الاصطناعي داخل القطاع العام، عبر أطر تنظيمية تضمن الاستخدام المسؤول والعادل،وعليه، ينبغي أن يركز النقاش الأكاديمي والإداري على مبادئ المسؤولية والشفافية والمساءلة، بما يدعم حوكمة فعّالة للذكاء الاصطناعي في المرفق العمومي، من خلال تعاون وثيق بين الباحثين والممارسين وصنّاع القرار لتحقيق توازن بين الابتكار وحماية الحقوق الأساسية[54].

خاتمة:

يتضح من خلال ما سبق ذكره، أن الذكاء الاصطناعي أصبح أحد أهم التحولات المفصلية في تاريخ الإدارة العمومية الحديثة، إذ غير جذريا طرق اشتغال المرافق العمومية، وفرض على المنظومة القانونية والإدارية إعادة النظر في مفاهيمها التقليدية المرتبطة بالقرار الإداري، والمساءلة، والمسؤولية، والشفافية. فالإدارة لم تعد تعتمد فقط على العنصر البشري في إنجاز مهامها، بل باتت تستند إلى أنظمة ذكية قادرة على تحليل المعطيات واتخاذ قرارات آلية قد تمس بشكل مباشر بحقوق الأفراد وحرياتهم. هذا التحول الرقمي العميق، رغم ما يحمله من وعود بالكفاءة والسرعة والدقة، يثير تساؤلات جوهرية حول مدى احترامه لمبادئ الأمن القانوني وحقوق الإنسان، باعتبارهما حجر الزاوية لأي إدارة حديثة تسعى إلى تحقيق العدالة والإنصاف في تعاملها مع المواطنين. ومن ثَمَّ، فإن التحدي الأكبر اليوم يتمثل في إيجاد صيغة تضمن الاستفادة من قدرات الذكاء الاصطناعي دون المساس بكرامة الإنسان وحقوقه الدستورية والقانونية.

إن الأمن القانوني في ظل التحول الرقمي لم يعد مقتصرا على وضوح النصوص واستقرارها، بل أصبح يشمل أيضا شفافية الخوارزميات واستقلالية القرار الإداري عن التأثيرات التقنية غير المبررة. فكل قرار آلي يجب أن يكون قابلا للفهم والمراجعة، حتى لا يتحول الذكاء الاصطناعي إلى سلطة خفية تتخذ قرارات باسم المصلحة العامة دون إمكانية محاسبتها. كما أن حقوق الإنسان في البيئة الإدارية الرقمية تواجه تحديات جديدة تتعلق بحماية المعطيات الشخصية، وضمان المساواة في الولوج إلى الخدمات، واحترام الحق في الطعن والمراجعة ضد القرارات المؤتمتة.

وتكمن العلاقة بين حقوق الإنسان والذكاء الاصطناعي ومبدأ الأمن القانوني في المجال الإداري في كون الأتمتة الإدارية لا تُعد مشروعة إلا إذا احترمت ضمانات حقوق الإنسان، خاصة حق التعليل والشفافية وإمكانية الطعن، ذلك أن استعمال الذكاء الاصطناعي في اتخاذ القرارات الإدارية مثلا قد يحقق الفعالية والسرعة، لكنه يهدد الأمن القانوني متى أدى إلى غموض القواعد أو عدم قابلية توقع القرار، مما يجعل إخضاعه لضوابط قانونية ورقابة بشرية شرطا أساسيا لتحقيق التوازن بين التحديث الإداري وحماية الحقوق.

ومن هذا المنطلق، يقتضي الأمر تبني رؤية قانونية متجددة قادرة على الموازنة بين الكفاءة التقنية والمشروعية القانونية، من خلال وضع تشريعات دقيقة تنظم عمل الذكاء الاصطناعي في المرافق العمومية، وتفرض مبادئ الشفافية والمساءلة على الأنظمة الرقمية. كما يتعين إحداث هيئات رقابية مستقلة تُعنى بمراقبة استخدام هذه التقنيات وتقييم أثرها على حقوق الأفراد، إلى جانب تكوين الموظفين العموميين في مجالات الذكاء الاصطناعي وأخلاقياته، حتى يصبحوا فاعلين واعين بالحدود القانونية لتطبيقاته.

كما يمكن القول، إن رهان الإدارة العمومية المعاصرة يتمثل في تحقيق التوازن بين الكفاءة التقنية وضمان الأمن القانوني وحماية حقوق الإنسان. فالذكاء الاصطناعي ليس تهديدا في حد ذاته، وإنما يصبح كذلك إذا غابت الضوابط القانونية والمؤسساتية التي تضمن استخدامه في خدمة المواطن والدولة على حد سواء.

وفي الختام، يمكن القول إن الرهان الحقيقي للمستقبل هو بناء إدارة رقمية إنسانية، تجمع بين السرعة والكفاءة من جهة، وبين العدالة والشفافية من جهة أخرى، وتضع الإنسان في قلب كل تحول تكنولوجي. فـالذكاء الاصطناعي، إذا أُحسن توظيفه ضمن إطار قانوني متين، يمكن أن يكون رافعة لتحقيق إدارة أكثر فعالية وعدلاً، لا تهدد الأمن القانوني بل تعززه، ولا تنتهك حقوق الإنسان بل تحميها وتكرسها في أفق إدارة عمومية ذكية ومسؤولة.

 

  • لائحة المراجع:

“وتجدر الإشارة إلى أنه قد تم التصرف في كثير من هذه المراجع المستعملة”

  • علاء محمد ساعي، الذكاء الاصطناعي: آفاقه وتطبيقاته في مجال الإدارة الحديثة، دار مؤسسة رسلان للطباعة والنشر والتوزيع، طبعة 2024
  • علاء عبدالخالق حسين وم.م. سال محمد عبد وم.م مصطفى حسين زوير و.م.م، يسرى شاكر عجاج وم.م. عمار عبدالحليم علي وم.م. مصطفى قصي علي، الذكاء الاصطناعي: مفاهيم وتقنيات ـ دليل تعليمي للطلبة،الطبعة الأولى، 2024
  • ميثاق غازي فيصل عبدالدوري، الأمن القانوني الجنائي: دراسة تحليلية مقارنة، الطبعة الأولى، المركز العربي للنشر والتوزيع،2023
  • عبدالله إدريس، الأمن القانوني لمصالح وحقوق الأشخاص بين التشريع والقضاء، الطبعة الأولى، 2021
  • مازن ليلو راضي، حماية الأمن القانوني في النظم القانونية المعاصرة، الطبعة الأولى، المركز العربي للنشر والتوزيع،2020
  • مدحت محمد أبو النصر، الذكاء الاصطناعي في المنظمات الذكية، المجموعة العربية للتدريب والنشر، الطبعة الأولى، 2020
  • عبدالله موسى، أحمد حبيب بلال،الذكاء الاصطناعي: ثورة في تقنيان العص،الطبعة الأول، 2019
  • صفاء محمود رستم السويلميين، دور مسؤولية الإدارة في تعزيز احترام حقوق الإنسان: دراسة مقارنة وتطبيقية في القانون الأردني، الطبعة الأولى 2013،
  • أنيسة اكحل العيون، الأمن على اختلاف أبعاده، الغذائي – البيئي – الإنساني، 2012
  • ايت شعلال نبيل، علاقة تطبيقات الذكاء الاصطناعي بالقانون وآثارها على حقوق الإنسان، المجلة الأكاديمية للبحوث القانونية والسياسية، العدد 1، المجلد 8، 2024
  • فوزية هوشات، الرقابة القضائية على القرارات الإدارية الصادرة استنادا إلى الذكاء الاصطناعي، مجلة العلوم الإنسانية، العدد 4، المجلد 35، 2024
  • بلخير محمد آيت عودية، القرار الإداري الخوارزمي، مجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد: 09، العدد:03، 2020،
  • أحمد ناصر عباس، القرارات الإدارية المؤتمتة والسلطة التقديرية لجهة الإدارة، مجلة العلوم القانونية والاقتصادية، المجلد 66، العدد 3يناير 2024
  • محمد سعيد سعد الله بخيت،أثر تطبيقات الذكاء الاصطناعي في تطوير خدمات المرافق العامة: الإدارة الذكية نموذجًا” دراسة مقارنة”، مجلة البحوث الفقهية والقانونية، العدد 43، أكتوبر 2023
  • طه محمد أحمد يوسف، مستقبل الإدارة في عالم الذكاء الاصطناعي : إعادة تعريف الغرض والاستراتيجية في الثورة الصناعية الرابعة، الطبعة الأولى 2022
  • صفاء محمود رستم السويلميين، دور مسؤولية الإدارة في تعزيز احترام حقوق الإنسان: دراسة مقارنة وتطبيقية في القانون الأردني،الطبعة الأولى 2013
  • هشام مسعودي،آراء الفكر القانوني حول مصطلح الأمن القانوني:دراسة في الإشكالية والمفهوم،مجلة الاجتهاد القضائي:المجلد – 12 العدد 02(العدد التسلسلي 24)أكتوبر 2020
  • وليد محمد الشناوي،الأمن القانوني ومبادئ سن القانون الجيد،مجلة البحوث القانونية والاقتصادية،العدد 56،أكتوبر 2014
  • عبدالمجيد غميجة،مبدأ الأمن القانوني وضرورة الأمن القضائي،عرض مقدم في إطار الندوة المنظمة من طرف الودادية الحسنية للقضاة بمناسبة المؤتمر الثالث عشر للمجموعة الإفريقية للاتحاد العالمي للقضاة،الدار البيضاء:28 مارس 2008
  • خبراء المجموعة العربية للتدريب والنشر، خبراء المجموعة العربية للتدريب والنشر، تحت إشراف علمي: محمود عبدالفتاح رضوان، صناعة القرارات الإدارية بين النظرية والتطبيق، المجموعة العربية للتدريب والنشر
  • Martin NADEAU,sur les traces D’un principe de sécurité juridique en droit canada.les pistes du droit européen. mémoire pour  l’obtention du grade de “maitrise en droit” ,Université de SHERBROOKE Faculté de droit ,Juillet 2009,
  • ظهير شريف رقم 1.09.15 صادر في 22 من صفر 1430 (18 فبراير 2009) بتنفيذ القانون رقم 09.08 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي.
  • ظهير شريف رقم 1.20.100 صادر 16 من جمادى الأولى 1442 (31 ديسمبر2020) بتنفيذ القانون رقم 43.20 المتعلق بخدمات الثقة بشأن المعاملات الإلكترونية
  • ظهير شريف رقم 1.20.69 صادر في 4 ذي الحجة 1441 (25 يوليو 2020) بتنفيذ القانون رقم 05.20 المتعلق بالأمن السيبراني.
  1. عبدالله إدريس، الأمن القانوني لمصالح وحقوق الأشخاص بين التشريع والقضاء، الطبعة الأولى، 2021 ص22
  2. Martin NADEAU,sur les traces D’un principe de sécurité juridique en droit canada.les pistes du droit européen. mémoire pour  l’obtention du grade de “maitrise en droit” ,Université de SHERBROOKE Faculté de droit ,Juillet 2009,Page7
  3. عبدالمجيد غميجة،مبدأ الأمن القانوني وضرورة الأمن القضائي،عرض مقدم في إطار الندوة المنظمة من طرف الودادية الحسنية للقضاة بمناسبة المؤتمر الثالث عشر للمجموعة الإفريقية للاتحاد العالمي للقضاة،الدار البيضاء:28 مارس 2008ص34-35
  4. وليد محمد الشناوي،الأمن القانوني ومبادئ سن القانون الجيد،مجلة البحوث القانونية والاقتصادية،العدد 56،أكتوبر 2014ص292
  5. عبدالله إدريس، م، س، ص23
  6. هشام مسعودي،آراء الفكر القانوني حول مصطلح الأمن القانوني:دراسة في الإشكالية والمفهوم،مجلة الاجتهاد القضائي:المجلد – 12 العدد 02(العدد التسلسلي 24)أكتوبر 2020ص605
  7. مازن ليلو راضي،حماية الأمن القانوني في النظم القانونية المعاصرة،الطبعة الأولى،المركز العربي للنشر والتوزيع،2020،ص17
  8. مازن ليلو راضي،مرجع سابق،ص18
  9. ميثاق غازي فيصل عبدالدوري،الأمن القانوني الجنائي:دراسة تحليلية مقارنة،الطبعة الأولى،المركز العربي للنشر والتوزيع،2023ص41
  10. وليد محمد الشناوي،م، س، ص288
  11. علاء عبدالخالق حسين وم.م. سال محمد عبد وم.م مصطفى حسين زوير و.م.م، يسرى شاكر عجاج وم.م. عمار عبدالحليم علي وم.م. مصطفى قصي علي، الذكاء الاصطناعي: مفاهيم وتقنيات ـ دليل تعليمي للطلبة،الطبعة الأولى، 2024، ص14 ــــ 15
  12. علاء محمد ساعي، الذكاء الاصطناعي: آفاقه وتطبيقاته في مجال الإدارة الحديثة، دار مؤسسة رسلان للطباعة والنشر والتوزيع، طبعة 2024 ص11
  13. محمد سعيد سعد الله بخيت،أثر تطبيقات الذكاء الاصطناعي في تطوير خدمات المرافق العامة: الإدارة الذكية نموذجًا” دراسة مقارنة”، مجلة البحوث الفقهية والقانونية، العدد 43، أكتوبر 2023 ص3428 ص3417
  14. علاء محمد ساعي، م، س، ص9
  15. طه محمد أحمد يوسف، مستقبل الإدارة في عالم الذكاء الاصطناعي : إعادة تعريف الغرض والاستراتيجية في الثورة الصناعية الرابعة، الطبعة الأولى 2022 ص24
  16. علاء عبدالخالق حسين وم.م. سال محمد عبد وم.م مصطفى حسين زوير و.م.م، يسرى شاكر عجاج وم.م. عمار عبدالحليم علي وم.م. مصطفى قصي علي، م، س، ص13 ــــ 14
  17. عبدالله موسى، أحمد حبيب بلال،الذكاء الاصطناعي: ثورة في تقنيان العصر، الطبعة الأول، 2019 ص29
  18. علاء محمد ساعي، م، س، ص14
  19. عبدالله موسى، أحمد حبيب بلال،م، س، ص29 ــــ 30
  20. علاء محمد ساعي، م، س، ص14
  21. عبدالله موسى، أحمد حبيب بلال، م، س، ص29
  22. علاء عبدالخالق حسين وم.م. سال محمد عبد وم.م مصطفى حسين زوير و.م.م، يسرى شاكر عجاج وم.م. عمار عبدالحليم علي وم.م. مصطفى قصي علي، م،س، ص17
  23. صفاء محمود رستم السويلميين، دور مسؤولية الإدارة في تعزيز احترام حقوق الإنسان: دراسة مقارنة وتطبيقية في القانون الأردني،الطبعة الأولى 2013، ص21
  24. أنيسة اكحل العيون، الأمن على اختلاف أبعاده، الغذائي – البيئي – الإنساني، 2012، ص130
  25. أحمد ناصر عباس، القرارات الإدارية المؤتمتة والسلطة التقديرية لجهة الإدارة، مجلة العلوم القانونية والاقتصادية، المجلد 66، العدد 3يناير 2024ص1136
  26. فوزية هوشات، الرقابة القضائية على القرارات الإدارية الصادرة استنادا إلى الذكاء الاصطناعي، مجلة العلوم الإنسانية، العدد 4، المجلد 35،

    2024ص119

  27. مدحت محمد أبو النصر، الذكاء الاصطناعي في المنظمات الذكية، المجموعة العربية للتدريب والنشر، الطبعة الأولى، 2020 ، ص135
  28. علاء محمد ساعي، م، س، ص 44 ـــ 45
  29. علاء محمد ساعي، م، س، ص 46
  30. ايت شعلال نبيل، علاقة تطبيقات الذكاء الاصطناعي بالقانون وآثارها على حقوق الإنسان، المجلة الأكاديمية للبحوث القانونية والسياسية، العدد 1، المجلد 8، 2024 ص834
  31. أحمد ناصر عباس، م. س، ص1137
  32. أحمد ناصر عباس، م. س، ص1138-1139
  33. خبراء المجموعة العربية للتدريب والنشر، خبراء المجموعة العربية للتدريب والنشر، تحت إشراف علمي: محمود عبدالفتاح رضوان، صناعة القرارات الإدارية بين النظرية والتطبيق، المجموعة العربية للتدريب والنشر، ص 106
  34. أحمد ناصر عباس، م. س، ص1134
  35. محمد سعيد سعد الله بخيت،م، س، ص3428
  36. ايت شعلال نبيل، م، س، ص834ـــــــ 835
  37. ايت شعلال نبيل، م، س، ص835
  38. علاء محمد ساعي، م، س، ص141ــــــ 142
  39. بلخير محمد آيت عودية، القرار الإداري الخوارزمي، مجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد: 09، العدد:03، 2020، ص23
  40. علاء عبدالخالق حسين وم.م سالي محمد عبدوم.م… ، م، س، ص64
  41. ايت شعلال نبيل، م، س، ص840
  42. علاء محمد ساعي، الذكاء الاصطناعي: آفاقه وتطبيقاته في مجال الإدارة الحديثة، دار مؤسسة رسلان للطباعة والنشر والتوزيع، طبعة 2024 ص56
  43. ايت شعلال نبيل، م، س، ص839ــ 840
  44. ظهير شريف رقم 1.09.15 صادر في 22 من صفر 1430 (18 فبراير 2009) بتنفيذ القانون رقم 09.08 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي
  45. ظهير شريف رقم 1.20.100 صادر 16 من جمادى الأولى 1442 (31 ديسمبر2020) بتنفيذ القانون رقم 43.20 المتعلق بخدمات الثقة بشأن المعاملات الإلكترونية
  46. ظهير شريف رقم 1.20.69 صادر في 4 ذي الحجة 1441 (25 يوليو 2020) بتنفيذ القانون رقم 05.20 المتعلق بالأمن السيبراني.
  47. ايت شعلال نبيل، م، س، ص840 ــــــ 841
  48. بلخير محمد آيت عودية، بلخير محمد آيت عودية، القرار الإداري الخوارزمي، مجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد: 09، العدد:03، 2020 ،ص23
  49. بلخير محمد آيت عودية، بلخير محمد آيت عودية، القرار الإداري الخوارزمي، مجلة الاجتهاد للدراسات القانونية والاقتصادية، المجلد: 09، العدد:03، 2020 ،ص23
  50. علاء عبدالخالق حسين وم.م. سال محمد عبد وم.م مصطفى حسين زوير و.م.م، يسرى شاكر عجاج وم.م. عمار عبدالحليم علي وم.م. مصطفى قصي علي، م، س، ص66
  51. علاء عبدالخالق حسين وم.م سالي محمد عبدوم.م، م، س، ص64
  52. طه محمد أحمد يوسف، م، س، ص33
  53. يت شعلال نبيل، علاقة تطبيقات الذكاء الاصطناعي بالقانون وآثارها على حقوق الإنسان، المجلة الأكاديمية للبحوث القانونية والسياسية، العدد 1، المجلد 8، 2024 ص837ــــــ 838
  54. علاء عبدالخالق حسين وم.م سالي محمد عبدوم.م… م، س، ص63

مقالات ذات صلة

زر الذهاب إلى الأعلى