التحديات القانونية والأخلاقية لتقنيات الذكاء الاصطناعي في المجال الأمني – الدكتورة : بدرية علي حسن الحوسني
التحديات القانونية والأخلاقية لتقنيات الذكاء الاصطناعي في المجال الأمني
The legal and ethical challenges of artificial intelligence technologies in the security field
الدكتورة : بدرية علي حسن الحوسني
عضو هيئة التدريس في كلية الشرطة
دولة الامارات العربية المتحدة
هذا البحث منشور في مجلة القانون والأعمال الدولية الإصدار رقم 61 الخاص بشهر دجنبر 2025
رابط تسجيل الاصدار في DOI
https://doi.org/10.63585/COPW7495
للنشر و الاستعلام
mforki22@gmail.com
الواتساب 00212687407665

التحديات القانونية والأخلاقية لتقنيات الذكاء الاصطناعي في المجال الأمني
The legal and ethical challenges of artificial intelligence technologies in the security field
الدكتورة : بدرية علي حسن الحوسني
عضو هيئة التدريس في كلية الشرطة
دولة الامارات العربية المتحدة
الملخص
انتشر الذكاء الاصطناعي على امتداد العالم وبشكل كبير جعله اليوم مدار اهتمام الفكر الإنساني؛ بالنظر إلى المزايا التي يمنحها والإكراهات التي يطرحها، فهو يضطلع بقدرة كبيرة على تطوير بعض سبُل عيْش الإنسان، كما أنه في الوقت نفسه يحمل مخاطر وجودية تهدد القيم القانونية والأخلاقية، وبالتالي تجب صياغتها بشكل مكين لتوجيه مسار هذا الذكاء الاصطناعي بشكل يجعله خادماً للإنسانية لا مدمراً لها خصوصا في المجال الأمني والمعيشي.
وعليه، فإن هذا البحث يسعى إلى مناقشة أبرز التحديات القانونية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي في المجال الأمني، مع استعراض تجارب دولية، وبيان الوضع الراهن للذكاء الاصطناعي في دولة الإمارات العربية المتحدة ومنطقة الخليج، وصولاً إلى تقديم توصيات عملية يمكنها أن تسهم في صياغة سياسات وتشريعات أكثر توازناً بين متطلبات الأمن وحماية الحقوق الفردية في خضم استفحال تدخّل الذكاء الاصطناعي.
Abstract
Artificial intelligence has spread throughout the world and has become a major focus of human thought. Given the advantages it offers and the constraints it poses, it has great potential to improve certain aspects of human life. At the same time, it carries existential risks that threaten legal and ethical values. Therefore, it must be carefully formulated to guide the course of artificial intelligence in a way that makes it a servant of humanity rather than a destroyer, especially in the areas of security.
Accordingly, this research seeks to discuss the most prominent legal and ethical challenges associated with the use of artificial intelligence in the field of security, reviewing international experiences and explaining the current status of artificial intelligence in the United Arab Emirates and the Gulf region, in order to provide practical recommendations that can contribute to the formulation of policies and legislation that strike a better balance between security requirements and the protection of individual rights in the midst of the proliferation of artificial intelligence.
السياق العام للبحث
المقدمة
شهد العالم في العقود الأخيرة تطوراً متسارعاً في تقنيات الذكاء الاصطناعي؛ مما انعكس بصورة مباشرة على مختلف القطاعات، وفي مقدمتها القطاع الأمني. فالذكاء الاصطناعي لم يعد مجرد أداة تقنية، بل أصبح أحد العناصر الأساسية في دعم الأنظمة الأمنية، وتعزيز قدرتها على مواجهة التحديات المتزايدة في عصر تتنامى فيه التهديدات الأمنية، وتتعقد فيه الجرائم.
ويمثل استخدام الذكاء الاصطناعي في المجال الأمني فرصة كبيرة لتعزيز فعالية الأجهزة الشرطية والأمنية، إذ يمكن لهذه التقنيات أن تسهم في تحليل كميات هائلة من البيانات في وقت قصير، والتنبؤ بالجرائم قبل وقوعها، ورصد التهديدات المحتملة بدقة عالية؛ فالذكاء الاصطناعي يمثل قوة تحويلية هائلة تحمل في طياتها إمكانات غير مسبوقة لإعادة صياغة المشهد الأمني.
وقد فرض الذكاء الصناعي نفسه بشكل كبير في الإدارة الحديثة، لأنه نأى بها عن منهجها التقليدي القديم، بالنظر إلى ما يقدّمه من إمكانات حديثة وفريدة أصبح من الصعب الاستغناء عن توظيفها في كل المصالح الإدارية في مجمل تخصصاتها…
غير أن هذا الاستخدام يطرح في الوقت ذاته مجموعة من التحديات القانونية والأخلاقية، أبرزها ما يتعلق بحماية الخصوصية، وضمان العدالة والشفافية، ومنع إساءة استخدام التكنولوجيا…؛ وبالتالي يكون الإنسان وضمنه البنية الشرطية مجابهاً لمستجد رقميّ يفرض نفسه على الإنسانية، وفي حاجة إلى تدبير وترشيد صائبيْن وتكثيف المجهودات ومجابهة التحديات بشكل كبير يمكّن من مسايرة التطور الحاصل الهائل في عصرنا اليوم، وعلى امتداد رقعة الأرض، ومن بينها دولة الإمارات العربية المتحدة التي سايرت بشكل كبير الركب التكنولوجي، وراكمت تجربة في مجال الذكاء الاصطناعي؛ مما جعلها رائدة في هذا المجال، ومما يحتم عليها مضاعفة جهودها من أجل الحفاظ على البنية الأمنية المستتبة التي تميزت بها منذ سنوات، بفضل رعاية أمرائها الأجلاء الذين يبوح لسانهم إلى شعبهم بالعبارة الخالدة: “لا تشيلوا همّ”.
أولاً: أسئلة البحث
نكون إزاء الذكاء الاصطناعي أمام سلاح ذي حديْن، ويزداد الأمر تعقيداً عندما نستحضر السياق الأمني لنكون إزاء علاقة ملتبسة؛ فحواها أننا أمام زمرة من التحديات والإمكانات؛ مما يحتم علينا أن نطرح في هذا البحث السؤال الجوهري الآتي: ما هي أبرز التحديات القانونية والأخلاقية التي يطرحها الذكاء الاصطناعي في المجال الأمني؟
ويحيلنا هذا السؤال الجوهري على طرْح أسئلة فرعية، مفادها هل تمثل هذه التحديات فرصة لتعزيز البنية الشرطية أم تدميرها وتكريس مفهوم الخلفية الإلكترونية الرقمية غير الإنسانية؟ وكيف يمكننا تحقيق التوازن بين تقنيات الذكاء الاصطناعي المتطورة وبين القيم الأخلاقية المتراكمة منذ أمد السنين، واحترام الصيرورة القانونية التي بذل الإنسان جهدا لتكريس وتحيين ممارستها وتنزيلها سعياً نحو تحقيق الأمن والاستقرار لدى الإنسان؟
ثانياً: دوافع اختيار موضوع البحث
لم يكن اختياري موضوعَ “التحديات القانونية والأخلاقية لتقنيات الذكاء الاصطناعي في المجال الأمني” اعتباطيا، بل انسجم مع مساري العملي والعلمي، تماماً كانسجامه مع توجهاتي المعرفية التي تسعى دوماً نحو البحث في الموضوعات التي تطبعها الراهنية والحداثة، وذلك ما يتجلى أيما تجلّ في موضوع الذكاء الاصطناعي، خصوصا في ظل ارتباطه بالتحديات الأمنية التي يطرحها، ناهيك عن أن اختياري هذا الموضوع مرتبط بالحيز المكاني المتعلق بوطني الأبيّ دولة الإمارات العربية المتحدة، إذ أنني أطمح إلى مقاربة مواضيع علمية لها تجلياتها وتحظى باهتمام في دولتنا التي تسعى إلى تحقيق الريادة والتقدّم في شتى المجالات، اعتماداً على ما استجد في عصرنا الحالي من تطورات تشمل جل الميادين؛ وبالتالي فإن موضوع بحثي هذا هو محاولة لبلورة وعي أمنيّ بالتحديات الأخلاقية والقانونية التي يطرحها الذكاء الاصطناعي.
ثالثاً: أهمية البحث
تتجلى أهمية هذا البحث في إحاطته خُبْراً ببنيتيْن مهمتيْن:
– البنية الموضوعاتية المتمثلة في أن هذا البحث يستجلي أبرز التحديات القانونية والأخلاقية لتقنيات الذكاء الاصطناعي في المجال الأمني؛ وذلك ما يحتم ضرورة تطوير المنظومة الأمنية لتصبح قادرة على مواجهة هذه التحديات السيبيرانية الحديثة؛
– البنية المفاهيمية؛ حيث تتجلى هذه الأهمية في أن هذا البحث بصدد مناقشة مفاهيم أربعة مكينة هي القانون والأخلاق والذكاء الاصطناعي والمنظومة الأمنية؛ وفي اجتماع هذه المفاهيم ضمن عنوان البحث دلالة على تحقيق ما فيه خير للإنسانية.
كما تتجلى أهمية البحث في راهنيته، وإحالته على اضطلاع المنظومة الأمنية بمسؤولية مواكبة مستجدات التحول الرقمي خلال العصر الحديث، وعلى رأسها توظيف الذكاء الاصطناعي في شقه الإيجابي المتمثل في تسهيل العمل الأمني، وفي شقه السلبي لما يطرحه من تحديات وسلوكيات غير قانونية وغير أخلاقية؛ مما يشكل عبئا إلى حد ما على المنظومة الأمنية.
رابعاً: الدراسات السابقة
قبل الخوض في هذا البحث، اطلعنا على دراسات قاربت هذا الموضوع العلمي الراهني من قريب أو بعيد، وسنستعرض بعضها كالآتي:
– الذكاء الاصطناعي وأبعاده الأمنية[1]
ناقش هذا البحث مفهوم الذكاء الاصطناعي، وأبرز الفرص والتحديات لاستخدام تطبيقاته في القطاعات الأمنية والعسكرية، وأهم مجالات استخدامه في هذه القطاعات.
– تأثيرات الذكاء الاصطناعي على الأمن المعلوماتي للدول[2]
هدف هذا البحث إلى استجلاء أبرز التحديات والإكراهات التي يطرحها الذكاء الاصطناعي على مختلف المجالات، وخصوصا على مستوى الأمن المعلوماتي للدول، حيث أن بعض الدول تواجه صعوبات كبيرة في الحفاظ على بياناتها المعلوماتية، بالنظر إلى كثرة المتدخلين والمتطفلين على هذه البيانات لاستغلالها بشكل أو بآخر.
– دور الذكاء الاصطناعي في تعزيز الأمن السيبيراني[3]
هدفت هذه الدراسة إلى التعرف على أبرز تطبيقات الذكاء الاصطناعي المستخدمة في تدبير الأمن السيبيراني. وأوضحت الدراسة أن هناك حاجة لتطوير إطار قانوني وأخلاقي يضمن استخدام التكنولوجيا بشكل مسؤول وفعال داخل المؤسسات والمنظمات.
– دور الذكاء الاصطناعي في رفع كفاءة النظم الإدارية لإدارة الموارد البشرية بجامعة تبوك[4]
ألحت هذه الدراسة على ضرورة إجراء المزيد من الدراسات حول الذكاء الاصطناعي، وعلاقته بكفاءة النظم الإدارية لإدارة الموارد البشرية.
وأكدت هذه البحوث على أهمية الذكاء الاصطناعي ودوره المحوري في عصرنا الحالي، وفي مختلف الإدارات ومناحي الحياة، كما أكدت على الإكراهات الأمنية التي يطرحها بسبب بنيته التكنولوجية المتطورة وشمولية أنظمته،[5] حيث يتم تطوير وتفعيل أنظمة الذكاء الاصطناعي لحماية الخصوصية ولتنقية البيانات من التحيز، ولتكون محمية بطريقة آمنة، كما يتم بناء وتطوير الخوارزميات بطريقة تمنع الوصول غير المشروع إلى البيانات والنظم.
ونورد من جهتنا أنه في ظل التطور الرقمي المتسارع، غدا الذكاء الاصطناعي أداةً لتعزيز الشفافية والمساءلة، إذ طفقت العديد من الدول توظف الذكاء الاصطناعي لتحسين الأداء المؤسسي، ودعم اتخاذ القرار،[6] وبالرغم من ذلك، يثير التوظيف المتزايد للذكاء الاصطناعي مخاوف ناشئة عن تأثيره على حقوق الأفراد، إذ يمكنه أن يتحول من أداة لتعزيز الشفافية إلى وسيلة للسيطرة، ما يجعل الحاجة إلى تنظيم أخلاقي وقانوني لاستخدام الذكاء الاصطناعي في هذا المجال أكثر إلحاحاً من أيّ وقت مضى.
المدخل المفاهيمي والتوطئة
أولاً: تعريف الذكاء الاصطناعي (Artificial Intelligence)
يتكون الذكاء الاصطناعي من كلمتين، هما ذكاء (Intelligence) التي تعني القدرة المعرفية على التعلم من التجربة، وتذكّر المعلومات والتعامل مع متطلبات الحياة اليومية؛ واصطناعي (Artificial) وتشير إلى شيء مصنوع أو غير طبيعي.
ويتعلق الذكاء الاصطناعي بدراسة كيف تجعل أجهزة الحاسب الآلي تفعل الأشياء التي يفعلها الناس في الوقت الحاضر وبصفة أفضل.[7] كما أنه علم وتقنية قائمة على عدد من المجالات المعرفية مثل علوم الحاسبات الآلية، الرياضيات، الأحياء، الفلسفة، الهندسة، والتي تستهدف تطوير وظائف الحاسبات الآلية لتحاكي الذكاء البشري؛[8] مما يفيد أن الذكاء الاصطناعي فرْع من علوم الحاسوب، مهمته تطوير آلات أو أنظمة قادرة على محاكاة القدرات المعرفية والإدراكية التي يتميز بها البشر، مثل التعلم والفهم، وحل المشكلات، واتخاذ القرارات، والتفكير المنطقي، والإبداع…؛ فهو بذلك ناشئ عن سعيٍ نحو أن تعمل الأجهزة الإلكترونية بشكل ذكي يشبه طريقة تفكير البشر وأداءهم للمهام المعقدة، مع القدرة على التكيف والتطور.
ثانياً: التطور التاريخي لاستخدام الذكاء الاصطناعي في المجال الأمني
بدأت محاولات توظيف الذكاء الاصطناعي في المجال الأمني منذ ستينيات القرن الماضي مع ظهور الحواسيب القادرة على معالجة البيانات، لكن الاستخدام الفعلي والواسع لم يظهر إلا في العقود الأخيرة نتيجة التطور الكبير في قدرات الحوسبة، وتوفر قواعد بيانات ضخمة يمكن تحليلها.
في السبعينيات والثمانينيات ركزت الجهود على تطوير أنظمة خوارزمية للتعرف على الأنماط، مثل بصمات الأصابع وتحليل سجلات الجرائم. ومع بداية الألفية الجديدة، اتجهت الأجهزة الأمنية إلى الاستفادة من الذكاء الاصطناعي في تقنيات المراقبة الإلكترونية وتحليل الصور والفيديوهات، وهو ما فتح المجال أمام ما يعرف اليوم بـ”المراقبة الذكية”.
في العقد الأخير، تسارع الاعتماد على الذكاء الاصطناعي بشكل غير مسبوق، حيث ظهرت تطبيقات أكثر تعقيدًا مثل التنبؤ بالجرائم باستخدام النماذج الرياضية، واستخدام الطائرات بدون طيار في مراقبة الحدود، وتطبيقات التعرف على الوجوه في المطارات والمراكز الأمنية.
وقد أدى ذلك إلى بروز نقاشات حادة على المستويين القانوني والأخلاقي حول مدى مشروعية هذه التقنيات، ومدى توافقها مع القوانين المحلية والدولية، ومع المعايير الأخلاقية المتعلقة بالحرية الفردية والعدالة والمساواة.
ثالثاً: التطبيقات الأمنية للذكاء الاصطناعي
أصبح الذكاء الاصطناعي في السنوات الأخيرة أحد أهم الأدوات المساندة للأجهزة الأمنية والشرطية، حيث أسهم في إحداث نقلة نوعية في أسلوب عملها وفي كفاءة الخدمات التي تقدمها للمجتمع.
ويمكن تلخيص أبرز التطبيقات الأمنية للذكاء الاصطناعي في عدة محاور رئيسية:
– أنظمة المراقبة الذكية:
تُعد المراقبة بالفيديو أحد أكثر المجالات التي استفادت من الذكاء الاصطناعي، فلم تعد الكاميرات الأمنية مجرد أجهزة تسجيل سلبية، بل أصبحت قادرة على التعرف على الأنماط وتحليل السلوكيات غير الطبيعية بشكل لحظيّ.
على سبيل المثال: يمكن لهذه الأنظمة رصد شخص يترك حقيبة في مكان مزدحم، أو ملاحظة حركات توحي بالعدوانية قبل وقوع حادثة.
تتيح هذه القدرة للأجهزة الأمنية التدخل المبكر، ومنع الحوادث قبل تفاقمها.
– تقنيات التعرف على الوجوه والبصمات الحيوية:
أصبحت خوارزميات التعرف على الوجوه أكثر دقة وفاعلية، مما مكّن السلطات الأمنية من استخدامها في المطارات والمعابر الحدودية والمناطق الحساسة.
إلى جانب ذلك، توسّع استخدام القياسات الحيوية الأخرى مثل بصمة العين وبصمة الصوت، ما ساعد على رفع كفاءة عمليات التحقق من الهوية، وتقليل احتمالية الانتحال أو التزوير.
– التنبؤ بالجرائم:
أحد أكثر التطبيقات إثارة للجدل هو استخدام الذكاء الاصطناعي للتنبؤ بمناطق أو أوقات محتملة لوقوع الجرائم، بالاعتماد على تحليل بيانات سابقة مثل سجلات الجرائم وتوزيعها الجغرافي والزمني.. وتساعد هذه التقنية في توزيع الدوريات الأمنية بشكل أكثر كفاءة، إلا أنها تثير نقاشات قانونية وأخلاقية بسبب ما تحمله من مخاطر التحيز ضد فئات معينة في المجتمع.
– الروبوتات والطائرات بدون طيار:
دخلت الروبوتات الميدانية والطائرات المسيّرة مجال العمل الأمني بقوة، حيث تُستخدم في مراقبة الحدود، والكشف عن المتفجرات، والتعامل مع المواد الخطرة… وتمتاز هذه الأدوات بأنها تقلل من المخاطر التي قد يتعرض لها العنصر البشري، مع توفير تغطية أوْسع وأسرع في الميدان.
– تحليل البيانات الضخمة:
تتعامل الأجهزة الأمنية يوميّا مع كميات هائلة من البيانات، سواء كانت سجلات جنائية أو اتصالات أو بيانات من الإنترنت.
وهنا ينبري دور الذكاء الاصطناعي الذي يستطيع غربلة هذه البيانات، واستخراج الروابط الخفية بينها بسرعة ودقة؛ مما يساعد في كشف شبكات الجريمة المنظمة أو التهديدات الإرهابية المحتملة.
– الأمن السيبراني (Cybersecurity):
مع تزايد الهجمات الإلكترونية، أصبح الذكاء الاصطناعي أداة أساسية في رصد الأنشطة المشبوهة عبر الشبكات، والتعرف على محاولات الاختراق قبل وقوعها.
وتتميز هذه الأنظمة بقدرتها على التعلم المستمر؛ مما يمكّنها من التكيف مع أساليب الهجوم الجديدة، وحماية البنى التحتية الحيوية للدولة.
بعد هذا التقديم، ننتقل إلى استجلاء أبرز التحديات القانونية والأخلاقية الناشئة عن توظيف الذكاء الاصطناعي في المجال الأمني.
المبحث الأول: التحديات القانونية لاستخدام الذكاء الاصطناعي في المجال الأمني
يمثل الذكاء الاصطناعي ثورة تقنية تحمل وعودًا هائلة بتعزيز الأمن والاستقرار، لكنه في الوقت نفسه يثير مجموعة واسعة من التحديات القانونية التي تعكس صعوبة التوازن بين ضرورات الأمن ومتطلبات حماية الحقوق الفردية.
فالقانون بطبيعته يتطور ببطء مقارنة بالسرعة الهائلة للتقنيات الحديثة، مما يخلق فجوة بين ما هو قائم في النصوص التشريعية وما يحدث فعلياً في الميدان الأمني.. قد تؤدي هذه الفجوة إلى جدل قانوني معقد، وتحديات عملية في التطبيق، خصوصاً إذا لم يتم وضْع أطر واضحة تواكب المستجدات.
أولاً: حماية البيانات والخصوصية
يعتمد الذكاء الاصطناعي في المجال الأمني بدرجة أساسية على جمْع ومعالجة وتحليل بيانات الأفراد، سواء من الكاميرات الذكية، أو من تطبيقات الهواتف، أو من مصادر رقمية أخرى. هذه البيانات قد تتضمن تفاصيل دقيقة عن تحركات الأشخاص، وسلوكياتهم، وحتى تفضيلاتهم الشخصية.
من الناحية القانونية، يطرح ذلك إشكالية كبرى تتعلق بمدى شرعية جمْع هذه البيانات، وما إذا كان الأفراد قد منحوا موافقة صريحة على استخدامها.
وتزداد الإشكالية تعقيداً في حال إساءة استخدام هذه البيانات، أو وقوعها في أيدي أطراف غير مخولة… في هذه الحالة، يتعرض الأفراد لمخاطر انتهاك خصوصيتهم، وهو ما قد يقوض الثقة بين المواطن والمؤسسة الأمنية؛ لذلك، فإن التشريعات الحديثة يجب أن تضع معايير صارمة لآلية جمْع البيانات، وحدود استخدامها، وآليات حمايتها من الاختراق أو التسريب، مع توفير قنوات للمراجعة والرقابة المستقلة.
ثانياً: المسؤولية القانونية عن القرارات الآلية
تتمثل واحدة من أعقد الإشكاليات القانونية في تحديد المسؤولية عندما يتخذ نظام الذكاء الاصطناعي قراراً خاطئاً.
على سبيل المثال، إذا أخطأ نظام التعرف على الوجوه في تحديد هوية شخص، وأدى ذلك إلى اعتقال بريء، فمَن يتحمل المسؤولية القانونية؟ هل هو المبرمج الذي صمم الخوارزمية؟ أم الجهة الأمنية التي قررت اعتمادها؟ أم الشركة التي باعت التقنية؟
لم يجد هذا السؤال القانوني إجابة موحدة حتى الآن على المستوى الدولي، إذ ما تزال التشريعات في معظم الدول عاجزة عن تحديد المسؤوليات بشكل واضح.. وقد يؤدي غياب هذا التحديد إلى إضعاف العدالة، وربما إلى إفلات بعض الأطراف من المساءلة القانونية؛ وهو ما يستدعي صياغة قوانين جديدة تضمن وجود خطوط واضحة للمساءلة، وربما إنشاء هيئات مختصة بمتابعة الأضرار الناجمة عن القرارات الآلية.
ثالثاً: الفجوة التشريعية وغياب القوانين المتخصصة
رغم وجود قوانين عامة مثل قوانين حماية البيانات أو مكافحة الجرائم الإلكترونية، إلا أن هذه النصوص غالباً ما تكون غير كافية للتعامل مع خصوصيات الذكاء الاصطناعي؛ فالمجال الأمني يتطلب نصوصاً دقيقة تغطي الجوانب المتعلقة بالاستخدامات العسكرية والأمنية للتقنية، وضمان عدم تعارُضها مع المبادئ الدستورية المتعلقة بحقوق الإنسان.
يفتح غيابُ هذه القوانين الباب أمام تفسيرات واسعة للنصوص الموجودة؛ ما قد يؤدي إلى تجاوزات أو إساءة استخدام. فعلى سبيل المثال، قد تُستخدم تقنيات المراقبة الذكية لمراقبة المعارضين أو الصحفيين تحت ذريعة الأمن، وهو ما يثير إشكالات دستورية حول حرية التعبير وحق المشاركة السياسية.
رابعاً: التوافق مع القانون الدولي
لم يعد الأمن اليوم شأناً محليا فقط، بل أصبح عابراً للحدود، خصوصاً في ظل التهديدات العالمية مثل الإرهاب والجريمة المنظمة والهجمات السيبيرانية.
من هنا، يُثار تساؤل حول مدى توافُق استخدام تقنيات الذكاء الاصطناعي مع المواثيق الدولية، مثل الإعلان العالمي لحقوق الإنسان أو العهد الدولي الخاص بالحقوق المدنية والسياسية؛ على سبيل المثال، قد تتعارض تقنيات المراقبة الشاملة مع حق الخصوصية المنصوص عليه في المادة 17 من العهد الدولي للحقوق المدنية والسياسية.
كذلك فإن مشاركة البيانات الأمنية بين الدول تثير جدلاً حول حماية سيادة الدولة وحقوق الأفراد، خصوصاً إذا كان البلد المستلم للبيانات لا يملك تشريعات قوية لحمايتها.
خامساً: الأدلة الرقمية ومكانتها القانونية
أصبح الذكاء الاصطناعي أداة مهمة في جمْع الأدلة وتحليلها، سواء من خلال تحليل بيانات الهواتف المحمولة أو تسجيلات الكاميرات أو حتى منصات التواصل الاجتماعي. غير أن الاعتماد على هذه الأدلة أمام القضاء يثير تساؤلات قانونية كبيرة، من بينها هل تعَدّ نتائج تحليل الخوارزميات أدلة قطعية يمكن الاعتماد عليها؟ أم أنها مجرد قرائن تحتمل الصواب والخطأ؟
إضافة إلى ذلك، قد تُطعن هذه الأدلة بحجة أن الخوارزميات التي أنتجتها منحازة أو غير شفافة، مما يضع القاضي أمام معضلة قانونية؛ لذا فإن تطوير تشريعات واضحة تعترف بالأدلة الرقمية مع وضع ضوابط لاستخدامها أصبح ضرورة مُلحة.
سادساً: التوازن بين الأمن والحرية
يواجه القانون معضلة فلسفية عميقة، مضمونها كيف يمكن تعزيز الأمن باستخدام الذكاء الاصطناعي دون أن يؤدي ذلك إلى انتهاك الحريات الأساسية للمواطنين؟ فالتوسع في استخدام المراقبة قد يعزز الأمن، لكنه في الوقت ذاته يهدد الحق في الخصوصية والحرية الشخصية.
هذا التوازن الدقيق هو جوهر التحدي القانوني، ويتطلب صياغة نصوص قانونية تراعي كلا الجانبين بشكل متوازن.
المبحث الثاني: التحديات الأخلاقية لاستخدام الذكاء الاصطناعي في المجال الأمني
إلى جانب التحديات القانونية، هناك تحديات أخلاقية لا تقلّ أهمية عند استخدام الذكاء الاصطناعي في القطاع الأمني، فالقانون يمكن أن يضع قواعد وضوابط، لكن الأخلاق تحدد جوهر الاستخدام المشروع والعادل للتكنولوجيا، بما يضمن الحفاظ على كرامة الإنسان وحقوقه الأساسية.
يمكن في هذا السياق، تحديد أبرز التحديات الأخلاقية كما يلي:
أولاً: التوازن بين الأمن والحرية الفردية
التوسُّع في استخدام تقنيات المراقبة الذكية والتعرف على الوجوه وتحليل البيانات يتيح للأجهزة الأمنية قدرة غير مسبوقة على تتبّع الأفراد، ورغم أن هذه الأدوات تسهم في منع الجرائم وحماية المجتمع، إلا أنها قد تشكل تهديداً مباشراً لحرية الأفراد في التنقل والتعبير والخصوصية.
يتمثل التحدي الأخلاقي هنا في كيفية تحقيق التوازن بين متطلبات الأمن وحقوق الحرية الفردية، بحيث لا تتحول المجتمعات إلى كيانات تخضع للمراقبة المستمرة، مما يولّد شعوراً بالرقابة الدائمة، ويضعف الثقة بين المواطن والمؤسسة الأمنية.
ثانياً: مخاطر التحيز في الخوارزميات
ليست الخوارزميات محايدة دائماً، إذ تعتمد دقتها على طبيعة البيانات التي تم تدريبها عليها؛ فإذا كانت هذه البيانات متحيزة أو غير مكتملة، فإن النتائج ستكون بدورها متحيزة.
على سبيل المثال، قد تؤدي أنظمة التعرف على الوجوه إلى معدلات خطأ أعلى عند التعامل مع أشخاص من خلفيات عرقية معينة، ما يعرضهم لمزيد من الاشتباه والمساءلة دون مبرر عادل.
يطرح هذا النوع من التحيز إشكاليات أخلاقية جوهرية، لأنه قد يكرس التمييز ضد فئات محددة، ويقوض مبدأ المساواة أمام القانون.
ثالثاً: الشفافية والعدالة
يعتمد الذكاء الاصطناعي على عمليات معقدة يصعب على غير المتخصصين فهْمها في المجال الأمني، وقد يؤدي هذا الغموض إلى غياب الشفافية في كيفية اتخاذ القرارات، مثل تحديد الأشخاص المشتبه بهم أو تقييم درجة الخطورة من الناحية الأخلاقية، من غير المقبول أن يخضع الأفراد لقرارات لا يعرفون الأسس التي بُنيت عليها، خاصة إذا كانت تؤثر على حرياتهم الأساسية.
وبالتالي تبرز الحاجة إلى أن تكون الأنظمة أكثر شفافية، حتى يتم بناء الثقة في أنظمة وتقنيات الذكاء الاصطناعي، بدرجة عالية من الوضوح والقابلية للتفسير، مع وجود ميزات لتتبّع مراحل اتخاذ القرارات الآلية، ولا سيما تلك التي قد تؤدي إلى آثار ضارة على الأفراد؛ وهذا يعني أن البيانات والخوارزميات والقدرات والعمليات والغرض من نظام الذكاء الاصطناعي جميعها تحتاج إلى أن تكون شفافة وقابلة للتفسير للمتأثرين بها بشكل مباشر وغير مباشر.
رابعاً: إساءة الاستخدام وانتهاك الثقة
تطرح الأخلاقيات الأمنية سؤالاً مُهما، مفاده ماذا لو استُخدمت تقنيات الذكاء الاصطناعي في غير أهدافها المشروعة؟
على سبيل المثال يمكن أن تُستغل أدوات المراقبة الذكية لملاحقة المعارضين السياسيين أو الصحفيين، بدلاً من استخدامها في مكافحة الجريمة وحماية المجتمع.
يهدد هذا السيناريو ثقة المواطنين في مؤسساتهم الأمنية، ويجعل التكنولوجيا أداة قمع بدلاً من أن تكون أداة حماية؛ من هنا تظهر أهمية وضْع معايير أخلاقية صارمة تضمن توجيه استخدام التكنولوجيا نحو خدمة الصالح العام فقط.
خامساً: أثر المراقبة المستمرة على النسيج الاجتماعي
رغم أن الهدف من تقنيات المراقبة هو تعزيز الأمن، إلا أن المراقبة المستمرة قد تترك آثاراً سلبية على سلوك الأفراد وعلاقاتهم الاجتماعية.
فالإحساس بأن كل حركة مراقبة قد يؤدي إلى تغيير أنماط السلوك الطبيعي، وخلق مجتمع يخشى التعبير عن نفسه بحرية من الناحية الأخلاقية.
هذا يثير تساؤلات حول نوعية المجتمع الذي نريد بناءه، أهو مجتمع آمن لكنه مقيد، أم مجتمع متوازن يجمع بين الأمان والحرية؟
سادساً: العدالة بين الأجيال
لا يقتصر أثر استخدام الذكاء الاصطناعي في المجال الأمني على الحاضر فقط، بل يمتد إلى المستقبل.. فإذا ما تم بناء أنظمة أمنية مغلقة تفتقر إلى الضوابط الأخلاقية، فإن الأجيال القادمة قد تجد نفسها محاصرة في أنظمة مراقبة صارمة؛ وهنا تبرز المسؤولية الأخلاقية تجاه الأجيال القادمة في بناء أنظمة عادلة، تراعي حقوق الإنسان وتحافظ على التوازن بين الأمن والحرية.
المبحث الثالث: دراسات حالة وتجارب دولية
يُعد الاطلاع على التجارب الدولية في استخدام الذكاء الاصطناعي في المجال الأمني أمراً أساساً لفهم كيفية توظيف هذه التقنيات في بيئات مختلفة، واستيعاب النجاحات والإخفاقات التي صاحبتها.. ومن خلال تحليل هذه التجارب، يمكن استخلاص دروس عملية تساعد صناع القرار في المنطقة العربية ودولة الإمارات العربية المتحدة على وضْع أطر مناسبة تضمن الاستخدام الفعّال والمسؤول لهذه التقنيات.
أولاً: تجربة الولايات المتحدة الأمريكية
تُعَد الولايات المتحدة من أوائل الدول التي اعتمدت على الذكاء الاصطناعي في المجال الأمني، خصوصاً في مجالات التنبؤ بالجرائم والمراقبة الذكية.
فقد طورت بعض الولايات أنظمة تعتمد على تحليل البيانات التاريخية للجريمة من أجل التنبؤ بالمناطق التي يُحتمل أن تشهد نشاطاً إجراميا.
ورغم أن هذه الأنظمة ساعدت في تحسين توزيع الموارد الأمنية، إلا أنها تعرضت لانتقادات واسعة بسبب مخاطر التحيز؛ فقد أظهرت دراسات أن بعض الخوارزميات كانت تميل إلى زيادة المراقبة في الأحياء الفقيرة أو التي تضم أقليات عرقية؛ مما أثار مخاوف أخلاقية حول تكريس التمييز بدلاً من الحد منه.
ثانياً: تجربة الصين
تعَدّ الصين من أكثر الدول التي توسعت في استخدام تقنيات الذكاء الاصطناعي، خاصة في أنظمة المراقبة، إذ تعتمد السلطات على شبكة ضخمة من الكاميرات الذكية المربوطة بخوارزميات للتعرف على الوجوه، وتستخدم هذه الأنظمة في تتبّع الأفراد ورصْد تحركاتهم في الأماكن العامة.
ورغم أن هذه التجربة أثبتت فعاليتها في مكافحة الجريمة وتعزيز الأمن العامّ، إلا أنها أثارت انتقادات قوية على المستوى الدولي، حيث يرى كثيرون أن هذه الممارسات تمثل انتهاكاً صارخاً للخصوصية وتهديداً للحريات الفردية، خاصة عندما تُستخدم لمراقبة النشاطات السياسية أو الاجتماعية.
ثالثاً: تجربة الاتحاد الأوروبي
على العكس من الصين، اتخذ الاتحاد الأوروبي نهْجاً أكثر تحفظاً، حيث ركز على وضع أطر قانونية صارمة لاستخدام الذكاء الاصطناعي؛ فقد أصدرت المفوضية الأوروبية مسودة تشريعات تُصنف بعض تطبيقات الذكاء الاصطناعي في المجال الأمني على أنها “عالية الخطورة”، وتلزِم الجهات التي تستخدمها بتطبيق أعلى معايير الشفافية والمساءلة.
تعكس هذه التجربة محاولة لتحقيق توازن بين الاستفادة من الإمكانات الأمنية للتقنية وبين حماية الحقوق الأساسية للمواطنين، وتُعدّ نموذجاً مهمّا للدول التي تسعى إلى تنظيم هذا المجال بشكل متوازن.
رابعاً: تجربة سنغافورة
سنغافورة، باعتبارها دولة صغيرة ذات كثافة سكانية عالية، وظفت الذكاء الاصطناعي في مجالات مثل المراقبة المرورية والأمن العام…
استخدمت الدولة طائرات بدون طيار وروبوتات للمراقبة في المناطق العامة، مع التركيز على الجانب التنظيمي الذي يضمن أن هذه الأدوات تُستخدم حصريّا في الأغراض الأمنية.
تميزت التجربة السنغافورية بقدرتها على دمْج التكنولوجيا في البنية التحتية الحضرية بطريقة تقلل من التدخل المباشر في حياة الأفراد، وهو ما ساعد على تقليل الانتقادات المتعلقة بالخصوصية مقارنة بدول أخرى.
الدروس المستفادة
* التجربة الأمريكية أظهرت أهمية مواجهة التحيز في البيانات والخوارزميات؛
* التجربة الصينية أبرزت مخاطر غياب الضوابط الأخلاقية والقانونية؛
* التجربة الأوروبية جسدت نموذجاً تشريعيّا متوازناً يسعى لحماية الحقوق مع الاستفادة من التقنية؛
* التجربة السنغافورية قدمت مثالاً عمليا على كيفية دمْج التكنولوجيا في البيئة الحضرية دون إفراط في المساس بالحقوق الفردية.
المبحث الرابع: الوضع الراهن في دولة الإمارات العربية المتحدة ومنطقة الخليج
تشهد دولة الإمارات العربية المتحدة ودول مجلس التعاون الخليجي طفرة نوعية في تبنّي تقنيات الذكاء الاصطناعي، ويأتي المجال الأمني في مقدمة القطاعات التي استفادت من هذا التحول.. وقد عززت هذه الدول رؤيتها الاستراتيجية ببرامج وخطط وطنية تهدف إلى تحويل الذكاء الاصطناعي إلى ركيزة أساسية في منظومة العمل الحكومي والأمني.
أولاً: الإمارات العربية المتحدة
تُعَدّ دولة الإمارات العربية المتحدة نموذجاً إقليميا رائداً في مجال توظيف الذكاء الاصطناعي، حيث أطلقت الاستراتيجية الوطنية للذكاء الاصطناعي 2031 التي تهدف إلى جعل الدولة واحدة من المراكز العالمية في هذا المجال.
وفي القطاع الأمني تحديداً، عملت وزارة الداخلية على إدخال تطبيقات متعددة، أبرزها:
أنظمة المراقبة الذكية: انتشار كاميرات متطورة مرتبطة بخوارزميات قادرة على التعرف على الوجوه وتحليل السلوكيات، ما يساعد في الكشف المبكر عن التهديدات؛
الخدمات الشرطية الذكية: إطلاق تطبيقات على الهواتف الذكية تتيح تقديم البلاغات، وطلب الخدمات الأمنية بسهولة، مما يقلل العبء على المراكز التقليدية؛
الأمن السيبيراني: تأسيس مراكز متخصصة لمواجهة التهديدات الإلكترونية، مستفيدة من تقنيات الذكاء الاصطناعي لرصْد محاولات الاختراق بشكل استباقي.
يعكس هذا التوجُّه رغبة الدولة في تحقيق التوازن بين تعزيز الأمن وحماية خصوصية الأفراد، حيث تم سنّ قوانين لحماية البيانات الشخصية، (مثل قانون حماية البيانات الصادر عام 2021) لضمان عدم إساءة استخدام التكنولوجيا.
ثانياً: المملكة العربية السعودية
أطلقت المملكة العربية السعودية الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي (نسدي)، التي تسعى إلى جعْل الذكاء الاصطناعي محركاً رئيسيا للتنمية الاقتصادية والأمنية.
في الجانب الأمني، استثمرت المملكة في تطوير أنظمة المراقبة خلال الفعاليات الكبرى مثل موسم الحج، حيث يتم استخدام تقنيات التعرف على الوجوه وإدارة الحشود لضمان الأمن والسلامة.
ثالثاً: قطر
ركزت قطر على توظيف الذكاء الاصطناعي في مجالات الأمن السيبيراني، خصوصاً مع استضافتها فعاليات كأس العالم 2022، فقد تم نشر أنظمة مراقبة متقدمة في الملاعب والبنية التحتية المصاحبة، ما وفر نموذجاً عمليا على كيفية دمْج التكنولوجيا في إدارة الفعاليات الضخمة.
رابعاً: البحرين والكويت وسلطنة عُمان
رغم أن هذه الدول لا تزال في مراحل مبكرة نسبيّا مقارنة بدولة الإمارات العربية المتحدة والمملكة العربية السعودية، إلا أنها بدأت بالفعل في الاستثمار في تقنيات الأمن السيبيراني والمراقبة الذكية.
ركزت البحرين مثلا على تعزيز التشريعات المرتبطة بحماية البيانات، في حين عملت الكويت وسلطنة عُمان على بناء كوادر بشرية متخصصة في الذكاء الاصطناعي لدعم المؤسسات الأمنية.
التحديات المشتركة في دول الخليج العربي
رغم التقدم الملحوظ، تواجه دول الخليج مجموعة من التحديات المشتركة، أبرزها:
1- الحاجة إلى تشريعات أكثر تفصيلاً تنظم الاستخدام الأمني للذكاء الاصطناعي؛
2- ضمان التوازن بين الأمن والحقوق الفردية، خصوصاً في ما يتعلق بالخصوصية؛
3- معالجة مخاطر التحيز في الخوارزميات عند تطبيقها في بيئات متعددة الثقافات؛
4- بناء الثقة المجتمعية، بحيث لا يُنظر إلى الذكاء الاصطناعي كأداة مراقبة صارمة فقط، بل كوسيلة لحماية المجتمع وتحسين الخدمات.
خلاصة الوضع الراهن
يتضح أن دولة الإمارات العربية المتحدة تقود المشهد الإقليمي في مجال الأمن الذكي، بينما تلحق بها بقية دول الخليج بخطوات متسارعة.. ويعكس هذا التوجه إدراكاً استراتيجيا بأن الذكاء الاصطناعي لم يَعد خياراً تكنولوجيا فحسب، بل أصبح ضرورة لتعزيز الأمن الوطني والإقليمي.
التوصيات
من خلال استعراض التطبيقات الأمنية للذكاء الاصطناعي، والتحديات القانونية والأخلاقية المرتبطة به، بالإضافة إلى التجارب الدولية، والوضع الراهن في دولة الإمارات العربية المتحدة ومنطقة الخليج؛ يمكن صياغة مجموعة من التوصيات العملية التي تسهم في تحقيق الاستخدام الأمثل والمسؤول لهذه التقنيات.
أولاً: التوصيات التشريعية
وضع إطار قانوني خاص بالذكاء الاصطناعي الأمني: ينبغي صياغة تشريعات واضحة تحدد نطاق استخدام الذكاء الاصطناعي في المجال الأمني، وتحدد المسؤوليات القانونية عن الأخطاء أو الأضرار الناجمة عنه؛
حماية البيانات والخصوصية: ضرورة تعزيز قوانين حماية البيانات بحيث تشمل آليات جمْعها وتخزينها واستخدامها، مع ضمان وجود رقابة مستقلة لمنع إساءة الاستغلال؛
الاعتراف بالأدلة الرقمية: تطوير تشريعات واضحة حول مكانة الأدلة الناتجة عن تقنيات الذكاء الاصطناعي في المحاكم، وضمان إمكانية مراجعتها والطعن فيها.
ثانياً: التوصيات التقنية
الحد من التحيز الخوارزمي: الاستثمار في تطوير خوارزميات عادلة وشفافة، وضمان تدريبها على بيانات متنوعة تمثل جميع فئات المجتمع؛
استخدام الذكاء الاصطناعي نفسه لمكافحة الهجمات الإلكترونية: مع تحديث الأنظمة بشكل دوري لمواجهة الأساليب المتجددة للمخترقين؛
توظيف تقنيات التفسير والشفافية: تطوير أنظمة قادرة على شرح كيفية اتخاذ القرارات، بما يعزز الثقة ويتيح المساءلة.
ثالثاً: التوصيات المؤسسية
بناء القدرات البشرية: تدريب الكوادر الأمنية على التعامل مع تقنيات الذكاء الاصطناعي، ليس فقط من الناحية التشغيلية بل أيضاً من الناحية الأخلاقية والقانونية؛
إنشاء لجان أخلاقية مستقلة: تكليفها بمراجعة مشاريع الذكاء الاصطناعي الأمني، لضمان توافقها مع القيم الوطنية والمعايير الدولية لحقوق الإنسان؛
تعزيز التعاون الإقليمي والدولي: تبادل الخبرات وأفضل الممارسات بين دول الخليج والعالم، ووضْع معايير موحدة للتعامل مع البيانات الأمنية.
رابعاً: التوصيات المجتمعية
تعزيز الوعي المجتمعي: إطلاق حملات توعوية لشرح كيفية استخدام الذكاء الاصطناعي في المجال الأمني، وأهدافه، وحدوده، بما يعزز ثقة المواطنين؛
التفاعل مع المجتمع المدني: إشراك مؤسسات المجتمع المدني في صياغة السياسات الأمنية الرقمية لضمان تمثيل صوت المجتمع.
الخاتمة
لقد كشف هذا البحث عن الآفاق الواعدة التي يحملها الذكاء الاصطناعي في سبيل تعزيز وتطوير الممارسات الأمنية؛ فمن خلال الأدوات والتقنيات التي يوفرها، يتبدى بوضوح كيف يمكن للذكاء الاصطناعي أن يسهم بشكل فعال في استتباب الأمن.
ومع ذلك، لا يمكن إغفال التحديات والمخاطر المصاحبة لهذا التحول؛ فمسائل الخصوصية وأمن البيانات، والتحيزات الكامنة في الخوارزميات، وإمكانية استغلال هذه التقنيات لأغراض التضليل والتأثير غير المشروع، كلها قضايا جوهرية تتطلب دراسة متأنية، ووضْع ضوابط أخلاقية وقانونية صارمة لضمان الاستخدام المسؤول لهذه التقنيات.
إن الذكاء الاصطناعي يمثل أداة ثورية يمكنها أن تسهم في تعزيز الأمن وحماية المجتمعات، لكنه في الوقت ذاته يحمل مخاطر قانونية وأخلاقية تستوجب التعامل معها بحذر ووعي.
وتحقيق التوازن بين الاستفادة من القدرات الهائلة لهذه التقنية وحماية الحقوق الأساسية للأفراد يتطلب جهداً تشريعيا وتقنيا ومؤسسيا متكاملا.
ودولة الإمارات العربية المتحدة ومنطقة الخليج أمام فرصة تاريخية لقيادة هذا التوجُّه عالميا، من خلال تطوير نماذج متوازنة تجمع بين الريادة التكنولوجية والالتزام بالقيم الإنسانية، لتصبح مثالاً يُحتذى به في الاستخدام المسؤول للذكاء الاصطناعي في المجال الأمني.
والله ولي التوفيق
المراجع (References)
أولاً: التقارير
- European Commission. (2024). The Artificial Intelligence Act (Regulation (EU) 2024/1689): Harmonised rules on Artificial Intelligence. Official Journal of the European Union.
- قانون الذكاء الاصطناعي: القواعد الموحدة للذكاء الاصطناعي في الاتحاد الأوروبي؛ المفوضية الأوروبية 2024.
- UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO.
- التوصية بشأن أخلاقيات الذكاء الاصطناعي؛ منظمة الأمم المتحدة للتربية والعلوم والثقافة. باريس – يونيسكو 2001.
- United Nations. (2018). The Right to Privacy in the Digital Age: Report of the United Nations High Commissioner for Human Rights. A/HRC/39/29.
الحق في الخصوصية في العصر الرقمي: تقرير المفوض السامي لحقوق الإنسان؛ الأمم المتحدة 2018.
- European Union Agency for Fundamental Rights (FRA). (2020). Getting the Future Right – Artificial Intelligence and Fundamental Rights. Publications Office of the EU.
الذكاء الاصطناعي والحقوق الأساسية، ضمان مستقبل صحيح؛ وكالة المنشورات في الاتحاد الأوربي.
- AI Now Institute. (2019). AI Now Report 2019. New York University.
تقرير الذكاء الاصطناعي 2019؛ معهد الذكاء الاصطناعي، جامعة نيويورك.
- ProPublica. (2016). Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks.
بروالتحيز الآلي: البرمجيات المستخدمة للتنبؤ بالمجرمين المستقبليين وانحيازها ضد السود؛ ببليكا 2016.
- UAE Government. (2021). UAE National Strategy for Artificial Intelligence 2031. Ministry of State for Artificial Intelligence, Dubai.
الاستراتيجية الوطنية للذكاء الاصطناعي 2031؛ حكومة الإمارات العربية المتحدة 2021.
- Saudi Data and Artificial Intelligence Authority (SDAIA). (2020). National Strategy for Data and Artificial Intelligence (NSDAI). Riyadh.
الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي؛ الهيئة السعودية للبيانات والذكاء الاصطناعي سدايا 2020.
- Qatar Ministry of Communications and Information Technology. (2022). Artificial Intelligence Policy for Qatar. Doha.
سياسة الذكاء الاصطناعي لدولة قطر؛ وزارة الاتصالات وتكنولوجيا المعلومات القطرية.
- Amnesty International. (2021). Ban the Scan: Facial Recognition in New York City. London: Amnesty International.
حظر المسح الضوئي التعرف على الوجه في مدينة نيويورك؛ منظمة العفو الدولية، لندن 2021.
- Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Transparent, Explainable, and Accountable AI for a Fair Society. Nature Communications, 2(1), 1–8.
الذكاء الاصطناعي الشفاف والقابل للتفسير والخاضع للمساءلة من أجل مجتمع عادل.
- National Academies of Sciences, Engineering, and Medicine. (2021). Facial Recognition Technology: Current Capabilities, Future Prospects, and Governance. Washington, DC: The National Academies Press.
تكنولوجيا التعرف على الوجوه.. القدرات الحالية وآفاق المستقبل والحوكمة؛ الأكاديمية الوطنية للعلوم والهندسة والطب، مطبعة الأكاديميات الوطنية، واشنطن.
- OECD. (2022). OECD Framework for the Classification of AI Systems. OECD Digital Economy Papers, No. 323, Paris.
الإطار الخاص بتصنيف أنظمة الذكاء الاصطناعي؛ منظمة التعاون الاقتصادي والتنمية، باريس.
ثانياً: الكتب والمقالات
استخدام الذكاء الاصطناعي في السياسة العامة: تحليل البيانات الضخمة والتنبؤات المستقبلية. المعلومات، المجلد 15، العدد 9، السنة 2022.
جلال عبد الوهاب محمد، قاموس مصطلحات الذكاء الاصطناعي، مطابع الأهرام التجارية، القاهرة، دون سنة نشر.
حسن نايف مبارك الحجرف، دور الذكاء الاصطناعي في تعزيز الأمن السيبيراني، مجلة الدراسات الجامعية للبحوث الشاملة، العدد 5، السنة 2024.
حسين يوسف أبو منصور، الذكاء الاصطناعي وأبعاده الأمنية، جامعة نايف العربية للعلوم الأمنية، أوراق السياسات الأمنية، السنة 2020.
سارة عبد العزيز، تأثيرات الذكاء الاصطناعي على الأمن المعلوماتي للدول، مجلة المستقبل للأبحاث والدراسات المتقدمة، السنة 2020.
عبد الله موسى، أحمد حبيب بلال، الذكاء الاصطناعي.. ثورة في تقنيات العصر، المجموعة العربية للتدريب والنشر، 2019.
مبادئ أخلاقيات الذكاء الاصطناعي؛ تأليف الهيئة السعودية للبيانات والذكاء الاصطناعي؛ الإصدار الأول؛ سبتمبر 2023.
نورة محمد عبد الله العزام، دور الذكاء الاصطناعي في رفع كفاءة النظم الإدارية لإدارة الموارد البشرية بجامعة تبوك، المجلة التربوية لكلية التربية بجامعة سوهاج، المجلد 84، السنة 2021.
- حسين يوسف أبو منصور، جامعة نايف العربية للعلوم الأمنية، أوراق السياسات الأمنية، السنة 2020. ↑
- سارة عبد العزيز، مجلة المستقبل للأبحاث والدراسات المتقدمة، السنة 2020. ↑
- حسن نايف مبارك الحجرف، مجلة الدراسات الجامعية للبحوث الشاملة، العدد 5، السنة 2024. ↑
- نورة محمد عبد الله العزام، المجلة التربوية لكلية التربية بجامعة سوهاج، المجلد 84، السنة 2021. ↑
- مبادئ أخلاقيات الذكاء الاصطناعي؛ تأليف الهيئة السعودية للبيانات والذكاء الاصطناعي؛ الإصدار الأول؛ سبتمبر 2023، ص. 12. ↑
- استخدام الذكاء الاصطناعي في السياسة العامة: تحليل البيانات الضخمة والتنبؤات المستقبلية. المعلومات، المجلد 15، العدد 9، السنة 2022، ص. 556. ↑
- Eugene Charniak, Drew McDermott, Introduction to Artificial Intelligence, Addison-Wesley Publishing Company, Canada, 1985, P. 6. ↑
- جلال عبد الوهاب محمد، قاموس مصطلحات الذكاء الاصطناعي، مطابع الأهرام التجارية، القاهرة، دون سنة نشر. انظر كذلك: عبد الله موسى، أحمد حبيب بلال، الذكاء الاصطناعي.. ثورة في تقنيات العصر، المجموعة العربية للتدريب والنشر، 2019، ص. 16. ↑




