في الواجهةمقالات قانونية

دور الذكاء الاصطناعي في تطور الجريمة ومكافحتها: أبعاد قانونية وأخلاقية – الباحثة : هبة اجليل الاستاذ: عبد الكريم عباد

الباحثة : هبة اجليل تحت اشراف الاستاذ: عبد الكريم عباد

دور الذكاء الاصطناعي في تطور الجريمة ومكافحتها: أبعاد قانونية وأخلاقية

The Role of Artificial Intelligence in the Evolution and Prevention of Crime: Legal and Ethical Dimensions.

الباحثة : هبة اجليل

باحثة بسلك الدكتوراه في القانون الخاص مختبر قانون الأعمال: كلية العلوم القانونية والسياسية:

جامعة الحسن الاول سطات

تحت اشراف الاستاذ: عبد الكريم عباد

هذا البحث منشور في مجلة القانون والأعمال الدولية الإصدار رقم 60 الخاص بشهر أكتوبر/ نونبر 2025
رابط تسجيل الاصدار في DOI


https://doi.org/10.63585/EJTM3163

للنشر و الاستعلام
mforki22@gmail.com
الواتساب 00212687407665

دور الذكاء الاصطناعي في تطور الجريمة ومكافحتها: أبعاد قانونية وأخلاقية

The Role of Artificial Intelligence in the Evolution and Prevention of Crime: Legal and Ethical Dimensions.

الباحثة : هبة اجليل

باحثة بسلك الدكتوراه في القانون الخاص مختبر قانون الأعمال: كلية العلوم القانونية والسياسية:

جامعة الحسن الاول سطات

تحت اشراف الاستاذ: عبد الكريم عباد

لملخص،

يشكل الذكاء الاصطناعي ثورة مزدوجة الأثر في مجال الجريمة؛ فهو يُستعمل من جهة كأداة لارتكاب أفعال إجرامية كالتزوير والقرصنة وانتحال الهوية، ومن جهة أخرى كوسيلة لتعزيز الوقاية عبر التنبؤ الأمني وتحليل البيانات الضخمة والمراقبة الذكية. هذه الازدواجية تثير تحديات قانونية وأخلاقية كبرى تتعلق بالتوازن بين حماية الأمن وصون الحقوق والحريات، فضلاً عن إشكالات التحيز الخوارزمي وغياب الشفافية وصعوبة تحديد المسؤولية. وتؤكد الدراسة أن أنظمة العدالة الجنائية مطالبة بالتكيف السريع مع التحولات الرقمية بوضع أطر تشريعية دقيقة وضمانات حقوقية قوية، إلى جانب تعزيز التعاون الدولي وآليات الحوكمة الأخلاقية لمواجهة مخاطر التوظيف الإجرامي للذكاء الاصطناعي. فالذكاء الاصطناعي ليس مجرد قضية تقنية، بل مسؤولية قانونية وأخلاقية عميقة.

الكلمات المفتاحية :الذكاء الاصطناعي، الجريمة الإلكترونية، مكافحة الجريمة، الشرطة التنبؤية، الخصوصية وحماية البيانات، الانحياز الخوارزمي، التحديات القانونية، التحديات الأخلاقية

SUMMARY:

Artificial intelligence represents a dual-impact revolution in the field of crime. On one side, it serves as a tool for committing offenses such as hacking, forgery, and identity theft; on the other, it enhances crime prevention through predictive policing, big data analysis, and intelligent surveillance. This duality poses major legal and ethical challenges regarding the balance between security protection and the preservation of rights and freedoms, in addition to issues of algorithmic bias, lack of transparency, and the difficulty of attributing responsibility. The study stresses that criminal justice systems must adapt rapidly to digital transformations by enacting precise legislative frameworks and strong human rights safeguards, while also promoting international cooperation and ethical governance mechanisms to counter the criminal use of AI. Ultimately, artificial intelligence is not merely a technical matter but a profound legal and ethical responsibility.

Keywords: Artificial Intelligence (AI), Cybercrime, Crime Prevention, Predictive Policing, Privacy and Data Protection, Algorithmic Bias, Legal Challenges, Ethical Challenges.

:مقدمة 

يعد الذكاء الاصطناعي من أكثر المفاهيم إثارة للنقاش العلمي والقانوني في القرن الحادي والعشرين. وقد عرفه الباحث جون مكارثي، الذي يعتبر أحد رواد هذا المجال، بأنه: “علم وهندسة صناعة الآلات الذكية القادرة على أداء مهام تتطلب ذكاء بشرياً”[1]. ومنذ ذلك الحين، تطور الذكاء الاصطناعي من مجرد خوارزميات بسيطة لمعالجة المعلومات إلى أنظمة معقدة قادرة على التعلم العميق واتخاذ القرارات بشكل شبه مستقل

أصبح الذكاء الاصطناعي اليوم حديث الساعة، ليس فقط بسبب الإمكانات الاقتصادية التي يتيحها، بل أيضا بسبب التحديات القانونية والأخلاقية التي يطرحها. فهو يمثل في آن واحد أداة للابتكار والتقدم، ومصدرا لمخاطر غير مسبوقة، خاصة حين يوظف في ميادين حساسة كالأمن والعدالة الجنائية

وإذا نظرنا إلى العلاقة بين الذكاء والجريمة تاريخيا وفلسفيا، نجد أن الجريمة لطالما ارتبطت بالتقدم التقني. فمنذ اكتشاف البارود في القرون الوسطى وتحوله إلى سلاح في الحروب، وصولا إلى الثورة الصناعية وما صاحبها من جرائم اقتصادية جديدة، ظل الإنسان يستعمل أدواته الذكية إما لحماية المجتمع أو لانتهاك قواعده. وهنا تتجلى المفارقة التي أشار إليها الفيلسوف الألماني يورغن هابرماس حينما اعتبر أن: كل تطور تقني يعيد صياغة العلاقة بين الإنسان والأخلاق[2]

ولقد ساهم التطور الهائل لتطبيقات الذكاء الاصطناعي في بروز صور جديدة من الجرائم، من أبرزها الجرائم الإلكترونية المدعومة بالخوارزميات، جرائم التزييف العميق، عمليات الاحتيال المعقدة، وسرقة الهوية عبر الفضاء الرقمي، فضلا عن توظيف الروبوتات والأنظمة الذكية في أنشطة غير مشروعة[3]. وفي المقابل، فإن الأجهزة الأمنية والعدلية تسعى جاهدة للاستفادة من نفس التقنية في تطوير آليات المراقبة، تحليل البيانات الضخمة، التنبؤ بالسلوك الإجرامي، وتحسين أساليب التحقيق والضبط. هذه الازدواجية تجعل الذكاء الاصطناعي سيفا ذا حدين: أداة للتهديد وأداة للحماية في الوقت نفسه

إن خطورة هذا الموضوع لا تكمن فقط في تعدد أشكال الجرائم التي يمكن أن يولدها الذكاء الاصطناعي، بل أيضا في التحديات القانونية والأخلاقية المرتبطة به. فالقوانين الحالية، سواء الوطنية أو الدولية، غالبا ما تعجز عن مواكبة هذا التطور المتسارع، مما يخلق فراغا تشريعيا يصعب تحديد المسؤولية الجنائية بوضوح، خصوصا في الحالات التي تتدخل فيها الأنظمة الذكية المستقلة. إلى جانب ذلك، فإن البعد الأخلاقي يطرح إشكاليات معقدة تتعلق بالتحيز الخوارزمي، الشفافية، واحترام الحياة الخاصة، مما يضع رجال القانون والمشرعين أمام معادلة صعبة بين تحقيق الأمن وحماية الحقوق والحريات الأساسية

ومن هنا تنبع أهمية هذا الموضوع، الذي لا يقتصر على بعده القانوني والتشريعي فقط، بل يمتد إلى البعد الأخلاقي المتعلق بكيفية التوفيق بين مقتضيات الأمن وحماية الحقوق والحريات الأساسية، ويسعى هذا البحث إلى تحقيق مجموعة من الأهداف، أبرزها: تحليل دور الذكاء الاصطناعي كوسيلة للجريمة وكأداة لمكافحتها، إبراز أوجه القصور في المنظومات القانونية القائمة أمام الجرائم المدعومة بالذكاء الاصطناعي، تسليط الضوء على الإشكالات الأخلاقية التي تثيرها هذه التقنية في المجال الجنائي،وتقديم مقترحات عملية لبناء إطار قانوني وأخلاقي متوازن يضمن الاستفادة من مزايا الذكاء الاصطناعي مع الحد من مخاطره

:إشكالية البحث وأسئلته

الإشكالية الرئيسية:
كيف يمكن التوفيق بين استغلال الذكاء الاصطناعي كوسيلة فعّالة لمكافحة الجريمة وبين الحد من مخاطره كأداة لارتكابها، في ظل قصور الأطر القانونية والأخلاقية الحالية؟

:الأسئلة الفرعية

ما أبرز صور الجرائم التي يولدها توظيف الذكاء الاصطناعي؟

كيف يمكن للذكاء الاصطناعي أن يدعم جهود أجهزة إنفاذ القانون؟

ما هي حدود المسؤولية الجنائية في الجرائم المدعومة بالذكاء الاصطناعي؟

ما هي التحديات الأخلاقية التي تثيرها الخوارزميات والأنظمة الذكية في المجال الجنائي؟

ما هي السبل القانونية والأخلاقية الكفيلة بضبط استعمال الذكاء الاصطناعي في ميدان الجريمة؟

خطة البحث

المبحث الأول: الذكاء الاصطناعي كأداة للجريمة ومكافحتها

المطلب الأول: الذكاء الاصطناعي كوسيلة لارتكاب الجريمة

المطلب الثاني: الذكاء الاصطناعي كوسيلة لمكافحة الجريمة

المبحث الثاني: التحديات القانونية والأخلاقية للذكاء الاصطناعي في المجال الجنائي

المطلب الأول: التحديات القانونية

المطلب الثاني: التحديات الأخلاقية

المبحث الأول: الذكاء الاصطناعي كأداة للجريمة ومكافحتها

إن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة في المجالات التقنية أو الاقتصادية، بل أصبح عنصرا مركزيا في إعادة تشكيل البنى الاجتماعية والقانونية والأمنية على حد سواء. وإن ما يميز هذه التقنية الحديثة هو طابعها المزدوج، فهي في الوقت نفسه وسيلة لتعزيز رفاه الإنسان وتحسين جودة الحياة، ووسيلة يمكن أن تستغل في المساس بحقوق الأفراد وأمن المجتمعات. هذا التناقض يظهر بشكل جلي في المجال الجنائي، حيث أصبح الذكاء الاصطناعي يستعمل كسلاح ذكي لارتكاب الجرائم المعقدة والمبتكرة، وفي المقابل يعتمد عليه كأداة متقدمة لتعقب المجرمين والكشف عن الجرائم والحد من انتشارها

المطلب الأول: الذكاء الاصطناعي كوسيلة لارتكاب الجريمة

مع التقدم المتسارع لتقنيات الذكاء الاصطناعي، برزت استخدامات إجرامية جديدة شكلت تهديدا للأمن السيبراني والمجتمعي. يعتمد هذا المطلب على تحليل كيفية استغلال الذكاء الاصطناعي في تنفيذ الجرائم، سواء في الفضاء الإلكتروني أو من خلال تقنيات مبتكرة في الجرائم التقليدية، مع تسليط الضوء على التحديات التي تطرحها هذه الاستخدامات

الفقرة الأولى: الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي

عرف قاموس أكسفورد الجريمة الالكترونية بأنها “الأنشطة الإجرامية التي تتم عبر أجهزة الكمبيوتر أو الإنترنت”، مشيرا إلى أن هذه الجرائم قد تكون نسخة رقمية من الجرائم التقليدية، حيث يعد الكمبيوتر إما أداة أو هدفا للسلوك الإجرامي. كما يعرف مصطلح الجريمة الالكترونية على أنه أي نشاط إجرامي يتم تسهيله أو تنفيذه عبر الاتصالات الإلكترونية أو أنظمة المعلومات، بما في ذلك أي جهاز كمبيوتر أو الإنترنت أو مزيج منها. تشمل الجرائم الإلكترونية مجموعة واسعة من النشاطات، بدءا من الاختراق الإلكتروني وصولا إلى هجمات حجب الخدمة، وتعد أجهزة الكمبيوتر أو الشبكات أداة أو هدفا أو مكانا لهذه الجرائم. كما يمكن أن تستخدم هذه الوسائل الرقمية في ارتكاب جرائم تقليدية بطريقة تمكن المجرمين من تنفيذ نشاطاتهم غير المشروعة بكفاءة أعلى، وقد تصل تأثيراتها إلى تعطيل خدمات حيوية مثل خطوط السكك الحديدية أو أنظمة الملاحة الجوية، مما يبرز خطورة هذه الجرائم على الأمن العام والسلامة[4]

لقد أحدث الذكاء الاصطناعي ثورة في مجال الجرائم الإلكترونية. فبينما كان المجرم الإلكتروني في السابق يعتمد على مهارات برمجية يدوية، صار اليوم قادرا على استخدام أنظمة ذكية قادرة على التعلم والتطور بشكل مستقل. ومن بين هذه الجرائم نجد

أولا: الهجمات السيبرانية الذكية

تعرف الهجمات السيبرانية الذكية بأنها الأنشطة الإجرامية التي تعتمد على الذكاء الاصطناعي لتنفيذ عمليات اختراق وتحليل بيانات ضخمة بشكل آلي، مع القدرة على التكيف مع الأنظمة المستهدفة وتجاوز التدابير الأمنية التقليدية. وتشمل هذه الهجمات استغلال الثغرات في الأنظمة، وسرقة البيانات، وتعطيل الخدمات الرقمية الحيوية.
تندرج هذه الهجمات تحت مظلة الجرائم المعلوماتية وفقا للقانون النموذجي لمكافحة الجريمة المعلوماتية، الذي يعاقب كل من يخترق أو يعيق عمل الأنظمة الرقمية بقصد ارتكاب جرم[5] . و من بين أشكال الهجمات السيبرانية الذكية ما يلي:

الاختراق الذكي للشبكات: استخدام الذكاء الاصطناعي لكشف الثغرات الأمنية في الشبكات واستغلالها للوصول غير المصرح به إلى البيانات

الهجمات الموجهة على البنى التحتية الحيوية: استهداف شبكات النقل، الطاقة، والاتصالات عبر خوارزميات الذكاء الاصطناعي لتعطيل الخدمات أو إلحاق الضرر بالأمن العام

التلاعب بالأنظمة المؤسسية: استغلال نظم الذكاء الاصطناعي داخل الشركات والمؤسسات للتلاعب بالبيانات المالية أو المعلوماتية

ثانيا: التصيد الاحتيالي المخصص

يعد التصيد الاحتيالي شكلا متقدما من أشكال الهندسة الاجتماعية، حيث يتنكر المهاجم ككيان موثوق به ويستخدم أساليب الخداع لإقناع الضحية بالكشف عن معلومات شخصية حساسة، أو دفعها إلى اتخاذ إجراءات تؤدي إلى انتهاك أمني. ويعتمد مرتكبو التصيد الاحتيالي على وسائل متعددة، تشمل البريد الإلكتروني، الرسائل النصية القصيرة، المنشورات على مواقع التواصل الاجتماعي، والمكالمات الهاتفية، حيث تحتوي هذه الوسائل غالبا على روابط أو محتوى مصمم خصيصا لخداع الضحايا وسرقة بياناتهم، مثل أسماء المستخدمين، كلمات المرور، معلومات الحسابات البنكية، وأرقام البطاقات الائتمانية[6]

ومع تطور تقنيات الذكاء الاصطناعي، أصبح التصيد الاحتيالي أكثر تطورا ودقة، حيث يستخدم الذكاء الاصطناعي لتحليل بيانات الضحايا على الإنترنت وإنشاء رسائل مخصصة تحاكي أسلوب كتابتهم أو أسلوب مرسلي البريد الموثوقين لديهم، مما يزيد من احتمالية نجاح الهجوم. كما يمكن للذكاء الاصطناعي إدارة حملات تصيد متعددة بشكل شبه آلي، مما يزيد من نطاق الضرر ويعقد الإجراءات القانونية لملاحقة الجناة

وهذا ما يسمى بالتصيد الاحتيالي المخصص الذي يعتبر نوعا متقدما من التصيد الإلكتروني، حيث يستخدم الجاني الذكاء الاصطناعي لتحليل بيانات الضحية على الشبكات الرقمية وتوليد رسائل إلكترونية مخصصة تظهر وكأنها من مصدر موثوق، بهدف خداع الضحية للحصول على معلومات حساسة أو تحويل أموال. ويصنف هذا الفعل كجريمة جنائية إلكترونية وفق القوانين الوطنية لحماية البيانات والجرائم المعلوماتية، لما فيه من انتهاك للخصوصية واختراق للأنظمة[7]. ومن آثار التصيد الاحتيالي المخصص نجد

الضرر المالي: سرقة الأموال أو البيانات البنكية للضحايا

انتهاك الخصوصية: الحصول على معلومات شخصية حساسة لأغراض الاحتيال أو الابتزاز

التأثير المؤسسي: استهداف المؤسسات التجارية أو الحكومية لتعديل بياناتها أو تعطيل خدماتها

ثالثا: التلاعب بالمحتوى عبر التزييف العميق

التزييف العميق تقنية تعتمد على الذكاء الاصطناعي لإنشاء مقاطع فيديو أو تسجيلات صوتية مزيفة يظهر فيها الأفراد وكأنهم يقومون بأفعال أو يقولون أقوالا لم يقوموا بها. وتستخدم هذه التقنية في ارتكاب جرائم الابتزاز، الاحتيال، والتشهير، تصنف الجرائم الناتجة عن التزييف العميق ضمن الجرائم الإلكترونية ذات الطبيعة الجنائية، حيث تطبق القوانين المتعلقة بالجرائم المعلوماتية وحماية السمعة الشخصية، مع إمكانية تطبيق قوانين مكافحة الاحتيال الجنائي. يمكن استخدام تقنية التزييف العميق لإنشاء محتوى مرئي وصوتي زائف، ويقصد بالأول استخدام هذه التقنية في إنتاج الصور ومقاطع الفيديو، وذلك إما بتبديل الوجه وتركيب وجه شخص آخر عبر استخدام خوارزمية التشفير وخوارزمية فك التشفير، أو التلاعب بالوجه مثل تغيير التعابير أو مزامنة الشفاه، وذلك باستخدام خوارزمية التوليد وخوارزمية التمييز. أما المحتوى الصوتي فيقصد به تركيب الصوت أو تعديله، ويتم تركيب الصوت بإنتاج تسجيل مزيف لشخص يتضمن الحديث عن موضوع معين بصوت نفس الشخص غير أنه لم يقله في الحقيقة. أما تعديل الصوت فيكون عن طريق التلاعب والتحكم في نبرات الصوت أو شعوره بحيث يظهرالشخص كأنه في حالة السكر مثلا[8] . ومن أشكال التلاعب بالمحتوى عبر التزييف العميق نجد

الابتزاز المالي: استخدام مقاطع مزيفة للضغط على الضحايا للحصول على أموال

التشهير الشخصي أو المؤسساتي: نشر محتوى مزيف يسيء لسمعة الأفراد أو الشركات

التأثير السياسي والإعلامي: استغلال المحتوى المزيف للتلاعب بالرأي العام أو التأثير على الانتخابات والقرارات السياسية

الذكاء الاصطناعي كرافعة للانتهاك: تقارير أوروبية متخصصة توثق أثر التزييف العميق على المواطنين والأمن العام، بما في ذلك المحتوى الحميم غير الرضائي أو تشويه السمعة؛ وهو ما تؤكده تقارير يوروبول حول تصاعد إساءة استخدام التوليد الآلي للمحتوى السمعي–البصري[9]

الفقرة الثانية: الجرائم التقليدية المدعومة بالذكاء الاصطناعي

رغم أن الذكاء الاصطناعي ارتبط في البداية بالجرائم الإلكترونية البحتة، إلا أن تطوره أتاح إمكانيات لارتكاب جرائم تقليدية بأدوات جديدة أكثر خطورة، مما يثير إشكالات قانونية تتعلق بالمسؤولية والإثبات

أولا: القتل العمد والإيذاء المدعومان بالذكاء الاصطناعي

الذكاء الاصطناعي يعمل هنا كـ «وسيلة تنفيذ» تزيد القدرة على إحداث النتيجة الإجرامية أو تحكمها عن بعد (طائرة مسيرة ذات قدرات تتبع تلقائي، نظام قيادة ذاتية مبرمج للصدم، أنظمة مادية–سيبرانية تدار بخوارزميات تعلمية). لا يغير ذلك من الوصف التقليدي للجريمة: يبقى القتل العمد خاضعا لنصوص القتل، والإيذاء لجرائم الضرب والجرح، مع تقييم علاقة السببية بين تشغيل النظام الذكي والنتيجة الضارة

القتل العمد: يؤطره الفصل 392 من القانون الجنائي المغربي ويكفي أن تحمل النتيجة (إزهاق الروح) على فعل إيجابي يعد «وسيلة قاتلة» ولو كانت منظومة ذكية موجهة أو مبرمجة لذلك[10]

الايذاء (الضرب والجرح): الفصول 400 وما بعدها تجرم الاعتداءات البدنية بحسب جسامة العجز والنتيجة، بغض النظر عن الأداة المستعملة؛ فينصرف الحكم ذاته إن كانت الأداة نظاما ذاتيا أو خوارزمية تتحكم في جسم مادي (روبوت/طائرة صغيرة/مركبة)[11]

أمثلة تطبيقية مختصرة: برمجة طائرة مسيرة مزودة بقدرة تتبع وجسم صادم لاستهداف شخص بعينه؛ أو التلاعب بخوارزمية مركبة ذاتية القيادة لتوجيهها نحو الضحية. الإطار الدولي يحذر عموما من أنظمة أسلحة ذاتية التشغيل وما تطرحه من مخاطر على الحق في الحياة، وهو ما تناوله «برنامج الأمم المتحدة لنزع السلاح» و«اللجنة الدولية للصليب الأحمر» في مواد مرجعية[12]

الذكاء الاصطناعي هنا لا ينشئ نموذج جريمة جديدا؛ إنما يوفر «وسيلة تنفيذ» قد تضاعف الخطورة وتشدد تقدير المحاكم لخطورة الأداة وسبق الإعداد، مع بقاء النصوص التقليدية للقتل والاعتداء هي الحاكمة للتكييف، ومن وجهة نظري يمكن اعتباره ظرفا للتشديد، ذلك لان توظيفه لا يقف عند حدود الوسيلة التقنية فحسب، بل يضفي على الفعل طابعا أكثر خطورة لما يوفره من سرعة، دقة، وانتشار واسع للنتائج. فالجريمة المدعومة بالذكاء الاصطناعي تكون غالبا أعقد في كشفها وأصعب في ملاحقة مرتكبيها، الأمر الذي يضاعف من خطورتها الاجتماعية والقانونية. ومن ثم، فإن إدراج الذكاء الاصطناعي كظرف تشديد يجد أساسه في مبدأ تفريد العقاب وفقا لخطورة الوسيلة المستعملة في ارتكاب الجريمة

ثانيا: انتهاك الخصوصية المدعوم بالذكاء الاصطناعي

تتسع أدوات الانتهاك بفضل قدرات التعرف الآلي على الوجوه والأصوات وتتبع المواقع، وإنتاج محتوى مركب ينتهك الحياة الخاصة أو السمعة. يندرج ذلك ضمن جرائم المساس بالحياة الخاصة، ومعالجة المعطيات الشخصية دون سند مشروع

الإطار المغربي الخاص بالحياة الخاصة والمعطيات الشخصية

الفصول 447-1 إلى 447-3 من القانون الجنائي تجرم بث أو توزيع أقوال/صور/أشرطة لشخص دون موافقته تمس بحياته الخاصة، بما يشمل الوسائط الرقمية. وهذا يشمل حالات الفيديوهات/الصور المركبة خوارزميا متى مست بالحياة الخاصة

القانون 09-08 المتعلق بحماية الأشخاص تجاه معالجة المعطيات ذات الطابع الشخصي يضع قاعدة مشروعية للمعالجة، ويرتب نتائج قانونية على المعالجة غير المرخصة (جمع الوجوه، بصمات الصوت، تتبع السلوك،…)، مع دور اللجنة الوطنية لمراقبة حماية المعطيات الشخصية في التقنين والاعتماد[13]

ولهذا متى ما كان المخرج النهائي محتوى ماسا بالحياة الخاصة أو معالجة غير مشروعة للبيانات (صور الوجه/الصوت/الموقع)، فإن دعم الذكاء الاصطناعي لا يبدل من التكييف: ينصرف التجريم إلى الفعل الماس نفسه (البث/التسجيل/المعالجة) مع اعتبار الطابع الآلي ظرفا تشديد في تقدير خطورة الوسيلة

ثالثا: التزوير المدعوم بالذكاء الاصطناعي

الخوارزميات التوليدية تمكن من تحريف الحقيقة في محرر أو وسيط يعد في نظر القانون «حجة» (وثيقة هوية رقمية، شهادة، عقد، صورة مثبتة، تسجيل صوتي يستدل به). وعند استعمال المنتج المزور للإضرار بالغير أو تحقيق منفعة، يكتمل وصف «التزوير» واستعمال محرر مزور

في القانون الجنائي المغربي: الفصل 351 يضع القاعدة العامة لـ«التزوير في المحررات» بوصفه تغييرا للحقيقة في محرر بسوء نية، متى كان من شأنه إحداث ضرر[14]. وتشدد العقوبات بحسب نوع المحرر (رسمي/عرفي)، والفصل 356 يجرم استعمال الورقة المزورة مع العلم بتزويرها؛ وهو ما ينطبق على تقديم صورة/تسجيل مركب على أنه دليل صحيح أو وثيقة اعتماد[15]

الذكاء الاصطناعي كوسيلة تزوير

تزوير بصري/فيديو: إنشاء بطاقات أو شهادات بصور مركبة؛ أو فيديو حضور مزعوم لاجتماع رسمي. تقارير أوروبية متخصصة تبرز خطورة «الديب فايك» في تضليل الهيئات العامة والخاصة[16]

تزوير صوتي (انتحال الهوية الصوتية): استنساخ صوت مسؤول للتوثيق أو أمر مزعوم بالدفع؛ وقد سجلت حوادث بارزة كخديعة اروب عبر مؤتمر فيديو مزيف تسبب في تحويلات مالية ضخمة في 2024 [17]وحالات انتحال صوت المديرين التنفيذيين منذ 2019. هذه الوقائع لا تنشئ جريمة جديدة، بل تجسد تزوير محررات/دلائل و/أو نصبا بحسب السياق والنتيجة[18]

مرجعية مقارنة مهمة: اتفاقية بودابست لمكافحة الجريمة المعلوماتية (مجلس أوروبا) تقرر في المادة 7 «التزوير المعلوماتي» بتجريم إدخال/تعديل/حذف البيانات بقصد إنتاج «بيانات غير أصيلة» يعتد بها قانونا كأنها أصيلة. هذه القاعدة المقارنة تظهر كيف تصاغ أركان التزوير عندما تكون «مادة الجريمة» بيانات رقمية ناتجة عن أنظمة الذكاء الاصطناعي[19]

نستخلص أن معيار «تحريف الحقيقة بسوء نية في محرر يحتج به» يسع المخرجات المولّدة خوارزميا متى قدمت كحجة لإحداث ضرر أو كسب غير مشروع، ويكتمل «استعمال المزور» بتقديمها للغير أو للسلطات

المطلب الثاني: الذكاء الاصطناعي كوسيلة لمكافحة الجريمة

رغم المخاطر التي يمثلها الذكاء الاصطناعي، فإنه يقدم بالمقابل إمكانات كبيرة لتعزيز الأمن ومكافحة الجريمة. فقد أصبح من الأدوات الأساسية في الأمن السيبراني والتحقيقات الرقمية، إضافة إلى دوره المتنامي في الشرطة التنبؤية وإدارة الأمن العام

الفقرة الأولى: الامن السيبراني والتحقيقات الرقمية

يستخدم الذكاء الاصطناعي اليوم كأداة مركزية في منظومات الأمن السيبراني والتحقيقات الرقمية، من خلال تطبيقات عملية متعددة: أنظمة الكشف المبكر عن الاختراقات والبرمجيات الخبيثة، منصات إدارة الحوادث الأمنية المعززة بتعلم الآلة، وأدوات تحليل السجلات واستخراج الدلائل من مجموعات بيانات ضخمة. تعمل هذه التقنيات على تسريع عملية رصد الحوادث، فرز الأدلة الرقمية، وترتيب الأولويات للتحقيق، بما يسمح للاستخبارات الرقمية بالتحري في زمن أقصر وبحجم بيانات أكبر مما كانت تسمح به الوسائل التقليدية[20]

أولا: الأمن السيبراني

يقصد بالامن السيبراني مجموعة من التدابير والاجراءات ومفاهيم الامن و طرق ادارة المخاطر و الاعمال و التكوينات وافضل الممارسات و التكنولوجيات التي تسمح لنظام معلومات ان يقاوم احداثا مرتبطة بالفضاء السيبراني، من شأنها أن تمس بتوافر وسلامة وسرية المعطيات المخزنة أو المعالجة أو المرسلة، والخدمات ذات الصلة التي يقدمها هذا النظام أو تسمح بالولوج إليه[21]

أضحى الأمن السيبراني ميدانا طارئا في استراتيجية الدولة والمؤسسات لمواجهة الجريمة الرقمية، ويلعب الذكاء الاصطناعي دورا محوريا في هذا السياق. فتقنيات التعلم الآلي والتعلم العميق تمكن من مراقبة حركة الشبكة وتحليل كميات هائلة من السجلات في الزمن الحقيقي لاكتشاف الأنماط الشاذة التي قد تشير إلى اختراق أو نشاط خبيث. هذه الأنظمة قادرة على تمييز سلوكيات مهاجمين متقدمين، والتكيف مع تقنيات التهرب من الكشف عبر تحديث نماذجها تلقائيا، ما يخفض زمن الكشف عن الهجوم ويحد من نطاق الضرر. تقارير هيئات مختصة توثق أن الاعتماد على أدوات ذكية قلص زمن الاستجابة وزاد من فعالية المنظمات في صد هجمات معقدة مثل هجمات سلسلة التوريد والبرمجيات الخبيثة المضللة[22]

من جانب تنظيمي وتشريعي، نصت تشريعات وطنية على إنشاء أطر مؤسسية وتقنية للتأهب والاستجابة للحوادث السيبرانية؛ مثال ذلك في المغرب قانون رقم 05-20 المتعلق بالأمن السيبراني[23] الذي أسس آليات وطنية للحماية والاستجابة ولإسناد مهام فنية متقدمة، كما يتقاطع تطبيق تقنيات الذكاء الاصطناعي مع مقتضيات حماية المعطيات الشخصية[24] عند معالجة بيانات الأفراد لأغراض المراقبة والتحقيق. عمليا، يترتب على جهات الأمن اعتماد بروتوكولات فنية وقانونية تضمن سلامة الأدلة الرقمية وسرية المعطيات أثناء استخدام أدوات الذكاء الاصطناعي في رصد التهديدات

ثانيا: التحقيقات الرقمية

يدخل الذكاء الاصطناعي اليوم في قلب الطب الشرعي الرقمي؛ فهو يُسرِّع عمليات تصفية الأدلة الرقمية الضخمة واستخراج الآثارذات الجدوى القضائية: استرجاع الملفات المحذوفة، فحص أنظمة الملفات، تحليل الاتصالات والربط الزمني بين عمليات الوصول والعمليات الإجرامية. أدوات مبنية على تقنيات معالجة اللغة الطبيعية قادرة على فحص آلاف الرسائل الإلكترونية والمنشورات للبحث عن مؤشرات ارتكاب جرائم منظمة أو تواصل تنسيقي بين مرتكبي جريمة، فيما تستعمل شبكات التعلم العميق في تحليل البرمجيات الخبيثة وتصنيفها بناء على سلوكيتها. هذه القدرات تحول كم البيانات إلى مؤشرات قابلة للتحقيق بسرعة وكفاءة تفوق العمل اليدوي[25]

قانونيا وإجرائيا، يعد تحويل المخرجات الفنية إلى دليل قابل للاعتماد أمام القضاء عملية حساسة: يجب توثيق أدوات التحليل، إبراز سلاسل الحفظ، وشرح منهجية عمل الخوارزميات وخطأها المحتمل حتى يتمكن القاضي من تقييم الوزن الإثباتي للأدلة الناتجة عن الذكاء الاصطناعي. أما على المستوى الدولي، فالتقارير الشرطية والدعائم الفنية تشدد على ضرورة تمكين وحدات التحقيق من قدرات فنية وكوادر مدربة على هذه التقنيات للتعامل مع المشهد الإجرامي الرقمي المتحول[26]

الفقرة الثانية: الشرطة التنبؤية وادارة الامن العام

على مستوى الشرطة التنبؤية وإدارة الأمن العام، فقد أصبح الذكاء الاصطناعي أداة محورية في تطوير استراتيجيات الوقاية والتدخل الأمني الميداني. مما يعزز فعالية التدخل الوقائي ويقلل من معدل الجريمة

أولا: الشرطة التنبؤية

تعبر «الشرطة التنبؤية» عن تطبيقات الذكاء الاصطناعي التي تحلل بيانات جنائية وزمانية ومكانية لتقدير أماكن/أوقات ارتفاع احتمال وقوع جريمة أو لتحديد أنماط تكرار جرم معين. خوارزميات التنبؤ تدمج سجلات البلاغات، سجلات القبض، بيانات الطقس، والنشاط الحضري لإنتاج خرائط احتمالية تساعد في توجيه الدوريات وتخطيط الموارد. دراسات ميدانية وتقارير تقييم أثبتت أن استخدام هذه الأدوات قد يساعد على خفض معدلات جرائم معينة عندما توظف كأداة تكتيكية لإعادة توزيع الوجود الأمني. من ناحية التطبيق العملي، يتدرج الأمر بين أدوات مساعدة للإدارة الشرطية (تقديم مؤشرات لاتخاذ قرار ميداني) ونماذج تدمج في بروتوكولات التخطيط المركزي. قانونيا، يكتسب العمل التنبؤي أهمية إثباتية أقل من دلائل وقوع فعل، لكنه ذا قيمة عملية في التوقع والوقاية؛ لذلك يعتمد القائمون على إنفاذ القانون على قواعد عمل داخلية توثق مصادر البيانات وطبيعة المعالجة، حتى لا تستغل المعطيات بشكل يخرج عن نطاق المهام الأمنية. تقارير الجهات البحثية والشرطية تؤكد أن إدخال خوارزميات دقيقة يتطلب بيانات صحيحة ومحدثة وإدارةً بشرية للنتائج لضمان فعالية التكتيك وعدم الاعتماد الأعمى على المخرجات الآلية[27]

في المغرب، شرعت الأجهزة الأمنية في استكشاف تقنية الشرطة التنبؤية كجزء من استراتيجياتها الرامية إلى تعزيز الأمن، خاصة في المدن الكبرى التي تعرف معدلات جريمة مرتفعة. ورغم أن هذه التطبيقات لا تزال في مراحلها الأولية، إلا أن هناك مبادرات واعدة تكشف عن إمكانيات مهمة لهذه التكنولوجيا. أولا، الاعتماد على أنظمة تحليل البيانات في المدن الكبرى: فقد بدأت المديرية العامة للأمن الوطني في مدن مثل الدار البيضاء والرباط بتوظيف أنظمة لتحليل البيانات بهدف تحديد المناطق عالية الخطورة. وتعتمد هذه الأنظمة على قواعد بيانات الجرائم التي تجمعها الشرطة، والتي تتضمن تفاصيل دقيقة مثل نوع الجريمة، موقعها وتوقيتها ثانيا، التعاون مع شركات التكنولوجيا: يسعى المغرب إلى تطوير أنظمة تنبؤية محلية من خلال شراكات مع شركات تكنولوجية محلية ودولية. فعلى سبيل المثال، تعمل المديرية العامة للأمن الوطني مع إحدى الشركات التقنية على تطوير برمجيات مخصصة للسياق المغربي، قادرة على دمج بيانات متعددة المصادر، تشمل كاميرات المراقبة، تقارير الشرطة، وبيانات حركة المرور، من أجل بناء نماذج تنبؤية أكثر دقة. إلى جانب ذلك، يستفيد المغرب من شراكات دولية مع دول مثل فرنسا والمملكة المتحدة لنقل الخبرات وتبادل أفضل الممارسات في مجال الشرطة التنبؤية. ومع ذلك وعلى الرغم من الإمكانات الهائلة لتقنية التنبؤ بالجريمة، يواجه المغرب عدة تحديات تقنية ومؤسساتية تعيق تعميم هذه الاستراتيجية. من أبرزها: نقص البنية التحتية الرقمية في المناطق الريفية، الحاجة إلى تأهيل وتدريب الموظفين على استخدام الأنظمة الذكية، وأيضا ضرورة تحسين جودة البيانات وتحيينها باستمرار. ورغم هذه الإكراهات، يظل التنبؤ بالجريمة أداة واعدة لتعزيز الأمن في المغرب[28]

ثانيا: إدارة الأمن العام

تمتد مساهمة الذكاء الاصطناعي إلى مستويات أوسع من مجرد التنبؤ والتدخّل الشرطي، فتدخل في إدارة الأمن العام عبر أنظمة مراقبة ذكية، التعرف البيومتري، تحليل الحشود، وإدارة الأزمات (إخلاء، توجيه المرور، مراقبة الفعاليات). تستخدم تقنيات معالجة الفيديو لاكتشاف سلوكيات شاذة في الحشود (ركود مفاجئ، تدافع) أو لتحديد هوية مطلوبين من قواعد بيانات، كما تستعمل في تقييم المخاطر في البنى التحتية الحيوية. تلك الوظائف تخدم السلامة العامة والإدارة العملياتية للطوارئ وتسرّع اتخاذ القرارات الحاسمة في زمن واقعي[29].

إن توظيف مثل هذه الأنظمة يتقاطع مع معايير حقوق الإنسان وحماية البيانات: على صعيد الاتحاد الأوروبي، صنف قانون الذكاء الاصطناعي استعمالات التعرف البيومتري في الأماكن العامة كأنظمة عالية المخاطر وفرض عليها ضوابط وقيودا محددة، كما حظر بعض الاستخدامات الحتمية أو استبعدها إلا بشروط مشددة[30]؛ وعلى الصعيد الوطني تتطلب معالجة المعطيات البيومترية التقيد بقواعد حماية المعطيات والحصول على مسوغات قانونية وإجراءات إشرافية[31]. عمليا، تفرض إدارات الأمن اعتماد سجلات استخدام واضحة، تقييم الأثر وإشرافا مؤسساتيا لضمان أن تكون أدوات الذكاء الاصطناعي مسخرة لحماية الأمن العام دون المساس بالحقوق الأساسية

المبحث الثاني: التحديات القانونية والأخلاقية للذكاء الاصطناعي في المجال الجنائي

يتضح أن التحديات القانونية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي في المجال الجنائي لا تقل أهمية عن التحديات التقنية. فهي تتعلق بجوهر النظام القانوني القائم على الشرعية والعدالة، وبقيم إنسانية أساسية مثل الحرية، الكرامة، والخصوصية. لذلك، فإن التعامل مع هذه التحديات يستلزم إصلاحات تشريعية شاملة، إلى جانب اعتماد مقاربات أخلاقية تضمن أن يظل الذكاء الاصطناعي في خدمة الإنسان لا العكس. فرغم أن الذكاء الاصطناعي أثبت فعاليته في دعم الأجهزة الأمنية والعدلية في التنبؤ بالجرائم وتحسين كفاءة التحقيقات، إلا أن اعتماده المكثف في المجال الجنائي يثير إشكالات قانونية وأخلاقية عميقة. فغياب إطار تشريعي صريح يحدد حدود استعماله ومسؤوليات القائمين عليه، إضافة إلى المخاطر المرتبطة بالتحيز الخوارزمي والمساس بالحقوق الأساسية، يجعل العلاقة بين الذكاء الاصطناعي والمنظومة الجنائية معقدة تتطلب معالجة دقيقة

المطلب الأول: التحديات القانونية

إن التحديات القانونية والأخلاقية التي يطرحها الذكاء الاصطناعي في المجال الجنائي تعكس الحاجة الملحة إلى بناء إطار شامل يجمع بين التشريع الوطني والاتفاقيات الدولية. وإلا فإن الاعتماد غير المنضبط على الذكاء الاصطناعي قد يحوله من أداة لتعزيز الأمن إلى مصدر تهديد للعدالة والحريات

أولا: قصور التشريعات القائمة

تظهر التجربة العملية أن أغلب التشريعات الوطنية لم تواكب بعد سرعة التطورات التقنية، إذ لم يتم وضع تعريف قانوني واضح للذكاء الاصطناعي ككيان أو كأداة ذات أثر قانوني. هذا الفراغ يجعل من الصعب تصنيف الأفعال المدعومة بالخوارزميات ضمن الجرائم التقليدية. على سبيل المثال، الجرائم المرتكبة عبر التزييف العميق تثير إشكالية حول تكييفها القانوني: هل تعتبر جريمة تزوير، جريمة نشر محتوى غير مشروع، أم جريمة اعتداء على الحياة الخاصة؟ كما يبرز إشكال الإثبات الجنائي، حيث أن معظم الأدلة المستخرجة من الأنظمة الذكية (كخوارزميات التعرف على الوجه أو تحليل البيانات الضخمة) قد تكون عرضة للطعن بسبب عدم وضوح طريقة اشتغالها، وهو ما قد يتعارض مع مبدأ “شرعية الأدلة” المنصوص عليه في العديد من التشريعات، ومنها القانون المغربي للمسطرة الجنائية[32]

المسؤولية الجنائية: تفهم المسؤولية الجنائية على أنها الجزاء القانوني المترتب عن مخالفة القواعد المقررة في مجموعة القانون الجنائي أو النصوص الخاصة. ولا يمكن قيام هذه المسؤولية إلا بتوافر أركان الجريمة الثلاثة: الركن القانوني، الركن المادي، والركن المعنوي، مع انتفاء أسباب التبرير والإباحة التي ترفع عن الفعل صفته الإجرامية. ويبدو هذا الإطار واضحا وبسيطا عند الحديث عن السلوك البشري، غير أن تدخل أنظمة الذكاء الاصطناعي في ارتكاب الأفعال المجرمة يثير إشكالية تحديد الشخص المسؤول جنائيا. فهل يمكن مساءلة هذه الأنظمة في ضوء نظرية “الشخصية المفترضة”؟ أم أن المسؤولية تبقى محصورة في النائب أو المشغل المسؤول عنها، استنادا إلى نظرية المسؤولية الجنائية المتعدية؟[33]

وعليه يطرح التساؤل الجوهري: هل يجوز إضفاء الشخصية القانونية على أنظمة الذكاء الاصطناعي؟ وإذا ما أُقرت لها هذه الشخصية، فمن يتحمل المسؤولية الجنائية عن الأفعال الإجرامية الناتجة عنها؟ فسلسلة الإنتاج لنظام ذكاء اصطناعي عادة ما تضم مصممين، فريقا تدريبيا، مزود بيانات، مزود بنية تحتية سحابية، ومستخدما نهائيا. القوانين القائمة لا تكفل دائما آلية واضحة لتوزيع المسؤولية الجنائية بين هذه الأطراف؛ فهل تحمل الشركة المطورة أم مديرها التنفيذي أم المستخدم الذي أشغله؟

الذكاء الاصطناعي لا يسأل جنائيا بذاته في ظل القوانين الحالية، لكن يمكن مساءلة الأشخاص المرتبطين به. أما فكرة منح الشخصية القانونية للذكاء الاصطناعي، فهي موضوع نقاش مفتوح يهدف إلى معالجة “فراغ تشريعي” متنام مع تطور استقلالية هذه الأنظمة، قصور تشريعي واضح يخلق فراغا قانونيا يمكن أن يستغله الجناة أو أن يترك الضحية بلا تعويض فعال[34]

ثغرة النية- صعوبة إثبات القصد الجنائي أو الخطأ الجسيم: القانون الجنائي يشترط وجود عنصر الذهن (قصد/ترصد/إهمال جسيم) في كثير من الجرائم. عندما يكون مصدر الضرر نظاما آليا «يتصرف» دون قصد بشري مباشر، يصبح السؤال محوريا: كيف نثبت وجود «قصد» لدى آلة ما؟ هل يكفي إهمال مطور أو مشغل؟ أم يجب إثبات سوء نية؟ العديد من الأبحاث تقترح أن اعتماد معايير النية التقليدية قد لا يفي للتمييز بين سلوك مشروع وغير مشروع في سياق الذكاء الاصطناعي[35]

التوافق الدولي والاختصاص عبر الحدود: الجرائم الإلكترونية المعتمدة على الذكاء الاصطناعي تعبر الحدود بسرعة؛ لكن قوانين الجرائم والملكية الفكرية والخصوصية متباينة بين الدول. غياب تنسيقٍ تشريعي دولي يعيق ملاحقة مرتكبي جرائم يستخدمون خوادم أو خدمات في ولايات قضائية مختلفة، ويعقّد تبادل الأدلة الرقمية. الاتفاقيات التقليدية (مثل اتفاقية بودابست) مفيدة لكنها لا تعالج خصوصياتِ الذكاء الاصطناعي تفصيليا[36]

ثانيا: الحاجة لأطر قانونية جديدة

لقد كشف التطور السريع للذكاء الاصطناعي عن فجوات واضحة في البنى القانونية التقليدية، خصوصًا في مجال القانون الجنائي. فالتشريعات القائمة وُضعت في سياق يفترض وجود فاعل بشري يتمتع بإرادة ووعي كاملين، بينما الواقع الحالي يشهد ظهور أنظمة ذكية قادرة على اتخاذ قرارات شبه مستقلة، بما يجعل من الصعب تكييف أفعالها وفق المفاهيم التقليدية للقصد الجنائي والعلاقة السببية[37]

المجتمع الدولي بدأ يدرك خطورة هذه الفجوات؛ فقد اقترحت المفوضية الأوروبية في 2021 مشروع قانون الذكاء الاصطناعي، الذي يقوم على تصنيف الأنظمة حسب درجة خطورتها، ويفرض التزامات مشددة على الأنظمة عالية الخطورة. هذا التوجه يعكس إدراكا بأن معالجة التحديات الجديدة تتطلب قواعد خاصة، وليس مجرد تعديل جزئي للقوانين التقليدية[38]

كما أوصت منظمة التعاون والتنمية الاقتصادية بضرورة سنّ تشريعات تضمن الشفافية، وتُرسّخ مبدأ المسؤولية على جميع مراحل دورة حياة النظام الذكي. وتذهب دراسات أكاديمية أخرى إلى أن هذه الأطر يجب أن تقوم على مبادئ المساءلة والشفافية والتحكّم البشري لضمان احترام الحقوق الأساسية[39]

إن مواجهة الجرائم الإلكترونية والتقليدية المدعومة بالذكاء الاصطناعي تقتضي تطوير تشريعات خاصة تستوعب تعقيدات التقنية الجديدة. هذه الأطر يجب أن تتسم بالمرونة، وأن تتضمن قواعد واضحة للمسؤولية الجنائية، آليات إثبات تقنية، وتعاون دولي فعال. وبدون ذلك ستظل القوانين القائمة عاجزة عن التصدي للمخاطر المتزايدة التي تفرضها الثورة الرقمية

المطلب الثاني: التحديات الأخلاقية

من أبرز التحديات الأخلاقية المرتبطة بالذكاء الاصطناعي، التساؤل حول المكانة الأخلاقية لهذه الأنظمة، وما إذا كان يمكن اعتبارها كيانات لها مسؤولية أو حقوق أخلاقية. فقد أُثيرت تساؤلات مشابهة في سياقات أخرى، حيث اعتُبر سابقاً أن الحيوانات ذات أهمية أخلاقية، رغم أن هذا الاعتبار لم يكن دائماً قائماً. وبالمثل، إذا كانت بعض الآلات المدعومة بالذكاء الاصطناعي مجرد أدوات تقنية، فهل يرتكب الإنسان خطأً أخلاقياً إذا وقع الضرر نتيجة استخدامها؟ وهل تستحق الآلات فائقة الذكاء موقعاً أخلاقياً؟ هل ينبغي منحها حقوقاً، أم أن هذا خطر يثير التساؤل حول جدوى التفكير حتى في إمكانية احتساب مكانة أخلاقية للآلات؟[40]
إحدى الطرق لمناقشة هذه القضية تكمن في التساؤل عن المكانة الأخلاقية للذكاء الاصطناعي نفسها، وكيف يمكن تحديد حدود هذه المسؤولية أو الحقوق في إطار نقاش أخلاقي معاصر؟

الخصوصية

يثير انتشار الذكاء الاصطناعي في مجال الأمن قضايا أخلاقية عديدة. على مستوى الخصوصية، يثير استخدام الكاميرات الذكية وأنظمة التعرف على الوجوه جدلا واسعا حول انتهاك الحرمة الشخصية. فمثلا، توصي اليونسكو بضرورة حماية الخصوصية «طوال دورة حياة الأنظمة» وتعزيز تشريعات حماية البيانات[41] . وحيث إنه من غير الواضح دائما متى وكيف يتم تجميع البيانات وكم تخزن، فإن هناك مخاوف من أن تستغل السلطات أو المخترقون تلك البيانات في تتبع ومراقبة الأفراد دون مبرر قانوني. أما قانونيا، فغالبا لا يوجد إطار تشريعي واضح يغطي استخدام الذكاء الاصطناعي في التحقيقات. تنص بعض القوانين القائمة على قواعد مسؤولية تقصيرية عامة أو حقوق الإنسان، لكنها لم تصمم للتعامل مع التعقيدات التقنية الحديثة. لذلك يدعو باحثون إلى سن قوانين صارمة لحماية البيانات الشخصية وتحميل المسؤولية للجهات التي تجمعها وتحولها بواسطة الذكاء الاصطناعي، فقد أكدت مقالات قانونية أنه مع زيادة استخدام الذكاء الاصطناعي، من الضروري التركيز على حماية حقوق الأفراد، حيث يجب وضع ضوابط لحماية البيانات الشخصية وضمان عدم استخدامها بطرق تنتهك الخصوصية[42]

وقد خلصت دراسات أيضا إلى أن المخاطر الناجمة عن تعميم الذكاء الاصطناعي في العدالة الجنائية تتضمن بالأساس مسائل تتعلق بحماية البيانات الشخصية وتحيز البيانات الذي قد يؤدي إلى نتائج قضائية متباينة. كل هذه المعطيات تجعل الخصوصية إحدى أهم التحديات الأخلاقية عند توظيف الذكاء الاصطناعي في مجال الجريمة، وتتطلب أطرا تنظيمية صارمة وإشرافا بشريا مستمرا

الانحياز الخوارزمي والتمييز

يثير توظيف الذكاء الاصطناعي في منظومات العدالة الجنائية قلقاً كبيراً بشأن تكريس التمييز عبر انحيازه الخوارزمي. يمكن تعريف التحيز الخوارزمي بأنه الأخطاء المنهجية في خوارزميات تعلم الآلة التي تؤدي إلى نتائج غير عادلة أو تمييزية، وغالبًا ما تعكس هذه الخوارزميات تحيزات قائمة في المجتمع. ولأن هذه الأنظمة تدرب على بيانات تاريخية متوفرة، فإنها تنقل معها انحيازات متجذرة قد تكون عرقية أو جندرية أو اجتماعية، فتزيد الفوارق بدل أن تقلصها. تشير الشركات الكبرى إلى خطورة الانحياز في أنظمة الذكاء الاصطناعي التي تدعم القرارات المصيرية في مجالات مثل إنفاذ القانون[43]

تجلى هذا الخطر عمليا في عدة حالات بارزة. فمثلا، في ميشيغان عام 2020، اعتقل المواطن الأسود روبرت ويليامز خطأً استناداً إلى نتيجة خاطئة من نظام للتعرف على الوجه ، فقد قادت مطابقة مبهمة صورة شخص من كاميرا مراقبة إلى صورة ويليامز، رغم أنه لم يكن متورطا في الجريمة، مما أدى إلى احتجازه ظلما لمدة طويلة.[44] وتبين لاحقا أن نظام التعرف على الوجه كان أقل دقة في تمييز الوجوه السوداء، كما وثقت البحوث السابقة؛ فوفق دراسة شهيرة لبولواميني وغبرو 2018 فإن خوارزميات التعرف على الوجه أخطأت في تصنيف النساء السوداء بنسبة تقارب 35% بينما كانت دقتها عالية في التعرف على الرجال البيض، ولأن بيانات الشرطة الأميركية تحتوي على تمثيل مفرط لمجتمعات الأقليات بسبب التمييز التاريخي في الاعتقال .فإن نظم التعرف تلقائياً تعيد إنتاج هذا التحيز. والنتيجة أخطار حقيقية: مطابقة خاطئة واحدة يمكن أن تؤدي إلى اعتقال ظالم، وحجز طويل، وربما عنف شرطي مميت[45]

باختصار، يجمل بعض الباحثين أن أحد أبرز الإشكالات الأخلاقية للذكاء الاصطناعي هو إمكانه في التمييز وتكرار الانحيازات القائمة، مما يؤدي إلى تفاقم أوجه الظلم المتجذرة. وتحمل المجتمعات العلمية والمهنية الخبراء مسؤولية تنقية نماذجهم والبحث عن طرق لتقليل التحيز (مثلا عن طريق تنويع بيانات التدريب أو تقنيات إزالة العوامل الحساسة)، ولكن مع توالي استخدام الذكاء الاصطناعي في الأمن والعدالة، تتزايد الدعوات لوضع ضمانات رقابية وإشراف بشري صارم لمنع تكريس التمييز الخوارزمي[46]

باختصار، يؤكد الخبراء على أن الإنسان يبقى مركز الضمير الأخلاقي والعدلي؛ فالآراء السائدة ترفض منح الشخصية الاعتبارية للذكاء الاصطناعي، وترى أن المسؤولية تقع في النهاية على الأشخاص الذين يواجهون آثار القرارات: مبرمجين، ومصنعين، ومشغلين، ومستخدمين. وعليه، يشدد إطار “التوصية اليونسكو” على الحاجة إلى إشراف إنساني دائم على الأنظمة الذكية، وعدم السماح لها بأن تزيح المسؤولية والمساءلة الإنسانية النهائية. ولتحقيق ذلك عمليا، تقترح آليات مثل المتابعات التنظيمية والرقابة القضائية المستمرة، ومراجعة الخوارزميات بشكل دوري، مع تطبيق معايير أخلاقية (كالعدالة والشفافية) في كل مرحلة من دورة حياة الذكاء الاصطناعي[47]

التوصيات

تطوير إطار قانوني وطني ودولي: يحدد مسؤوليات الأطراف المختلفة في حال ارتكاب جرائم بالذكاء الاصطناعي

اعتماد معايير أخلاقية واضحة: لضمان الشفافية والعدالة في استخدام الأنظمة الذكية

تعزيز التدريب القضائي والأمني: على التعامل مع الأدلة الرقمية المعقدة وتحليل القرارات الخوارزمية

إنشاء هيئات رقابية مستقلة: لمراجعة أنظمة الشرطة التنبؤية والبرامج الذكية لضمان عدم الانحياز وحماية الخصوصية

تشجيع التعاون الدولي: لمكافحة الجرائم السيبرانية العابرة للحدود مع وضع اتفاقيات متكاملة لحماية الحقوق الأساسية

في النهاية، يبقى الذكاء الاصطناعي أداة فعالة لمكافحة الجريمة إذا ما أُحسن استخدامه ضمن أطر قانونية وأخلاقية واضحة، وإلا فقد يتحول من وسيلة حماية إلى تهديد مباشر للعدالة والحقوق الإنسانية

خاتمة

لقد كشف البحث أن الذكاء الاصطناعي يشكل ثورة مزدوجة الأثر في المجال الجنائي، فهو من جهة أداة متقدمة تمكن المجرمين من ارتكاب جرائم أكثر تعقيداً ودقة، ومن جهة أخرى وسيلة فعالة تعزز قدرة الأجهزة الأمنية والعدلية على مكافحة الجريمة وتحليل البيانات بكفاءة غير مسبوقة. هذه الازدواجية تفرض على الأنظمة القانونية والتشريعية تحديات كبيرة تتعلق بضمان التوازن بين حفظ الأمن واحترام الحقوق والحريات الأساسية

من خلال التحليل، يظهر أن التشريعات القائمة، سواء في المغرب أو على الصعيد الدولي، لا تزال غير كافية للتعامل مع الجرائم المدعومة بالذكاء الاصطناعي. فالقصور التشريعي فيما يخص تعريف الأنظمة الذكية كفاعل محتمل، وصعوبة إثبات الجرائم التقنية، وغياب نصوص واضحة حول المسؤولية، كلها عوامل تجعل من الضروري إعادة النظر في الأطر القانونية

من الناحية الأخلاقية، يبرز أن الاستخدام غير المنضبط للذكاء الاصطناعي قد يؤدي إلى انتهاك الخصوصية، ظهور الانحياز الخوارزمي، وغياب الشفافية والمساءلة في القرارات الأمنية والقضائية. لذلك، تصبح حماية الحقوق الأساسية والحفاظ على العدالة الاجتماعية مسؤولية مشتركة بين المشرع، صانعي السياسات، والمطورين التقنيين

شخصيا، أرى أن الذكاء الاصطناعي ليس مجرد أداة تقنية، بل قضية قانونية وأخلاقية تتطلب وعيا دقيقا من كل الأطراف. يمكن استغلال إمكاناته الهائلة في مكافحة الجريمة فقط إذا تم وضع ضوابط صارمة تحمي الحقوق وتمنع الانحياز وتضمن المساءلة

المراجع بالعربية

كتب وأبحاث

أبا خليل، نور الدين الرحالي، ومجيدي السعدية. (2022). أبحاث ودراسات في القانون الرقمي – الجزء الأول: التأصيل التشريعي للقانون الرقمي والعمل القضائي. دار الأمنية / مكتبة الرشاد للنشر والتوزيع، ص. 80

أحمد فتحي سرور. (2018). الوسيط في قانون الإجراءات الجنائية. دار النهضة العربية، ص. 225

سلسلة الوعي الرقمي 5: التزييف العميق وتحديات الأمن السيبراني المستقبلية. محمد بدرت بدير، 2024

يوسف زوركان. (2025). التنبؤ بالجريمة: التكنولوجيا والأخلاقيات في علم الجريمة الحديث

مقالات علمية

حسام نبيل الشنراقي. (2024). “التصيد الاحتيالي في ظل التطور التقني: أنماطه – تحديات المكافحة – الحلول”. مجلة الدراسات القانونية والاقتصادية، جامعة مدينة السادات

رباب مصطفى عبد المنعم الحكيم. (2025). “الجوانب القانونية للتزييف العميق”. مجلة البحوث الفقهية والقانونية، دمنهور

مصادر إعلامية عربية

الجزيرة نت، خديجة قانون. (15/6/2024). من يتحمل المسؤولية في جرائم الذكاء الاصطناعي؟

المراجع الأجنبية

كتب

  • Casey, E. (2011). Digital Evidence and Computer Crime: Forensic Science, Computers, and the Internet (3rd ed.). Elsevier.
  • Coeckelbergh, M. (2020). AI Ethics.
  • Habermas, J. (1985). The Philosophical Discourse of Modernity.
  • McCarthy, J. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
  • Pagallo, U. (2017). The Laws of Robots: Crimes, Contracts, and Torts. Springer.

مقالات وأبحاث

  • Dalia Kadry Ahmed Abdelaziz. (2025). “Criminal liability for the misuse and crimes committed by AI: A comparative analysis of legislation and international conventions.” Journal of Infrastructure, 9(1), 10722.
  • Osman Goni. (2022). “The Basic Concept of Cyber Crime.” Journal of Technology Innovations and Energy.
  • R. Abbott. “Punishing Artificial Intelligence: Legal Fiction or Science.” UC Davis Law Review.
  • Sartor, G., & Lagioia, F. (2020). “The Impact of Artificial Intelligence on Law: Complex Scenarios and Regulatory Challenges.” AI & Society, 35, 823–835.

تقارير ومنظمات دولية

  • Council of Europe. (Nov 2024). CDPC discussion paper on AI and criminal liability.
  • ENISA. (2023). Threat Landscape. European Union Agency for Cybersecurity.
  • EUROPOL. (2024). Facing Reality? Law Enforcement and the Challenge of Deepfakes.
  • EUROPOL. (2024). Internet Organised Crime Threat Assessment (IOCTA).
  • UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence.
  • United Nations, Office for Disarmament Affairs. Lethal Autonomous Weapon Systems (LAWS).

مصادر إعلامية وتقارير

  • ACLU, Kade Crockford. (16 June 2020). “How is Face Recognition Surveillance Technology Racist ?”
  • ACLU. Williams v. City of Detroit, Jan 2024.
  • Alexandra Jonker & Julie Rogers (IBM, Sept 2024). “ما التحيز الخوارزمي؟”.
  • Forbes, Jesse Damiani. (September 2019). “A Voice Deep fake was Used to Scam A CEO Out Of $243,000.”
  • OVIC. Artificial Intelligence and Privacy – Issues and Challenges.
  • The Guardian, Dan Milmo. (May 2024). “UK engineering firm Arup falls victim to £20m Deep fake scam.”
  1. Jürgen Habermas, The Philosophical Discourse of Modernity, 1985.
  2. سلسلة الوعي الرقمي 5: التزييف العميق وتحديات الأمن السيبراني المستقبلية بقلم محمد بدرت بدير,2024
  3. Osman Goni, The Basic Concept of Cyber Crime, Article Published in the Journal of Technology Innovations and Energy 01 April, 2022.
  4. القانون رقم 07.03 المتعلق بمكافحة جرائم المس بنظم المعالجة الآلية للمعطيات
  5. حسام نبيل الشنراقي، التصيد الاحتيالي في ظل التطور التقني أنماطه -تحديات المكافحة- الحلول، دراسة تحليلية، مقال منشوربسبتمبر 2024 بمجلة الدراسات القانونية والاقتصادية جامعة مدينة السادات بمصر.
  6. القانون رقم 08-09 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي
  7. رباب مصطفى عبد المنعم الحكيم، الجوانب القانونية للتزييف العميق، مقال منشور بيناير 2025 بمجلة البحوث الفقهية والقانونية بدمنهور.
  8. EUROPOL: FACING REALITY? LAW ENFORCEMENT AND THE CHALLENGE OF DEEPFAKES An Observatory Report from the Europol Innovation Lab.
  9. الفصل 392 من القانون الجنائي المغربي: كل من تسبب عمدا في قتل غيره يعد قاتلا، ويعاقب بالسجن المؤبد
  10. الفصل 400 من القانون الجنائي المغربي: من ارتكب عمدا ضد غيره جرحا او ضربا او اي نوع اخر من العنف او الايذاء سواء لم ينتج عنه مرض او عجز عن الاشغال الشخصية او نتج عنه مرض او عجز لا تتجاوز مدته عشرين يوما، يعاقب بالحبس من شهر واحد الى سنة و غرامة من مائتين الى خمسمائة درهم، او باحدى هاتين العقوبتين فقط. وفي حالة توفر سبق الاصرار او الترصد او استعمال السلاح تكون العقوبة الحبس من ستة شهور الى سنتين و الغرامة من مائتين الى الف درهم
  11. UNITED NATIONS, OFFICE FOR DISARMAMENT AFFAIRS: Lethal Autonomous Weapon Systems (LAWS).
  12. القانون رقم 08-09 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي
  13. الفصل 351 من القانون الجنائي المغربي: تزوير الاوراق هو تغيير الحقيقة فيها بسوء النية، تغييرا من شانه ان يسبب ضررا متى ما وقع في محرر باحدى الوسائل المنصوص عليها في القانون
  14. الفصل 356 من القانون الجنائي المغربي: يعاقب بالسجن من خمس سنوات الى عشر سنوات من يستعمل الورقة المزورة مع علمه بتزويرها
  15. EUROPOL: FACING REALITY? LAW ENFORCEMENT AND THE CHALLENGE OF DEEPFAKES An Observatory Report from the Europol Innovation Lab.
  16. THE GUARDIAN, DAN MILMO: UK engineering firm Arup falls victim to £20m DEEPFAKE scam ARTICLE PUBLISHED MAY 2024.
  17. FORBES, JESSE DAMIANI: A Voice DEEPFAKE was Used to Scam A CEO Out Of $243,000 ARTICLE PUBLISHED SEPTMEBER 2019.

  18. Convention on Cybercrime Budapest, 23.XI.2001 : ARTICLE 7 Computer-related forgery: Each Party shall adopt such legislative and other measures as may be necessary to establish as criminal offences under its domestic law, when committed intentionally and without right, the input, alteration, deletion, or suppression of computer data, resulting in inauthentic data with the intent that it be considered or acted upon for legal purposes as if it were authentic, regardless whether or not the data is directly readable and intelligible. A Party may require an intent to defraud, or similar dishonest intent, before criminal liability attaches.
  19. ENISA THREAT LANDSCAPE 2023: European Union Agency for Cybersecurity.
  20. المادة 2 من القانون 05.20 المتعلق بالأمن السيبراني
  21. EUROPOL: Internet Organised Crime Threat Assessment (IOCTA) 2024.
  22. القانون 05.20 المتعلق بالأمن السيبراني
  23. القانون رقم 08-09 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي
  24. ELSEVIER, EOGHAN CASEY, Digital Evidence and Computer Crime Forensic Science, Computers, and the Internet, 3rd Edition April 20, 2011.
  25. EUROPOL: Internet Organised Crime Threat Assessment (IOCTA) 2024.
  26. Walter L.Perry, Brian McInnis, Carter C. Price, Susan C. Smith, John S. Predictive Policing: The Role of Crime Forecasting in Law Enforcement Operations. RAND Corporation, 2013. Hollywood.
  27. مايو 2025 يوسف زوركان: التنبؤ بالجريمة: التكنولوجيا والأخلاقيات في علم الجريمة الحديث
  28. ENISA THREAT LANDSCAPE 2023: European Union Agency for Cybersecurity.
  29. EU Artificial Intelligence Act (AI Act): overview and Annex III (high-risk systems; biometric surveillance).
  30. القانون رقم 08-09 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي
  31. أحمد فتحي سرور، “الوسيط في قانون الإجراءات الجنائية”، دار النهضة العربية، 2018، ص. 225
  32. أبا خليل، نور الدين الرحالي، ومجيدي السعدية (مؤلفون جماعيون)، أبحاث ودراسات في القانون الرقمي – الجزء الأول: التأصيل التشريعي للقانون الرقمي والعمل القضائي، الطبعة الأولى، دار الأمنية / مكتبة الرشاد للنشر والتوزيع، 2022، ص. 80
  33. Dalia Kadry Ahmed Abdelaziz, Criminal liability for the misuse and crimes committed by AI: A comparative analysis of legislation and international conventions, Article Published in Journal of Infrastructure, 2025, 9(1), 10722.
  34. R. Abbott, “Punishing Artificial Intelligence: Legal Fiction or Science…” (UC Davis Law Review) — تحليل أكاديمي للنقاش حول إمكانية تحميل أنظمة الذكاء الاصطناعي مسؤولية جنائية مباشرة أو بدائلها
  35. Council of Europe — CDPC discussion paper on AI and criminal liability (Nov 2024).
  36. Pagallo, U. (2017). The Laws of Robots: Crimes, Contracts, and Torts. Springer. Page :55.
  37. EU Artificial Intelligence Act (AI Act): overview and Annex III (high-risk systems; biometric surveillance).
  38. Sartor, G. & Lagioia, F. (2020). “The Impact of Artificial Intelligence on Law: Complex Scenarios and Regulatory Challenges.” AI & Society, 35, 823–835.
  39. MARK COECKELBERGH, AI ETHICS, 2020. Page: 42.
  40. UNESCO 2021: Recommendation on the Ethics of Artificial Intelligence.
  41. الجزيرﺓ نت، خديجة قانون، «من يتحمل المسؤولية في جرائم الذكاء الاصطناعي؟» (تكنولوجيا)، 15/6/2024
  42. Alexandra Jonker et Julie Rogers (IBM سبتمبر 2024) :ما التحيز الخوارزمي؟
  43. ACLU، Williams v. City of Detroit (مقالة قضايا حقوق) ، يناير 2024
  44. ACLU، Kade Crockford، “How is Face Recognition Surveillance Technology Racist?” (مقال إخباري)، 16 يونيو 2020
  45. OVIC, Artificial Intelligence and Privacy – Issues and Challenges:
  46. UNESCO (الأمم المتحدة للتربية والعلم والثقافة) ، Recommendation on the Ethics of Artificial Intelligence.
  47. عياش، سهى زكي نورى، أثر تقنيات الذكاء الاصطناعي على النصوص الدستورية والقانونية، مجلة كلية القانون للعلوم القانونية والسياسية، عدد48، 2024، ص5.

مقالات ذات صلة

زر الذهاب إلى الأعلى