الكيانات القانونية الفاعلة في اللائحة الاوروبية رقم 1689/2024 والمتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي -نطاق التطبيق ومجالات الحظر- الباحثة : نرمين نعمان طالبة باحثة بسلك الدكتوراه مختبر البحث قانون الأعمال كلية العلوم القانونية والسياسية جامعة الحسن الأول سطات
Legal entities active in European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence -Scope of application and areas of prohibition-


الكيانات القانونية الفاعلة في اللائحة الاوروبية رقم 1689/2024 والمتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي -نطاق التطبيق ومجالات الحظر-
Legal entities active in European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence -Scope of application and areas of prohibition-
الباحثة : نرمين نعمان
طالبة باحثة بسلك الدكتوراه مختبر البحث قانون الأعمال
كلية العلوم القانونية والسياسية جامعة الحسن الأول سطات
مجلة القانون والأعمال الدولية الإصدار رقم 53 غشت – شتنبر 2024
الاميل الرسمي للمجلة : mforki22@gmail.com
للتواصل عبر الواتساب : 0687407665
لتحميل الاصدار و البحث :
ملخص:
إن الذكاء الاصطناعي عبارة عن مجموعة من التقنيات سريعة التطور والتي تتطلب إشرافا وتنظيما ومساحة آمنة وخاضعة للرقابة، مع ضمان الابتكار المسؤول وتكامل الضمانات المناسبة وتدابير وتخفيف المخاطر لضمان وجود إطار قانوني يشجع الابتكار، ويكون مقاوما للمستقبل وقادرا على الصمود في مواجهة الاضطرابات.
ونظرا لطبيعة أنظمة الذكاء الاصطناعي والمخاطر التي تهدد السلامة والحقوق الأساسية التي قد ترتبط باستخدامها، وبالتالي فمن الضرورة ضمان المراقبة السليمة لأداء هذه الأنظمة في بيئة واقعية، ومن المناسب إصدار نصوص قانونية تنظم هذا المجال.
وهذا ما تم بالفعل في إصدار الاتحاد الأوروبي للائحة المتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي بتاريخ 13/6/2024 وتم نشرها بالجريدة الرسمية للاتحاد بتاريخ 12/7/2024، والتي من خلالها تم التطرق إلى كيانات قانونية فاعلة في مجال تعزيز القواعد المنسقة بشأن الذكاء الاصطناعي في السوق الداخلية للاتحاد، ولضمان أن أنظمته جديرة بالثقة والأمن، وكذا تكريس اليقين القانوني للمشغلين الذين يقومون بتطوير أو استيراد أو استخدام أنظمة الذكاء الاصطناعي.
بالإضافة إلى ذلك نطاق تطبيق هذه القواعد داخل الاتحاد والمجالات التي يتم فيها حظر استخدام أنظمة الذكاء الاصطناعي والعقوبات الإدارية المقررة لانتهاك هذا الحظر.
الكلمات المفتاحية: أنظمة الذكاء الاصطناعي- الكيانات القانونية-نطاق التطبيق -مجالات الحظر.
summary:
AI is a rapidly evolving set of technologies that require oversight, regulation and a safe and controlled space, ensuring responsible innovation and integrating appropriate safeguards, risk mitigation measures to ensure a legal framework that encourages innovation, is future-proof and resilient to disruption.
Given the nature of artificial intelligence systems and the risks that threaten safety and basic rights that may be associated with their use, it is therefore necessary to ensure proper monitoring of the performance of these systems in a realistic environment, and it is appropriate to issue legal texts regulating this field.
This is what has already happened when the European Union issued the regulation related to establishing harmonized rules regarding artificial intelligence on 6/13/2024, and it was published in the Official Gazette of the Union on 7/12/2024, through which effective legal entities were addressed in the field of strengthening harmonized rules regarding artificial intelligence. In the Union’s internal market, to ensure that its systems are trustworthy and secure, as well as to provide legal certainty for operators who develop, import or use artificial intelligence systems.
In addition, the scope of application of these rules within the Union, the areas in which the use of artificial intelligence systems is prohibited, and the administrative penalties prescribed for violating this prohibition.
Keywords: artificial intelligence systems – legal entities – scope of application – areas of prohibition.
مقدمة:
يكمن الغرض من اللائحة الأوروبية رقم 1689/2024 والمتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي[1] بتحسين أداء السوق الداخلية عن طريق وضع إطار قانوني موحد على وجه الخصوص للتطوير والطرح في السوق ووضعها في الخدمة واستخدام أنظمته في دول الاتحاد الأوربي، من أجل تعزيز استيعابه وضمان مستوى عالي من الحماية ضد الآثار الضارة له، وكذا دعم الابتكار، وقد تضمنت هذه اللائحة حرية حركة السلع والخدمات القائمة على الذكاء الاصطناعي عبر الحدود، وبالتالي تمنع الدول الأعضاء من فرض قيود على تطوير أنظمته وتسويقها واستخدامها، ما لم يتم النص صراحة بموجب هذه اللائحة.
وقد تضمنت هذه اللائحة القواعد المنسقة لطرح أنظمة الذكاء الاصطناعي في السوق ووضعها في الخدمة واستخدامها في الاتحاد، والمتطلبات المحددة لأنظمته ذات المخاطر العالية وكذا التزامات مشغلي هذه الأنظمة، وقواعد الشفافية المتعلقة بها، وحظر بعض ممارسات الذكاء الاصطناعي، بالإضافة إلى القواعد المتعلقة بطرح نماذجه ذات الأغراض العامة في السوق وقواعد مراقبته، والحوكمة والإنفاذ، والتدابير المتعلقة بدعم الابتكار، مع التركيز بشكل خاص على الشركات الصغيرة والمتوسطة، بما في ذلك الشركات الناشئة.[2]
ولهذا، يثار التساؤل حول ماهية الكيانات القانونية الفاعلة في مجال القواعد المنسقة بشأن الذكاء الاصطناعي، وكذا نطاق تطبيق اللائحة من حيث الأشخاص، وماهي المجالات التي تخرج عن نطاق تطبيقها والمجالات التي يحظر فيها ممارسة نظام الذكاء الاصطناعي والعقوبات الإدارية المقررة عند انتهاك هذا الحظر؟
وللإجابة على هذه الاسئلة سوف يتم مقاربة النصوص القانونية في اللائحة والتطرق إلى الكيانات القانونية الفاعلة في مجال القواعد المنسقة بشأن الذكاء الاصطناعي ونطاق تطبيقها (الفقرة الأولى) ثم نتطرق إلى المجالات التي يحظر فيها ممارسات نظام الذكاء الاصطناعي والعقوبات الإدارية المقررة لها (الفقرة الثانية).
الفقرة الأولى: الكيانات القانونية الفاعلة في مجال القواعد المنسقة بشأن الذكاء الاصطناعي ونطاق تطبيقها:
يساهم الذكاء الاصطناعي في تحقيق فوائد اقتصادية ومجتمعية عن طريق منظومة كاملة من الصناعات والأنشطة الاجتماعية، وذلك من خلال تحسين التنبؤ وتخصيص الموارد والحلول الرقمية المتاحة للأفراد والمنظمات، كما أن استخدامه يوفر العديد من المزايا التنافسية للمشروعات ويدعم النتائج المفيدة في المجالين الاقتصادي والاجتماعي.
في ضوء طبيعتها الرقمية، يجب أن تقع بعض أنظمة الذكاء الاصطناعي ضمن نطاق هذه اللائحة حتى عندما لا يتم طرحها في السوق أو وضعها في الخدمة أو استخدامها في الاتحاد.
وبناء على ذلك سوف يتم التطرق إلى الكيانات القانونية الفاعلة في مجال القواعد المنسقة بشأن الذكاء الاصطناعي (أولا) ثم نتطرق إلى نطاق تطبيق هذه القواعد (ثانيا).
أولا: الكيانات القانونية الفاعلة في مجال القواعد المنسقة بشأن الذكاء الاصطناعي:
تلعب العديد من الكيانات القانونية أدوارا مهمة للوصول إلى الفوائد المتوخاة من الذكاء الاصطناعي وهي على الشكل التالي:
1-تعريف نظام الذكاء الاصطناعي:
يعرف نظام الذكاء الاصطناعي حسب الفقرة الأولى من المادة الثالثة من اللائحة الأوروبية رقم 1689/2024 والمتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي بأنه” نظاما قائما على الآلة مصمما للعمل بمستويات مختلفة من الاستقلالية وقد يظهر القدرة على التكيف بعد النشر، والذي يستنتج، بالنسبة للأهداف الصريحة أو الضمنية، من المدخلات التي يتلقاها، وكيفية إنشاء مخرجات من قبيل التنبؤات، أو محتوى، أو توصيات، أو قرارات يمكن أن تؤثر على البيئات المادية أو الافتراضية”.[3]
والملاحظ أن هذا التعرف جاء يتماشى بشكل وثيق مع عمل المنظمات الدولية العاملة في مجال الذكاء الاصطناعي لضمان اليقين القانوني، وتسهيل التقارب الدولي والقبول على نطاق واسع، كما أنه يتوفر على المرونة اللازمة لاستيعاب التطورات التكنولوجية السريعة في مجال الذكاء الاصطناعي، بالإضافة إلى أنه يستند إلى الخصائص الرئيسية لأنظمة الذكاء الاصطناعي التي تميزه عن أنظمة البرمجيات التقليدية أو أساليب البرمجة البسيطة.
حيث إن السمة الرئيسية لأنظمة الذكاء الاصطناعي هي قدرتها على الاستدلال، أي عملية الحصول على المخرجات، مثل التنبؤات، أو المحتوى، أو التوصيات، أو القرارات، التي يمكن أن تؤثر على البيئات المادية والافتراضية، وكذا قدرتها على استخلاص النماذج أو الخوارزميات، أو كليهما، من المدخلات أو البيانات، في حين يتضمن بناء نظام الذكاء الاصطناعي أساليب التعلم الآلي التي تتم من البيانات وكيفية تحقيق أهداف معينة، والأساليب القائمة على المنطق والمعرفة التي تستنتج من المعرفة المشفرة أو التمثيل الرمزي للمهمة التي يتعين حلها، وقد تختلف أهداف نظام الذكاء الاصطناعي عن الغرض المقصود منه في سياق معين، ولأغراض هذه اللائحة، ينبغي فهم البيئات على أنها السياقات التي تعمل فيها أنظمة الذكاء الاصطناعي، في حين تعكس المخرجات الناتجة عن هذا النظام وظائف مختلفة تؤديها أنظمة الذكاء الاصطناعي.
2-المزود:
عرفت الفقرة الثالثة من المادة الثالثة من نفس اللائحة المزود بأنه” شخصا ذاتيا، أو اعتباريا، أو سلطة عامة، أو وكالة، أو هيئة أخرى تقوم بتطوير نظام ذكاء اصطناعي أو نموذج ذكاء اصطناعي للأغراض العامة أو لديها نظام ذكاء اصطناعي أو نموذج منه للأغراض العامة تم تطويره وطرحه في السوق أو وضع نظام الذكاء الاصطناعي في الخدمة تحت اسمه أو علامته التجارية، سواء بمقابل أو بالمجان”.[4]
من خلال هذا التعريف نلاحظ أن المزود يقوم بتقديم خدماته سواء أكانت بمقابل أو بالمجان، وهذا التعريف يفرق بين المزود عندما يقوم بتطوير نظام أو نموذج ذكاء اصطناعي أو يكون لديه ذلك ويقوم بتطويره وإنزاله إلى السوق أو وضعه في الخدمة والذي يحمل الاسم أو العلامة التجارية للمزود. مع ملاحظة أن هذا الأخير لم يرد على سبيل الحصر بحيث قد يكون شخصا ذاتيا، أو اعتباريا، أو سلطة عامة، أو وكالة، أو أي هيئة أخرى قد تحمل مسمى آخر.
ومما تجدر الإشارة إليه أن اللائحة فرقت بين نظام الذكاء الاصطناعي وبين نموذج الذكاء الاصطناعي للأغراض العامة حيث اعتبرت أن هذا الأخير يتم تدريبه على كمية كبيرة من البيانات باستخدام الإشراف الذاتي على نطاق واسع، بحيث يكون قادرا على أداء مجموعة واسعة من المهام المتميزة بكفاءة بغض النظر عن الطريقة التي يتم بها طرح النموذج في السوق والتي يمكن دمجها في مجموعة متنوعة من الأنظمة أو التطبيقات النهائية، باستثناء نماذج الذكاء الاصطناعي التي تستخدم في أنشطة البحث أو التطوير أو النماذج الأولية قبل طرحها في السوق.[5]
كما أن نظام الذكاء الاصطناعي للأغراض العامة يعتمد على نموذج الذكاء الاصطناعي للأغراض العامة والذي يتمتع بالقدرة على خدمة مجموعة متنوعة من الأغراض، سواء للاستخدام المباشر أو للتكامل في أنظمة الذكاء الاصطناعي الأخرى.[6]
3-جهة النشر:
عرفت حسب الفقرة الرابعة من المادة الثالثة من نفس اللائحة بأنها” شخص ذاتي، أو اعتباري، أو سلطة عامة، أو وكالة، أو هيئة أخرى تستخدم نظام الذكاء الاصطناعي الخاضع لسلطتها باستثناء الحالات التي يتم فيها استخدام نظام الذكاء الاصطناعي في سياق نشاط شخصي غير مهني”.[7]
من خلال هذا التعريف يمكن القول إن الاستخدام الشخصي غير المهني لنظام الذكاء الاصطناعي لا يندرج ضمن الاستخدامات المتعلقة بجهة النشر بصريح نص الفقرة السابقة، سواء أكانت هذه الجهة شخص ذاتيا، أو اعتباريا، أو سلطة عامة، أو وكالة، أو أي هيئة أخرى تستخدم هذا النظام والذي يكون خاضعا لسلطتها.
4-الممثل المعتمد:
عرفته الفقرة الخامسة من المادة الثالثة من نفس اللائحة بأنه” شخصا ذاتيا أو اعتباريا موجودا أو مؤسسا في الاتحاد والذي تلقى وقبل تفويضا كتابيا من مزود نظام الذكاء الاصطناعي أو نموذج الذكاء الاصطناعي للأغراض العامة، على التوالي، لأداء وتنفيذ نيابة عنه الالتزامات والإجراءات التي تحددها هذه اللائحة”.[8]
بالرجوع إلى هذا التعريف نلاحظ أن الممثل المعتمد إذا كان شخصا ذاتيا فإنه يشترط أن يكون متواجدا في إحدى دول الاتحاد، وإذا كان شخصا اعتباريا فإنه يشترط أن يكون مؤسسا بطريقة قانونية في إحدى دول الاتحاد، ولكي يمارس مهامه الموكلة إليه من طرف مزود نظام الذكاء الاصطناعي أو نموذجه والذي يتعلق بالأغراض العامة يجب أن يكون لديه تفويضا كتابيا من طرف هذا الأخير.
5-المستورد:
عرفته الفقرة السادسة من المادة الثالثة من نفس اللائحة بأنه” شخصا ذاتيا أو اعتباريا موجودا أو مؤسسا في الاتحاد ويطرح في السوق نظام ذكاء اصطناعي يحمل اسم أو علامة تجارية لشخص ذاتي أو اعتباري مؤسس في دولة ثالثة”.[9]
إن هذه الفقرة وفي معرض تعريفها للمستورد نصت على أنه هو الذي يقوم بطرح نظام الذكاء الاصطناعي في السوق، بحيث يكون هذا النظام يحمل اسم أو علامة تجارية لشخص ذاتي أو اعتباري مؤسس في دولة أخرى، لكن المستورد يجب أن يكون موجودا إذا كان شخصا ذاتيا أو مؤسسا إذا كان شخصا اعتباريا في إحدى دول الاتحاد.
6- الموزع:
حسب الفقرة السابعة من المادة الثالثة من نفس اللائحة يعرف بأنه” شخصا ذاتيا أو اعتباريا في سلسلة التوريد، بخلاف المزود أو المستورد، الذي يجعل نظام الذكاء الاصطناعي متاحا في سوق الاتحاد”.[10]
الملاحظ أن الموزع يأتي في نهاية سلسلة التوريد بعد المستورد حيث يجعل نظام الذكاء الاصطناعي متواجدا في سوق دول الاتحاد، وقد يكون هذا الموزع شخصا ذاتيا أو اعتباريا.
7-المشغل:
يعرف حسب الفقرة الثامنة من المادة الثالثة من نفس اللائحة بأنه” المزود، أو الشركة المصنعة للمنتج، أو الناشر، أو الممثل المعتمد، أو المستورد، أو الموزع”.[11]
بناء على هذه الفقرة قد يكون المشغل المزود، أو المنتج، أو الناشر، أو الممثل المعتمد، أو المستورد، أو الموزع، حيث جمعت هذه الفقرة هؤلاء جميعا تحت مسمى المشغل.
8 مكتب الذكاء الاصطناعي والسلطة الوطنية المختصة:
لقد نصت الفقرة 47 من المادة الثالثة من اللائحة على هذا المكتب الذي هو في الأساس المفوضية الأوربية عندما تقوم بوظيفة التنفيذ والمراقبة والإشراف على أنظمة الذكاء الاصطناعي ونماذجه والتي تتعلق بالأغراض العامة، وكذا حوكمة الذكاء الاصطناعي، المنصوص عليها في قرار المفوضية الصادر في 24 يناير 2024.[12]
أما السلطة الوطنية المختصة وحسب نص الفقرة 48 من المادة أعلاه فهي تعني السلطة المبلغة أو هيئة مراقبة السوق، فيما يتعلق بأنظمة الذكاء الاصطناعي التي يتم وضعها في الخدمة أو استخدامها من قبل مؤسسات الاتحاد، ووكالاته، ومكاتبه، وهيئاته.[13]
ثانيا نطاق تطبيق اللائحة الأوروبية رقم 1689/2024 والمتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي:
لتحديد هذا النطاق سوف يتم التطرق إلى نطاق تطبيق اللائحة من حيث الأشخاص ثم إلى المجالات التي تخرج عن دائرة تطبيقها تباعا على الشكل التالي:
1-نطاق التطبيق من حيث الأشخاص:
بالرجوع إلى نص المادة الثانية من اللائحة نجد أنها تطبق على مقدمو الخدمة الذين يطرحون أنظمة الذكاء الاصطناعي في السوق أو يضعونها في الخدمة أو يطرحون نماذجه المتعلقة بالأغراض العامة في سوق الاتحاد، وذلك بغض النظر عما إذا كان هؤلاء مؤسسين أو موجودين داخل الاتحاد أو في دولة أخرى، وكذلك القائمون على نشر أنظمة الذكاء الاصطناعي الذين يقع مقر إقامتهم أو الموجودون داخل الاتحاد، بالإضافة إلى مقدمو وناشرو أنظمته التي يتم إنشائها أو الموجودة في بلد آخر، بحيث يتم استخدام المخرجات التي ينتجها هذا النظام داخل دول الاتحاد، كما يخضع لهذه اللائحة مستوردو وموزعو أنظمة الذكاء الاصطناعي ومصنعو المنتجات والذين يقومون بطرحه في السوق أو تشغيله مع منتجاتهم وتحت أسمائهم أو علاماتهم التجارية، وكذا الممثلون المعتمدون لمقدمي الخدمات، الذين لم يتم تأسيسهم في إحدى دول الاتحاد وأخيرا الأشخاص المتضررين الموجودين في دول الاتحاد الأوربي.[14]
2-المجالات التي تخرج عن دائرة التطبيق:
لقد أبعدت اللائحة من نطاق تطبيقها العديد من المجالات من قبيل المجالات التي تقع خارج نطاق قانون الاتحاد والتي لن تؤثر على اختصاصات الأمن القومي للدول الأعضاء في الاتحاد، بغض النظر عن نوع الجهة التي تكلفها الدول الأعضاء بتنفيذ المهام فيما يتعلق بتلك الاختصاصات.
لا تنطبق هذه اللائحة على أنظمة الذكاء الاصطناعي التي يتم طرحها في السوق أو وضعها في الخدمة أو استخدامها مع أو بدون تعديل عندما تكون بصفة حصرية تتعلق بالأغراض العسكرية أو الدفاعية أو الأمن القومي، وذلك بغض النظر عن نوع الجهة التي تنفذ تلك الأنشطة. سواء أكانت جهة عامة أو جهة خاصة، حيث إن هذا الاستبعاد له مبرراته على اعتبار أن الأمن القومي يظل المسؤولية الوحيدة للدول الأعضاء، وكذا التي لا يتم طرحها في السوق أو وضعها في الخدمة بالاتحاد، حيث يتم استخدام المخرجات في الاتحاد بصفة حصرية فقط للأغراض العسكرية أو الدفاعية أو الأمن القومي، بغض النظر عن نوع الجهة التي تنفذ تلك الأغراض. [15]
لكن إذا تم استخدامه خارج تلك الأغراض بشكل مؤقت أو دائم لأغراض أخرى، من قبيل أغراض مدنية أو إنسانية أو أغراض إنفاذ القانون[16] أو الأمن العام، فهذا النظام يقع ضمن نطاق اللائحة، وفي هذه الحالة يجب على الكيان الذي يستخدم نظام الذكاء الاصطناعي لأغراض أخرى غير الأغراض العسكرية أو الدفاعية أو الأمن القومي التأكد من امتثال هذا النظام للائحة، ما لم يكن النظام متوافقا بالفعل مع هذه اللائحة، وفي تلك الحالات لا ينبغي أن تؤثر حقيقة أن نظام الذكاء الاصطناعي قد يقع ضمن نطاق هذه اللائحة على إمكانية قيام الكيانات التي تنفذ أنشطة أمنية ودفاعية وعسكرية وطنية، بغض النظر عن نوع الكيان الذي ينفذ تلك الأنشطة، باستخدام أنظمة الذكاء الاصطناعي لأغراض الأمن القومي والأغراض العسكرية والدفاعية، والتي يتم استبعاد استخدامها من نطاق اللائحة. ويجب ألا يقع نظام الذكاء الاصطناعي المعروض في السوق لأغراض مدنية أو لأغراض إنفاذ القانون والذي يستخدم مع أو بدون تعديل لأغراض عسكرية أو دفاعية أو أمنية وطنية ضمن نطاق اللائحة، بغض النظر عن نوع الكيان الذي ينفذ تلك الأنشطة.[17]
وكذلك لا تنطبق هذه اللائحة على السلطات العامة في دولة خارج دول الاتحاد، وكذا المنظمات الدولية حيث يتم استخدام أنظمة الذكاء الاصطناعي في إطار التعاون الدولي أو اتفاقيات إنفاذ القانون، وذلك في مجال التعاون مع الاتحاد أو مع واحدة أو أكثر من الدول الأعضاء، لكن بشرط أن توفر هذه الدولة أو المنظمة الدولية ضمانات كافية لحماية الحقوق والحريات الأساسية للأفراد.[18]
كما لا تطبق هذه اللائحة على أنظمة أو نماذج الذكاء الاصطناعي ومخرجاتهما، التي تم تطويرها ووضعها في الخدمة بهدف البحث والتطوير العلمي فقط [19]، وكذا أي نشاط بحثي أو اختبار أو تطوير عندما يتعلق الأمر بأنظمة أو نماذج الذكاء الاصطناعي قبل طرحها في السوق أو وضعها في الخدمة [20]، وعلى التزامات القائمين بالنشر من الأشخاص الذاتين الذين يستخدمون أنظمة الذكاء الاصطناعي في سياق نشاط شخصي بحت غير احترافي[21]، بالإضافة إلى أنظمة الذكاء الاصطناعي التي تم إصدارها بناء على تراخيص مجانية ومفتوحة المصدر، ما لم يتم طرحها في السوق أو وضعها في الخدمة كأنظمة ذكاء اصطناعي عالية المخاطر.[22]
الفقرة الثانية: المجالات التي يحظر فيها ممارسات نظام الذكاء الاصطناعي والعقوبات الإدارية المقررة نتيجة انتهاك هذا الحظر:
إن استخدام أنظمة الذكاء الاصطناعي تحقق فوائد عديدة لا يمكن نكرانها، غير أنه من الممكن أيضا إساءة استخدامها وتوفير أدوات جديدة وقوية لممارسات التلاعب والاستغلال والسيطرة الاجتماعية من خلالها، فهذه الممارسات ضارة ومسيئة بشكل خاص وبالتالي تم حظرها.
وفي حالة انتهاك هذا الحظر فإن اللائحة نصت على عقوبات إدارية على شكل غرامات يتم تطبيقها على مؤسسات وهيئات ومكاتب ووكالات الاتحاد، وكذا على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة بعد اتباع إجراءات معينة.
في هذا السياق سوف نتطرق إلى المجالات التي يحظر فيها ممارسات نظام الذكاء الاصطناعي (أولا) ثم إلى العقوبة الإدارية المقررة نتيجة انتهاك هذا الحظر(ثانيا).
أولا: المجالات التي يحظر فيها ممارسات نظام الذكاء الاصطناعي:
هناك العديد من المجالات التي حظرت اللائحة فيها ممارسات أنظمة الذكاء الاصطناعي نظرا لخطورة النتائج التي تترتب عليها، وسوف نتطرق إليها تباعا على الشكل التالي:
1-تقنيات التلاعب أو الخداع المدعومة بنظام الذكاء الاصطناعي:
هناك العديد من المجالات حظرت فيها اللائحة استخدام نظام الذكاء الاصطناعي فيها وهي عندما يتم طرحه بالسوق أو وضعه في الخدمة أو استخدامه من أجل التلاعب أو الخداع بصفة عمدية[23]، بهدف التأثير على سلوك شخص أو مجموعة من الأشخاص عندما يتم إضعاف قدرتهم بشكل ملحوظ على اتخاذ قرار صحيح، مما يؤدي إلى التسبب أو احتمالية التسبب في ضرر يقع على ذلك الشخص أو على غيره أو على مجموعة من الأشخاص. وكذا عندما يتم استغلال نقاط الضعف لدى شخص ذاتي أو مجموعة محددة من الأشخاص بسبب يرجع إلى سنهم، أو إعاقتهم، أو وضعهم الاجتماعي، أو الاقتصادي، بهدف التأثير والتشويه المادي لسلوك ذلك الشخص أو أي شخص ينتمي إلى تلك المجموعة بطريقة تسبب أو من المحتمل أن تسبب ضررا لذلك الشخص أو أي شخص آخر غيره.[24]
يمكن استخدام تقنيات التلاعب المدعومة بالذكاء الاصطناعي لإقناع الأشخاص بالانخراط في سلوكيات غير مرغوب فيها، أو خداعهم عن طريق دفعهم إلى اتخاذ قرارات بطريقة تضعف استقلاليتهم وصنع القرار والاختيارات الحرة، حيث إن طرح أنظمة معينة للذكاء الاصطناعي في السوق أو وضعها في الخدمة أو استخدامها بهدف التأثير وتشويه السلوك البشري، مما يؤدي إلى وقوع أضرار جسيمة نتيجة ذلك، ولا سيما تلك التي لها آثار سلبية على الصحة البدنية أو النفسية أو المصالح المالية ومن المحتمل حدوثها، وهي خطيرة وبالتالي يجب حظرها.
حيث تنشر أنظمة الذكاء الاصطناعي مكونات لا شعورية مثل محفزات الصوت والصورة والفيديو التي لا يمكن للأشخاص إدراكها، حيث إن تلك المحفزات تتجاوز الإدراك البشري، أو غيرها من تقنيات التلاعب أو الخداع التي تضعف استقلالية الشخص أو اتخاذ القرار أو الاختيار الحر بطرق لا يستطيع الناس إدراكها، فقد لا يدركون هذه التقنيات بشكل واعي، أو عندما يكونوا على علم بها من الممكن خداعهم إذا كانوا غير قادرين على السيطرة عليها أو مقاومتها، من خلال الواقع الافتراضي لأنها تسمح بدرجة أعلى من التحكم في المحفزات المقدمة للأشخاص، بقدر ما قد تشوه سلوكهم ماديا بطريقة ضارة إلى حد كبير.
2-استخدام أنظمة الذكاء الاصطناعي لمعرفة نقاط الضعف لدى شخص أو مجموعة معينة من الأشخاص:
في نفس السياق قد تستغل أنظمة الذكاء الاصطناعي أيضا نقاط الضعف لدى شخص أو مجموعة معينة من الأشخاص بسبب سنهم أو إعاقتهم أو وضعهم الاجتماعي أو الاقتصادي مما قد يؤدي أن يجعل هؤلاء الأشخاص أكثر عرضة للاستغلال، كالأشخاص الذين يعيشون في فقر مدقع، وبالتالي يمكن طرح أنظمة الذكاء الاصطناعي في السوق، أو وضعها في الخدمة، أو استخدامها بهدف تشويه سلوك شخص ما بشكل مادي وبطريقة تسبب ضررا كبيرا لذلك الشخص أو لغيره من الأشخاص، بما في ذلك الأضرار التي قد تتراكم مع مرور الوقت، وبالتالي تم حظرها من خلال اللائحة.[25]
3-استخدام أنظمة الذكاء الاصطناعي للوصول إلى نتائج تمييزية:
يحظر طرح أنظمة الذكاء الاصطناعي في السوق أو وضعها في الخدمة، أو استخدامها بهدف تقييم، أو تصنيف الأشخاص الذاتيين، أو مجموعة منهم خلال فترة زمنية معينة بناء على سلوكهم الاجتماعي، أو خصائصهم الشخصية المعروفة، أو المستنتجة، أو المتوقعة، مع النتيجة الاجتماعية التي تؤدي إلى المعاملة السيئة لبعضهم في سياقات اجتماعية لا علاقة لها بالسياقات التي تم فيها إنشاء البيانات أو جمعها في الأصل، أو قد تؤدي هذه المعاملة بشكل غير مبرر أو غير متناسب مع سلوكهم الاجتماعي أو خطورته.[26]
بمعنى أنه قد تؤدي أنظمة الذكاء الاصطناعي التي توفر التسجيل الاجتماعي للأشخاص الذاتيين من طرف الجهات العامة أو الخاصة إلى نتائج تمييزية واستبعاد مجموعات معينة، وقد تنتهك الحق في عدم التمييز وقيم المساواة والعدالة، حيث تقوم أنظمة الذكاء الاصطناعي في هذه الحالة بتقييم أو تصنيف هؤلاء الأشخاص أو مجموعة منهم على أساس نقاط بيانات متعددة تتعلق بسلوكهم الاجتماعي في سياقات متعددة أو خصائص شخصية معروفة أو مستنتجة أو متوقعة على مدى فترات زمنية معينة، فقد تؤدي النتيجة الاجتماعية التي يتم الحصول عليها من أنظمة الذكاء الاصطناعي هذه إلى معاملة ضارة للأشخاص الذاتيين أو مجموعة كاملة منهم في السياقات الاجتماعية، والتي لا علاقة لها بالسياق الذي تم فيه إنشاء البيانات أو جمعها في الأصل أو إلى معاملة ضارة غير متناسبة أو غير مبررة لخطورة سلوكهم الاجتماعي، وبالتالي تم حظر أنظمة الذكاء الاصطناعي التي تنطوي على ممارسات تسجيل غير مقبولة والتي تؤدي إلى مثل هذه النتائج الضارة ، غير أن هذا الحظر لا يجب أن يؤثر على ممارسات التقييم القانونية للأشخاص الذاتيين التي يتم إجراؤها لغرض محدد وبطريقة قانونية.[27]
4-استخدام أنظمة الذكاء الاصطناعي لمعرفة خطورة الأشخاص من خلال تحديد الملامح والخصائص الشخصية:
يحظر استخدام أنظمة الذكاء الاصطناعي التي يتم طرحها في السوق أو وضعها في الخدمة من أجل إجراء معرفة خطورة شخص أو أشخاص ذاتين أو التنبؤ بخطورة ارتكابهم لجريمة جنائية، عندما يتم الاستناد فقط إلى تحديد ملامحهم أو تقييم سماتهم وخصائصهم الشخصية، غير أن هذا الحظر لا ينطبق على أنظمة الذكاء الاصطناعي التي تستخدم من أجل دعم التقييم البشري لتورط شخص ما في نشاط إجرامي، والذي يستند بالفعل إلى حقائق موضوعية يمكن التحقق منها خاصة وأنها ترتبط ارتباطا مباشرا بنشاط إجرامي.[28]
وكذا استخدام أنظمة الذكاء الاصطناعي التي تنشئ أو توسع قواعد بيانات التعرف على وجه شخص من خلال استخلاص صور وجه من الإنترنت أو لقطات كاميرات المراقبة[29]، لأن هذه الممارسة تؤدي إلى الشعور بالمراقبة الجماعية ويمكن أن يؤدي إلى انتهاكات جسيمة للحقوق الأساسية بما في ذلك الحق في الخصوصية.
5-استخدام أنظمة الذكاء الاصطناعي من أجل استنتاج مشاعر الأشخاص في أماكن العمل والمؤسسات التعليمية:
يحظر استخدام هذه الأنظمة من أجل استنتاج مشاعر[30] شخص في مجالات اماكن العمل[31] والمؤسسات التعليمية[32]، غير أنه يستثنى من هذا الحظر الحالات التي يكون من المقرر فيها الاستخدام لأسباب طبية أو تتعلق بالسلامة.[33]
حيث توجد مخاوف جدية بشأن الأساس العلمي لأنظمة الذكاء الاصطناعي التي تهدف إلى تحديد المشاعر أو استنتاجها، خاصة وأن التعبير عن المشاعر يختلف بشكل كبير عبر الثقافات والمواقف، ومن بين أوجه القصور الرئيسية في هذه الأنظمة هي الموثوقية المحدودة، والافتقار إلى الخصوصية ومحدودية التعميم، ولذلك، فإن أنظمة الذكاء الاصطناعي التي تحدد أو تستنتج مشاعر أو نوايا الأشخاص الذاتيين على أساس بياناتهم البيومترية قد تؤدي إلى نتائج تمييزية ويمكن أن تتطفل على حقوق الأشخاص المعنيين وحرياتهم، وبالنظر إلى اختلال توازن القوى في سياق العمل أو التعليم، إلى جانب الطبيعة التدخلية لهذه الأنظمة، فإن هذه الأنظمة يمكن أن تؤدي إلى معاملة ضارة أو غير مواتية لبعض هؤلاء الأشخاص ، وبالتالي تم حظر طرحها في السوق أو وضعها في الخدمة أو استخدام أنظمة الذكاء الاصطناعي المخصصة لاكتشاف الحالة العاطفية للأفراد في المواقف المتعلقة بمكان العمل والتعليم، غير أن هذا الحظر ينبغي ألا يشمل أنظمة الذكاء الاصطناعي المطروحة في السوق لأسباب طبية أو تتعلق بالسلامة فقط، مثل الأنظمة المخصصة للاستخدام الطبي.[34]
6-استخدام أنظمة الذكاء الاصطناعي للبيانات البيومترية:
لقد حددت اللائحة مجالات أخرى يحظر فيها استخدام أنظمة الذكاء الاصطناعي وهي عندما يتم استخدام أنظمة التصنيف البيومترية[35] التي تقوم بتصنيف الأشخاص الذاتيين بشكل فردي بناء على بياناتهم البيومترية [36] من أجل استنتاج عرقهم أو آرائهم السياسية أو عضويتهم النقابية أو معتقداتهم الدينية أو الفلسفية أو حياتهم الجنسية أو توجهم الجنسي، غير أن هذا الحظر لا يشمل أي تصنيف لمجموع البيانات البيومترية التي تم جمعها بشكل قانوني، من قبيل الصور في مجال إنفاذ القانون[37]، ويقصد بهذا الأخير الأنشطة التي تقوم بها سلطات إنفاذ القانون[38] أو نيابة عنها لمنع الجرائم الجنائية أو التحقيق فيها أو اكتشافها أو ملاحقتها قضائيا أو تنفيذ العقوبات الجنائية، بغرض الحماية من التهديدات للأمن العام ومنعها.[39]
7-استخدام أنظمة الذكاء الاصطناعي للهوية البيومترية عن بعد في الوقت الفعلي:
بالإضافة إلى استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي [40]في الأماكن التي يمكن الوصول إليها بشكل عام بهدف إنفاذ القانون، ما لم يكن هذا الاستخدام ضروريا بهدف البحث عن ضحايا محددين للاختطاف أو الاتجار بالبشر أو الاستغلال الجنسي للبشر، وكذلك البحث عن الأشخاص المفقودين، أو منع تهديد واضح ووشيك لحياة الأشخاص الذاتيين أو سلامتهم البدنية أو تهديد حقيقي وقائم أو متوقع بهجوم إرهابي، أو من أجل تحديد مكان أو هوية شخص يشتبه في ارتكابه جريمة جنائية، بغرض إجراء تحقيق جنائي أو محاكمة أو تنفيذ عقوبة جنائية على الجرائم التي تكون عقوبتها في الدولة العضو المعنية بعقوبة السجن لمدة أقصاها أربع سنوات على الأقل،[41] ولذلك يتم حظر استخدام هذه الأنظمة لأغراض إنفاذ القانون، إلا في الحالات المدرجة بشكل شامل ومحددة بشكل ضيق، حيث يكون الاستخدام ضروريا للغاية لتحقيق مصلحة عامة كبيرة، والتي تفوق أهميتها المخاطر.[42]
وفي نفس السياق نشير إلى أن اللائحة أكدت على وجوبية نشر استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي وذلك في الأماكن التي يمكن الوصول إليها بشكل عام لغرض إنفاذ القانون لتحقيق الأغراض والأهداف المحددة من ذلك ولا يتم الخروج عن ذلك إلا للتأكد من هوية الفرد المستهدف على وجه التحديد[43]، بحيث يقتصر على ما هو ضروري للغاية فيما يتعلق بالفترة الزمنية، وكذلك النطاق الجغرافي والشخصي، مع الأخذ في الاعتبار بشكل خاص الأدلة، أو المؤشرات المتعلقة بالتهديدات، أو الضحايا أو الجاني، يجب السماح باستخدام نظام تحديد الهوية البيومترية عن بعد في الوقت الفعلي في الأماكن التي يمكن الوصول إليها بشكل عام فقط إذا كانت سلطة إنفاذ القانون ذات الصلة قد أكملت تقييم تأثير الحقوق الأساسية، وما لم ينص على خلاف ذلك في هذه اللائحة، بحيث يتم تسجيل النظام في قاعدة البيانات على النحو المحدد في اللائحة، بحيث تكون هذه القاعدة المرجعية للأشخاص ومناسبة لكل حالة من الحالات السابقة.[44]
كما يجب أن يخضع كل استخدام لأغراض إنفاذ القانون لنظام تحديد الهوية البيومترية عن بعد في الوقت الفعلي بالأماكن التي يمكن الوصول إليها بشكل عام من حيث المبدأ لترخيص مسبق، يتم منحه من قبل هيئة قضائية أو هيئة إدارية مستقلة يكون قرارها ملزما للدولة العضو التي سيتم الاستخدام فيها، ويكون صادرا بناء على طلب مسبب ووفقا للقواعد التفصيلية للقانون الوطني، غير أنه في حالة الاستعجال الذي يستند على مبررات معقولة يجوز البدء في استخدام هذا النظام دون ترخيص بشرط أن يتم طلبه دون تأخير، خلال مدة زمنية وهي 24 ساعة، وفي حالة رفض الطلب يجب إيقاف الاستخدام فورا والتخلص من جميع البيانات وكذلك نتائج ومخرجات ذلك الاستخدام وحذفها.[45]
وتشمل بيانات الإدخال التي يحصل عليها نظام الذكاء الاصطناعي مباشرة أثناء استخدامه بالإضافة إلى نتائج ومخرجات الاستخدام المرتبطة بهذا الترخيص، وهي بالأساس لا تتضمن مدخلات تم الحصول عليها بشكل قانوني وفقا لقانون اتحادي أو وطني آخر، كما لا يمكن اتخاذ أي قرار ينتج عنه أثر قانوني سلبي على أي شخص بناء على مخرجات نظام تحديد الهوية البيومترية عن بعد فقط.
ويجب إبلاغ هيئة مراقبة السوق ذات الصلة وهيئة حماية البيانات الوطنية عن كل استخدام لنظام تحديد الهوية البيومترية عن بعد في الوقت الفعلي [46]، ويجوز لأي دولة عضو أن تقرر توفير إمكانية التصريح كليا أو جزئيا باستخدام هذا النظام في الأماكن التي يمكن الوصول إليها بشكل عام لأغراض إنفاذ القانون كما يجب على الدول الأعضاء المعنية أن تضع في قانونها الوطني القواعد التفصيلية اللازمة لطلب التفويضات وإصدارها والإشراف عليها وإعداد التقارير المتعلقة بها، وتحدد هذه القواعد أيضا الجرائم الجنائية.[47]
ثانيا: الغرامات الإدارية:
سوف نتطرق إلى الغرامات الإدارية على مؤسسات وهيئات ومكاتب ووكالات الاتحاد، ثم إلى الغرامات التي تقع على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة:
1- الغرامات الإدارية على مؤسسات وهيئات ومكاتب ووكالات الاتحاد:
في حالة انتهاك مؤسسات الاتحاد وهيئاته ومكاتبه ووكالاته التي تقع ضمن نطاق اللائحة لحظر ممارسات نظام الذكاء الاصطناعي والمنصوص عليها في المادة الخامسة فهناك غرامات تفرض عليهم من طرف المشرف الأوروبي على حماية البيانات[48] والتي تصل إلى 1500000 يورو[49]، وكذا غرامة تصل إلى 750000 يورو في حالة عدم الامتثال لأي متطلبات أو التزامات لم تنص عليها المادة الخامسة[50]، وتساهم هذه الأموال التي يتم تحصيلها بفرض هذه الغرامات في الميزانية العامة للاتحاد.[51]
مع الأخذ بعين الاعتبار عند تقرير هذه الغرامات الإدارية طبيعة الانتهاك وخطورته ومدته ونتائجه، والغرض من نظام الذكاء الاصطناعي المعني، وعدد الأشخاص المتضررين ومستوى الضرر الذي لحق بهم ، وكذلك درجة مسؤوليتهم مع مراعاة التدابير الفنية والتنظيمية التي تنفذها، والإجراء المتخذ من طرفهم للتخفيف من الأضرار التي لحقت بالأشخاص المتضررين، وأي تجاوزات سابقة قد تكون مماثلة من قبلهم، والطريقة التي تم بها وصول الانتهاك إلى المشرف الأوروبي على حماية البيانات هل كانت من طرفهم، والميزانية السنوية لمؤسسات الاتحاد أو هيئاته أو مكتبه أو وكالاته، ودرجة تعاونهم مع المشرف الأوروبي على حماية البيانات من أجل معالجة الانتهاك والتخفيف من الآثار السلبية المحتملة له، بما في ذلك الامتثال لأي من التدابير التي أمر بها هذا الأخير في فترة سابقة.[52]
وقبل اتخاذ القرارات التي تتعلق بالغرامات تمنح مؤسسة الاتحاد، أو الهيئة، أو المكتب، أو الوكالة التي تخضع للإجراءات المتعلقة بهذه الغرامات والتي يجريها المشرف الأوروبي على حماية البيانات فرصة الاستماع إليهم بخصوص الواقعة المتعلقة بالانتهاك المحتمل، كما يجب أن يبنى القرار المتخذ على العناصر والظروف المتعلقة بالواقعة، بالإضافة إلى ذلك وجب أن يتقيد مقدمو الشكاوى إن وجدوا بالإجراءات المنصوص عليها في اللائحة والمتعلقة بذلك[53]، وأخيرا يجب أن تكون الإجراءات مقيدة بحقوق الدفاع الخاصة بالأطراف، مع مراعاة المصلحة المشروعة للأفراد أو المؤسسات في حماية بياناتهم الشخصية أو أسرارهم التجارية.[54]
2- الغرامات الإدارية التي تطبق على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة:
قد يتعرض مقدمي نماذج الذكاء الاصطناعي للأغراض العامة[55] إلى عقوبة الغرامة من طرف المفوضية الأوربية، وتكون هذه العقوبة إما مبلغا ماليا لا يتجاوز 3% من إجمالي مبيعاتهم السنوية في جميع أنحاء العالم وفقا للسنة المالية السابقة لارتكاب المخالفة، أو مبلغ مالي يقدر ب 15 مليون يورو، إذا كانت نسبة 3 % أقل من هذا المبلغ الأخير، وهذه الغرامات تصدر في حق مقدمي نماذج الذكاء الاصطناعي للأغراض العامة عندما يرتكبون وعن طريق العمد أو الإهمال انتهاكات تتعلق بالأحكام المنصوص عليها في اللائحة، أو يقدمون معلومات غير صحيحة أو غير كاملة أو مضللة، أو عند عدم الامتثال لطلب المستندات أو المعلومات التي تم إعدادها من طرفهم والتي تهدف لتقييم مدى امتثالهم لأحكام اللائحة، أو مخالفة الإجراءات المنصوص عليها في المادة 93 من اللائحة [56]، وكذلك عندما يفشلون في تمكين المفوضية من الوصول إلى نموذج الذكاء الاصطناعي للأغراض العامة مع وجود مخاطر نظامية بهدف إجراء تقييم لهذا النموذج.[57]
وفي نفس السياق نشير إلى أنه عند تحديد مبلغ الغرامة، يجب الأخذ بعين الاعتبار طبيعة المخالفة وخطورتها ومدتها، مع مراعاة مبدأي التناسب والملاءمة بين المخالفة والعقوبة المتمثلة بالغرامة، وكذا طبيعة الالتزامات التي تم التعهد بها.
وقبل اعتماد القرار المتضمن لعقوبة الغرامة، يجب إبلاغ نتائجه الأولية إلى مزود نموذج الذكاء الاصطناعي للأغراض العامة للاطلاع عليه، ومنحه فرصة للاستماع إليه.[58]
وفي الأخير نشير إلى أن محكمة العدل التابعة للاتحاد الأوروبي تتمتع بسلطة قضائية من أجل مراجعة قرارات المفوضية التي تحدد الغرامة، ويجوز لها إلغاؤها أو تخفيضها أو زيادتها.[59]
خاتمة:
إن ضمان اليقين القانوني، وكذا ضمان فترة التكيف المناسبة للفاعلين وتجنب تعطيل السوق داخل الاتحاد، بالإضافة إلى ضمان استمرارية استخدام أنظمة الذكاء الاصطناعي، فإن تطبيق اللائحة المتعلقة بوضع قواعد منسقة بشأن الذكاء الاصطناعي سوف يتم تطبيق مقتضياتها بصفة تدريجية، حيث سيتم تطبيقها ابتداء من تاريخ 2 أغسطس 2026، لكن مجالات حظر ممارسة تطبيقات الذكاء الاصطناعي والأحكام العامة لهذه اللائحة سوق يتم تطبيقها ابتداء من تاريخ 2 فبراير 2025، أما بخصوص تطبيق التزامات مقدمي نماذج الذكاء الاصطناعي ذات الأغراض العامة وكذا الأحكام المتعلقة بالعقوبات الإدارية على مؤسسات وهيئات ومكاتب ووكالات الاتحاد ابتداء من تاريخ 2 أغسطس 2025.
وبحلول 2 أغسطس 2031، سوف يكون على المفوضية إجراء تقييم لتنفيذ اللائحة وتقديم تقرير عنها إلى البرلمان الأوروبي والمجلس واللجنة الاقتصادية والاجتماعية الأوروبية، مع الأخذ في الاعتبار للسنوات الأولى من تطبيقها.
قائمة المراجع:
– Regulation (EU) 2024/1689 of the European parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). Published in the Official Journal of the European Union on 7/12/2024, No. 144
-Preamble EU Regulation 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
-Annexes to EU Regulation 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024
[1] Regulation (EU) 2024/1689 of the European parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). Published in the Official Journal of the European Union on 7/12/2024, No. 144
[2] Based on the text of paragraph 1 of the text of Article 1 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[3] States The first paragraph of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
” AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments”.
[4] States Paragraph 3 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
” provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or a general-purpose AI model or that has an AI system or a general-purpose AI model developed and places it on the market or puts the AI system into service under its own name or trademark, whether for payment or free of charge”.
[5] Based on the text of paragraph 63 of the text of Article 3 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[6] Based on the text of paragraph 66 of the text of Article 3 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[7] States Paragraph 4 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“deployer’ means a natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal non-professional activity”.
[8] States Paragraph 5 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“authorised representative’ means a natural or legal person located or established in the Union who has received and accepted a written mandate from a provider of an AI system or a general-purpose AI model to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation”.
[9] States Paragraph 6 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“‘importer’ means a natural or legal person located or established in the Union that places on the market an AI system that bears the name or trademark of a natural or legal person established in a third country”.
[10] States Paragraph 7 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“distributor’ means a natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market”.
[11] States Paragraph 8 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“operator’ means a provider, product manufacturer, deployer, authorised representative, importer or distributor”.
[12] States Paragraph 47 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“‘AI Office’ means the Commission’s function of contributing to the implementation, monitoring and supervision of AI systems and general-purpose AI models, and AI governance, provided for in Commission Decision of 24 January 2024; references in this Regulation to the AI Office shall be construed as references to the Commission”.
[13]States Paragraph 48 of Article 3 of European Regulation No. 1689/2024 establishing harmonized rules on artificial intelligence stipulates the following:
“National competent authority’ means a notifying authority or a market surveillance authority; as regards AI systems put into service or used by Union institutions, agencies, offices and bodies, references to national competent authorities or market surveillance authorities in this Regulation shall be construed as references to the European Data Protection Supervisor”.
[14] Based on the text of paragraph 1 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[15] Based on the text of paragraph 3 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[16] بصفة عامة تشمل أنظمة الذكاء الاصطناعي التي تتعلق بإنفاذ القانون وبالقدر المسموح باستخدامها بموجب قانون الاتحاد أو القانون الوطني ذي الصلة: الأنظمة المخصصة للاستخدام من طرف سلطات إنفاذ القانون أو بالنيابة عنها ، أو من طرف مؤسسات الاتحاد، أو هيئاته، أو مكاتبه، أو وكالاته لدعم سلطات إنفاذ القانون أو نيابة عنها لتقييم خطورة أن يصبح الشخص الذاتي ضحية لجرائم جنائية، والأنظمة المخصصة للاستخدام كأجهزة كشف الكذب أو أدوات مماثلة، والأنظمة المخصصة للاستخدام لتقييم موثوقية الأدلة في مجال التحقيق أو مقاضاة مرتكبي الجرائم ، والأنظمة المخصصة للاستخدام لتقييم خطورة قيام شخص ذاتي بإعادة ارتكاب الجريمة، والأنظمة المخصصة للاستخدام لتصنيف الأشخاص الذاتيين في مجال الكشف عن الجرائم الجنائية أو التحقيق فيها أو ملاحقة مرتكبيها قضائيا.
-Based on Paragraph No. 6 of the third appendix entitled High-risk artificial intelligence systems referred to in Article 6(2) of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[17] See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 24.
[18] Based on the text of paragraph 4 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[19] Based on the text of paragraph 6 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[20] Based on the text of paragraph 8 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
كان من الضروري أن تستبعد اللائحة من نطاق تطبيقها أنظمة ونماذج الذكاء الاصطناعي التي تم تطويرها ووضعها في الخدمة خصيصا لغرض وحيد وهو البحث العلمي والتطوير، بالإضافة إلى ذلك من الضروري التأكيد من أن اللائحة لا تؤثر بطريقة أخرى على أنشطة البحث والتطوير العلمي المتعلقة بأنظمة أو نماذج الذكاء الاصطناعي قبل طرحها في السوق أو وضعها في الخدمة، فيما يتعلق بأنشطة البحث العلمي والتطوير الموجهة نحو المنتج فيما يتعلق بأنظمة أو نماذج الذكاء الاصطناعي، حيث إن أحكام اللائحة لا تنطبق عليها.
ولا يخل هذا الاستثناء بالالتزام بالامتثال للائحة عندما يتم طرح نظام الذكاء الاصطناعي الذي يقع ضمن نطاق هذه اللائحة في السوق أو وضعه في الخدمة نتيجة لنشاط البحث والتطوير. علاوة على ذلك، ودون المساس باستبعاد أنظمة الذكاء الاصطناعي التي تم تطويرها خصيصا ووضعها في الخدمة لغرض وحيد هو البحث العلمي والتطوير، فإن أي نظام آخر للذكاء الاصطناعي يمكن استخدامه لإجراء أي نشاط بحث وتطوير يجب أن يظل خاضعا لأحكام اللائحة، مع ضرورة تنفيذ أي نشاط متعلق بالبحث والتطوير ينبغي أن يكون وفقا للمعايير الأخلاقية والمهنية المعترف بها للبحث العلمي.
[21] Based on the text of paragraph 10 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[22] Based on the text of paragraph 12 of the text of Article 2 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024
[23] قد لا يكون من الممكن افتراض وجود نية تشويه السلوك عندما يكون التشويه ناتجا عن عوامل خارجة عن نظام الذكاء الاصطناعي والتي تكون خارجة عن سيطرة المزود أو الناشر، وهي العوامل التي قد لا يمكن توقعها بشكل معقول وبالتالي لا يمكن لمزود أو موزع نظام الذكاء الاصطناعي أن يخفف منها على أية حال، ليس من الضروري أن يكون لدى المزود أو الناشر نية التسبب في ضرر كبير، بشرط أن يكون هذا الضرر ناتجا عن الممارسات التلاعبية أو الاستغلالية التي تدعم الذكاء الاصطناعي. وعلى وجه الخصوص، تُحظر الممارسات التجارية غير العادلة التي تؤدي إلى أضرار اقتصادية أو مالية للمستهلكين في جميع الظروف، بغض النظر عما إذا تم وضعها من خلال أنظمة الذكاء الاصطناعي أو غير ذلك، كما يجب ألا يؤثر حظر الممارسات التلاعبية والاستغلالية في اللائحة على الممارسات القانونية في سياق العلاج الطبي مثل العلاج النفسي لمرض عقلي أو إعادة التأهيل البدني، عندما يتم تنفيذ تلك الممارسات وفقا للقانون المعمول به والمعايير الطبية، مثال على الموافقة الصريحة للأفراد أو ممثليهم القانونيين، وكذا لا ينبغي اعتبار الممارسات التجارية الشائعة والمشروعة، على سبيل المثال في مجال الإعلان، والتي تتوافق مع القانون المعمول به، تشكل في حد ذاتها ممارسات تلاعبية ضارة تعتمد على الذكاء الاصطناعي.
-See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 29.
[24] Based on the text of paragraph 1(A)(B) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[25] See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 29.
[26] Based on the text of paragraph 1(c) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[27] See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 31.
[28] Based on the text of paragraph 1(d) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[29] Based on the text of paragraph 1(e) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[30] هو نظام ذكاء اصطناعي الغرض منه تحديد أو استنتاج مشاعر أو نوايا الأشخاص الذاتيين على أساس بياناتهم البيومترية، حيث يشير المفهوم إلى العواطف أو النوايا مثل السعادة والحزن والغضب والمفاجأة والاشمئزاز والإحراج والإثارة والعار والازدراء والرضا والتسلية، ولا تشمل الحالات الجسدية مثل الألم أو التعب، من قبيل الأنظمة المستخدمة في الكشف عن حالة التعب لدى الطيارين المحترفين أو السائقين للطائرة، والذي يكمن الهدف منه هو منع الحوادث، كما لا يشمل ذلك أيضا مجرد الكشف عن التعبيرات أو الإيماءات أو الحركات الواضحة بسهولة، ما لم يتم استخدامها لتحديد المشاعر أو استنتاجها، ويمكن أن تكون هذه التعبيرات تعبيرات وجه أساسية، مثل العبوس أو الابتسامة، أو إيماءات مثل حركة اليدين أو الذراعين أو الرأس، أو خصائص صوت الشخص، مثل الصوت المرتفع أو الهمس.
– See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 18.
[31] بصفة عامة تشمل أنظمة الذكاء الاصطناعي المتعلقة بالتشغيل وإدارة العمال والوصول إلى العمل الحر إلى: الأنظمة المعدة للاستخدام في توظيف أو اختيار الأشخاص الذاتيين، وخاصة فيما يتعلق بوضع إعلانات الوظائف المستهدفة، وتحليل طلبات العمل وتصفيتها، وتقييم المرشحين، والأنظمة المخصصة للاستخدام في اتخاذ القرارات والتي تؤثر على شروط العلاقات المتعلقة بالعمل، أو تعزيز العلاقات التعاقدية المتعلقة به أو إنهائها، أو تخصيص المهام بناء على السلوك الفردي أو الخصائص الشخصية أو مراقبة وتقييم أداء وسلوك الموظفين في مثل هذه العلاقات.
-Based on Paragraph No. 4 of the third appendix entitled High-risk artificial intelligence systems referred to in Article 6(2) of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024
[32] بصفة عامة تشمل أنظمة الذكاء الاصطناعي التي تتعلق بالتعليم والتدريب المهني: الأنظمة المعدة للاستخدام بتحديد الوصول أو القبول أو تعيين الأشخاص الذاتيين في مؤسسات التعليم والتدريب المهني على جميع المستويات، وكذا الأنظمة المخصصة لاستخدامها في تقييم نتائج التعلم، وذلك عندما يتم استخدام هذه النتائج لتوجيه عملية التعلم للأشخاص الذاتيين في مؤسسات التدريب التعليمي والمهني على جميع المستويات، وكذلك الأنظمة التي تتعلق باستخدامها لغرض تقييم المستوى المناسب من التعليم الذي سيتلقاه الفرد أو سيكون قادرا على الوصول إليه، داخل مؤسسات التعليم والتدريب المهني على جميع المستويات أو في مجالها، بالإضافة إلى الأنظمة المخصصة للاستخدام في مجال رصد واكتشاف السلوك المحظور للطلاب أثناء الاختبارات داخل مؤسسات التعليم والتدريب المهني على جميع المستويات أو في مجالها.
-Based on Paragraph No. 3 of the third appendix entitled High-risk artificial intelligence systems referred to in Article 6(2) of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[33] Based on the text of paragraph 1(f) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024
[34] See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 44.
[35] بالرجوع إلى نص الفقرة 40 من نص المادة الثالثة من اللائحة نجد أنه عرفت نظام التصنيف البيومتري بأنه:
” نظام الذكاء الاصطناعي بغرض تخصيص الأشخاص الذاتيين لفئات محددة على أساس بياناتهم البيومترية، ما لم يكن ذلك تابعا لخدمة تجارية أخرى وضروريا لأسباب فنية موضوعية”.
تشمل أنظمة الذكاء الاصطناعي التي تستخدم فيما يتعلق بالقياسات الحيوية: أنظمة تحديد الهوية البيومترية عن بعد، وهي لا تشمل أنظمة الذكاء الاصطناعي المخصصة للاستخدام في التحقق البيومتري والذي يكون الغرض الوحيد منه هو التأكد من أن شخصا ذاتيا محددا هو الشخص الذي يدعي أنه هو بالفعل، وكذا الأنظمة المخصصة للاستخدام في التصنيف البيومتري، بناء على السمات أو الخصائص الحساسة أو المحمية بناء على استنتاج تلك السمات أو الخصائص، وكذلك الأنظمة المخصصة للاستخدام في التعرف على المشاعر.
-Based on Paragraph No. 1 of the third appendix entitled High-risk artificial intelligence systems referred to in Article 6(2) of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[36] عرفت الفقرة 34 من نص المادة الثالثة من اللائحة البيانات البيومترية بأنها:
” البيانات الشخصية الناتجة عن معالجة تقنية محددة تتعلق بالخصائص الجسدية أو الفسيولوجية أو السلوكية للشخص الطبيعي، مثل صور الوجه أو بيانات تنظير الأصابع”.
[37] Based on the text of paragraph 1(g) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
ولهذا، يجب أن تكون أنظمة التصنيف البيومترية التي تعتمد على البيانات البيومترية للأشخاص الذاتيين من قبيل وجه الشخص أو بصمة أصبعه، لاستنتاج الآراء السياسية للأفراد أو العضوية النقابية أو المعتقدات الدينية أو الفلسفية أو العرق أو الحياة الجنسية أو التوجه الجنسي المحظور، لكن ينبغي ألا يشمل هذا الحظر وضع البيانات القانونية أو التصنيف لمجموعات البيانات البيومترية التي تم الحصول عليها بما يتماشى مع قانون الاتحاد أو القانون الوطني وفقا للبيانات البيومترية، من قبيل فرز الصور وفقا للون الشعر أو لون العين، والتي يمكن استخدامها على سبيل المثال في مجال إنفاذ القانون.
– See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 30.
[38] لقد حددت الفقرة 45 من نص المادة الثالثة من اللائحة المقصود بسلطة إنفاذ القانون بأنها:
“أي سلطة عامة مختصة بمنع الجرائم الجنائية أو التحقيق فيها أو اكتشافها أو ملاحقتها قضائياً أو تنفيذ العقوبات الجنائية، بما في ذلك الحماية من التهديدات التي تهدد الأمن العام ومنعها؛ أو
أي هيئة أو كيان آخر يعهد إليه قانون الدولة العضو بممارسة السلطة العامة والسلطات العامة لأغراض منع الجرائم الجنائية أو التحقيق فيها أو اكتشافها أو مقاضاتها أو تنفيذ العقوبات الجنائية، بما في ذلك الحماية من التهديدات الموجهة للجمهور ومنعها “.
[39] Based on the text of paragraph 46 of the text of Article 3 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[40] بالرجوع إلى نص الفقرة 35 من نص المادة الثالثة من اللائحة نجد أنه عرف تحديد الهوية البيومترية بما يلي:
” يعني التعرف الآلي على السمات البشرية الجسدية، أو الفسيولوجية، أو السلوكية، أو النفسية بغرض تحديد هوية الشخص الذاتي من خلال مقارنة البيانات البيومترية لذلك الفرد بالبيانات البيومترية للأفراد المخزنة في قاعدة بيانات”.
كما عرفت الفقرة 40 من نفس المادة “نظام التصنيف البيومتري بأنه:
” نظام الذكاء الاصطناعي بغرض تخصيص الأشخاص الذاتيين لفئات محددة على أساس بياناتهم البيومترية، ما لم يكن ذلك تابعا لخدمة تجارية أخرى وضروريا لأسباب فنية موضوعية”.
أما بخصوص نظام تحديد الهوية البيومترية عن بعد فقد عرفته الفقرة 41 من نفس المادة بأنه:
” نظام الذكاء الاصطناعي بغرض تحديد هوية الأشخاص الذاتيين، دون مشاركتهم النشطة، وعادة ما يكون ذلك عن بعد من خلال مقارنة البيانات البيومترية للشخص مع البيانات البيومترية الواردة في قاعدة بيانات مرجعية”.
وعرفت الفقرة 42 من نفس المادة نظام تحديد الهوية البيومترية عن بعد في الوقت الحقيقي بأنه:
“يعني نظام تحديد الهوية البيومترية عن بعد، حيث يتم التقاط البيانات البيومترية والمقارنة وتحديد الهوية دون تأخير كبير، ولا يشمل تحديد الهوية الفوري فحسب، بل يشمل أيضا تأخيرات قصيرة محدودة لتجنب التحايل”.
[41] Based on the text of paragraph 1(h) of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
تشمل هذه الجرائم بناء على المرفق الثاني للائحة مجموعة من الجرائم وهي الإرهاب، الاتجار بالبشر، الاستغلال الجنسي للأطفال، والمواد الإباحية عن الأطفال، الاتجار غير المشروع بالمخدرات أو المؤثرات العقلية، الاتجار غير المشروع بالأسلحة أو الذخائر أو المتفجرات، القتل، والإصابات الجسدية الخطيرة، الاتجار غير المشروع بالأعضاء أو الأنسجة البشرية، الاتجار غير المشروع بالمواد النووية أو المشعة، الاختطاف أو التقييد غير القانوني أو أخذ الرهائن، الجرائم التي تدخل في اختصاص المحكمة الجنائية الدولية، الاستيلاء غير المشروع على الطائرات أو السفن، الاغتصاب، الجرائم البيئية، السطو المنظم أو المسلح، تخريب، المشاركة في منظمة إجرامية متورطة في واحدة أو أكثر من الجرائم المذكورة أعلاه.
-See the second annex of the of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[42] حيث تساهم مدة العقوبة في ضمان أن تكون الجريمة خطيرة بما يكفي لتبرير استخدام أنظمة تحديد الهوية البيومترية عن بعد في الوقت الفعلي. كما أن بعض هذه الجرائم من المحتمل، من الناحية العملية، أن تكون أكثر أهمية من غيرها، حيث إن اللجوء إلى تحديد الهوية البيومترية عن بعد في الوقت الفعلي يمكن أن يكون ضروريا ومتناسبا بدرجات متفاوتة للغاية للسعي العملي لتحديد موقع الجاني أو المشتبه به في الجريمة المختلفة أو تحديد نوعية الجرائم المدرجة مع مراعاة الاختلافات المحتملة في خطورة واحتمالية وحجم الضرر أو العواقب السلبية المحتملة.
ويمكن أن ينجم أيضا تهديد وشيك للحياة أو السلامة الجسدية للأشخاص الذاتيين عن تعطيل خطير للبنية التحتية الحيوية، عندما يؤدي تعطيلها أو تدميرها إلى تهديد وشيك لحياة الشخص أو سلامته البدنية، مما يؤدي إلى إلحاق ضرر جسيم بتوفير الإمدادات الأساسية للسكان أو ممارسة الوظائف الأساسية.
بالإضافة إلى ذلك، يجب المحافظة على قدرة سلطات إنفاذ القانون أو مراقبة الحدود أو الهجرة أو اللجوء على إجراء عمليات التحقق من الهوية بحضور الشخص المعني وفقا للشروط المنصوص عليها قانونا سواء في قانون الاتحاد أو القانون الوطني لإجراء عمليات التحقق، بحيث تستطيع هذه السلطات أن تكون قادرة على استخدام أنظمة المعلومات، لتحديد الأشخاص الذين أثناء التحقق من الهوية، إما يرفضون تحديد هويتهم أو غير قادرين على ذكر أو إثبات هويتهم، دون أن يطلب منهم هذا النظام الحصول على تصريح مسبق، بحيث قد يكون أحد الأشخاص مثلا متورطا في جريمة، أو غير قادر بسبب حادث أو حالة طبية، على الكشف عن هويته لسلطات إنفاذ القانون.
– See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 33.
[43] يجب أن يتم الأخذ في الاعتبار ما يلي:
طبيعة الموقف الذي أدى إلى الاستخدام المحتمل، ولا سيما مدى خطورة واحتمالية وحجم الضرر الذي قد يحدث إذا لم يتم استخدام النظام، وكذا عواقب استخدام هذا الأخير على حقوق وحريات جميع الأشخاص المعنيين، ولا سيما خطورة تلك العواقب واحتمالها وحجمها.
بالإضافة إلى ذلك، فإن استخدام أنظمة تحديد الهوية البيومترية عن بعد “في الوقت الفعلي” في الأماكن التي يمكن الوصول إليها بشكل عام لأغراض إنفاذ القانون لأي من الأهداف التي تقتضي ذلك، يجب أن يتوافق مع الضمانات والشروط اللازمة فيما يتعلق بالاستخدام وفقا للقانون الوطني الذي يجيز استخدامه، وخاصة فيما يتعلق بالقيود الزمنية والجغرافية والشخصية. كما أنه لا يسمح باستخدام نظام تحديد الهوية البيومترية عن بعد في الوقت الفعل في بالأماكن التي يمكن الوصول إليها بشكل عام إلا إذا كانت سلطة إنفاذ القانون قد أكملت تقييم تأثير الحقوق الأساسية وسجلت النظام في قاعدة بيانات الاتحاد الأوروبي، إلا أنه رغم ذلك وفي حالات الاستعجال، يجوز البدء في استخدام هذه الأنظمة دون التسجيل في هذه القاعدة، بشرط أن يتم إكمال هذا التسجيل دون تأخير لا مبرر له.
-Based on the text of paragraph 2(a) (b)of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[44] – See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 34
[45] ونشير في هذا السياق إلى أنه لا يجوز للسلطة القضائية المختصة أو السلطة الإدارية المستقلة منح الترخيص إلا إذا اقتنعت، على أساس أدلة موضوعية أو مؤشرات واضحة مقدمة إليها، بأن استخدام نظام تحديد الهوية البيومترية عن بعد في الوقت الحقيقي ضروري ومتناسب مع تحقيق أحد الأهداف والتي يتم تحديدها في الطلب، وخاصة أنها تظل مقتصرة على ما هو ضروري للغاية فيما يتعلق بالفترة الزمنية وكذلك النطاق الجغرافي والشخصي، وعند البت في الطلب لا يجوز اتخاذ أي قرار ينتج عنه أثر قانوني سلبي على شخص ما بناء على مخرجات نظام تحديد الهوية البيومترية عن بعد في الوقت الفعلي.
-Based on the text of paragraph 3 of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
أما بخصوص الاستثناء والمتعلق بالمواقف التي تبرر الاستعجال، أي في الحالات التي تكون فيها الحاجة إلى استخدام الأنظمة المعنية والتي تجعل من المستحيل بشكل فعال وموضوعي الحصول على ترخيص قبل البدء في استخدام نظام الذكاء الاصطناعي، ففي مثل هذه الحالات الطارئة، يجب أن يقتصر استخدام نظام الذكاء الاصطناعي على الحد الأدنى والضروري، كما يجب أن يخضع للضمانات والشروط القانونية في القانون الوطني والمحدد في استخدام هذه الأنظمة من طرف سلطات إنفاذ القانون.
-See preamble EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024. Number 35.
[46] Based on the text of paragraph 4 of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[47] Based on the text of paragraph 5 of the text of Article 5 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[48] حيث يقوم سنويا بإخطار المفوضية الأوروبية بالغرامات الإدارية التي فرضها بموجب هذه المادة وبأي دعوى قضائية أو إجراءات قضائية قد بدأها.
-Based on the text of paragraph 7 of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[49] Based on the text of paragraph 2of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[50] Based on the text of paragraph 6of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[51] Based on the text of paragraph 3of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[52] Based on the text of paragraph 1of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[53] Based on the text of paragraph 4of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024
[54] Based on the text of paragraph 5of the text of Article 100 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[55] يقصد بنموذج الذكاء الاصطناعي للأغراض العامة بأنه نموذج للذكاء الاصطناعي، حيث يتم تدريبه على كمية كبيرة من البيانات باستخدام الإشراف الذاتي على نطاق واسع، والذي يكون قادرا على أداء مجموعة واسعة من المهام المتميزة بكفاءة بغض النظر عن الطريقة التي يتم بها طرح هذا النموذج في السوق والتي يمكن دمجها في مجموعة متنوعة من الأنظمة أو التطبيقات النهائية، باستثناء نماذج الذكاء الاصطناعي التي تُستخدم في أنشطة البحث أو التطوير أو النماذج الأولية قبل طرحها في السوق.
-Based on the text of paragraph 63of the text of Article 1 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[56] بالرجوع على نص هذه المادة نجد أنها نصت على مجموعة من الإجراءات وهي اتخاذ التدابير المناسبة للامتثال للالتزامات المفروضة على مقدمي نماذج الذكاء الاصطناعي للأغراض العامة المفروضة، تنفيذ مجموعة من التدابير من أجل التخفيف من اثارة مخاوف جدية ومثبتة بشأن وجود أخطار نظامية على مستوى الاتحاد، تقييد إتاحة النموذج في السوق، أو سحبه أو استرجاعه.
[57] Based on the text of paragraph 1of the text of Article 102 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[58] Based on the text of paragraph 2of the text of Article 102 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024.
[59] Based on the text of paragraph 5of the text of Article 102 of EU Regulation No. 2024/1689 (of the European Parliament and of the Council) establishing harmonized rules on artificial intelligence of 13 June 2024





