الدليل السري: هذا المستند يحدد مصير تطبيق قانون الذكاء الاصطناعي الأوروبي

لفهم قانون الذكاء الاصطناعي الأوروبي (EU AI Act) فعلياً، الوثيقة الأهم ليست القانون نفسه، بل ما يُعرف بـ "الدليل الأزرق" (Blue Guide)، وهو مرجع أساسي تعتمد عليه الجهات التنظيمية، رغم أن قلة قليلة من المطورين يقرؤونه.

وفقاً لتحليل نشره آدم ليون سميث، يُعد هذا الدليل المرجع الرئيسي الذي يوضح كيفية عمل القواعد التنظيمية عبر مختلف القطاعات، بدءاً من تحديد مسؤوليات الجهات الاقتصادية وصولاً إلى علامة CE والمراقبة السوقية والمعايير المنسقة. الدليل الأزرق هو في جوهره كتيب إرشادي أصدرته المفوضية الأوروبية يشرح بشكل عملي كيفية تطبيق قوانين سلامة المنتجات في الاتحاد الأوروبي، موضحاً من المسؤول عن ماذا وكيف يتم وضع المنتج في السوق.

العلاقة بين الدليل وقانون الذكاء الاصطناعي وثيقة جداً؛ فالقانون يعتمد بشكل كبير على "الإطار التشريعي الجديد" المطبق على المنتجات التقليدية. هذا يعني أن فهم الدليل الأزرق ضروري لمعرفة كيفية تفسير وتطبيق قانون الذكاء الاصطناعي خلال السنوات القادمة، خاصة أن القانون ينص صراحة على بناء قواعده على هذا الأساس.

يشرح الدليل نقاطاً هيكلية مهمة تظهر في قانون الذكاء الاصطناعي دون تفصيل كامل، مثل تحديد من يُعتبر "جهة اقتصادية" (مزود، مستورد، موزع) وكيفية تفاعل التزاماتهم. كما يوضح الدليل آليات عمل فرضية الامتثال عند تطبيق المعايير المنسقة، وكيفية ترتيب علامة CE وإعلان الامتثال والوثائق الفنية المطلوبة.

أحد أبرز تطبيقات هذا الربط يكمن في فرضية الامتثال. يوضح الدليل أن المعايير المنسقة تمنح فرضية امتثال للمتطلبات التي تغطيها. ويستعير قانون الذكاء الاصطناعي هذا المبدأ مباشرة في المادة 40، حيث تمنح المعايير المنسقة الخاصة بالذكاء الاصطناعي فرضية بأن الأنظمة عالية المخاطر تلبي المتطلبات الأساسية. هذا يمثل امتداداً لتقنية سلامة المنتجات الفيزيائية لتنظيم مخاطر الخوارزميات.

أخبار من القسم

تطورات الساعة

اشترك الآن بالنشرة الإخبارية