https://www.lifegate.it/ai-act-intelligenza-artificiale
- |
- وبعد 36 ساعة من المفاوضات، توصل البرلمان الأوروبي والمجلس إلى اتفاق بشأن قانون الذكاء الاصطناعي، اللائحة التنظيمية للذكاء الاصطناعي.
- يُحظر استخدام المراقبة الجماعية، مثل التعرف المباشر على الوجه والشرطة التنبؤية، مع استثناءات مختلفة.
- جمعيات حقوق الإنسان تتراجع عن حماستها:وبدون النص النهائي، لا يمكن التحقق من مستوى حماية الحقوق والحد الفعال للمراقبة الجماعية.
بعد أشهر من المناقشات حول كيفية تنظيم شركات مثل OpenAI التي تتعامل مع أنظمة الذكاء الاصطناعي،الاتحاد الأوروبي وافق قانون الذكاء الاصطناعي يوم الجمعة 8 ديسمبر, ، الحزمة الأولى من القواعد الإقليمية بشأن الذكاء الاصطناعي.انها واحدة القانون الأساسي والتي، على أمل المشرعين الأوروبيين، يمكن أن تصبح نموذجاً لبقية العالم.
ما هو قانون الذكاء الاصطناعي وكيف يختلف عن اللوائح الأخرى المتعلقة بالذكاء الاصطناعي
مقترحة من قبل المفوضية الأوروبية في 21 أبريل 2021 كجزء من الاستراتيجية الرقمية للمجتمعقانون الذكاء الاصطناعي هو تنظيم الاتحاد الأوروبي والذي يهدف إلى تقديم إطار تنظيمي وقانوني مشترك للذكاء الاصطناعي.
التنظيم في حد ذاته ليس الأول على مستوى العالم.في الصين، على سبيل المثال، القواعد على الذكاء الاصطناعي التوليدي دخلت حيز التنفيذ بالفعل في أغسطس.ومع ذلك، فإن الطبيعة الاستثنائية لقانون الذكاء الاصطناعي تتعلق بـ lمجموعة من القواعد، أوسع من ذلك بكثير, ، بشأن استخدام الذكاء الاصطناعي، بما في ذلك عدد كبير من حالات الحظر.
ملك ثلاثية على بعض المحظورات – المفاوضات بين البرلمان والمفوضية الأوروبية والمجلس، الجزء الأخير من العملية التشريعية الأوروبية – خطر الجنح خلال 36 ساعة من المفاوضات.وركزت المناقشة على وجه الخصوص على الاستخدامات المسموح بها والمحظورة للذكاء الاصطناعي من قبل الشركات وكالات إنفاذ القانون, ، لا سيما فيما يتعلق بالشرطة التنبؤية والتعرف على الوجه في الوقت الحقيقي.فبينما دافع البرلمان من ناحية عن خط الحصار الشامل، دفع المجلس، الذي يمثل الدول الأعضاء، بدلاً من ذلك إلى اتباع نهج أكثر تساهلاً.
مسألة المراقبة من قبل وكالات إنفاذ القانون
كان الموضوع الأكثر إثارة للجدل والانقسام، ليس فقط بين البرلمان والمفوضية ولكن أيضًا مع المجتمع المدني، هو موضوع تعريف الاستخدام القانوني للذكاء الاصطناعي من قبل وكالات إنفاذ القانون.
ال ينصح, وحاولت، التي تمثل الحكومات الوطنية الـ 27 للدول الأعضاء، منح إمكانية استخدام الذكاء الاصطناعي للتعرف على الأشخاص من خلال التعرف على الوجه البيومترية في الوقت الحقيقي.وكان طلب آخر هو السماح باستخدام هذه الأنظمة لأغراض الشرطة التنبؤية.يتضمن ذلك استخدام الخوارزميات للتنبؤ باحتمالية ارتكاب الجريمة ومن يقوم بها وفي أي مكان.
والدول التي حاولت الدفع في هذا الاتجاه كانتإيطاليا – متناسين أن ضامن الخصوصية حظر استخدام التعرف في الوقت الحقيقي في عام 2021 - الهنغاريا و فرنسا.خصوصا أن الأخير دفع كثيرا في الآونة الأخيرة في الاتجاه الأمني، أولا مع قانون "الأمن العالمي" ثم مع القانون في أبريل الماضي الذي أجاز استخدام الذكاء الاصطناعي والتحقيقات الوقائية في ضوء ذلك أولمبياد باريس.
ليس الشمس:وتزايدت المخاوف، خاصة في المجتمع المدني ومنظمات الحقوق الرقمية، عندما حاول المجلس، خلال المفاوضات، السماح باستخدام الاعتراف البيومتري على أساس عرقي.
ما هي استخدامات الذكاء الاصطناعي للمراقبة المحظورة
المعارضة التي قام بها البرلمان قد صمدت وتم حظر استخدام الذكاء الاصطناعي للمراقبة, إلا في استثناءات قليلة وفي جميع الأحوال بإذن من السلطات القضائية. مما ظهر في الساعات التالية يتم وضع القواعد على المخاطر, ، مقسمة إلى أربع فئات: الحد الأدنى، المحدود، العالي وغير المقبول.كلما زادت المخاطر، زادت المسؤوليات التي تقع على عاتق أولئك الذين يطورون ويستخدمون تلك الأنظمة المحددة. حتى تم منعه لأولئك الذين يعتبرون خطرين للغاية.
قانون الذكاء الاصطناعي يحظر التصنيف البيومتري البيانات الشخصية الحساسة, ، مثل العرق أو العقيدة أو التوجه الجنسي؛هناك مجموعة ضخمة من الوجوه من الإنترنت والتقنيات التي تتعرف على العواطف (فقط في العمل والمدرسة).كما يحظر الأنظمة القادرة على التلاعب بالعواطف من الأشخاص ومن يعتمد عليهم التهديف الاجتماعي, أي طريقة تصنيف سمعة المواطنين المعتمدة بالفعل في الصين.
تم حظر التعرف على القياسات الحيوية في الوقت الحقيقي إلا في ثلاث حالات: التهديد الإرهابي والبحث عن ضحايا الجريمة (مثل، على سبيل المثال، الرهائن) وتحديد هويتهم يشتبه بارتكاب بعض "الجرائم الخطيرة".هناك أول قائمة واسعة النطاق ويشمل الاتجار بالبشر، والاتجار بالمخدرات، والاتجار بالأسلحة، والمواد الإباحية عن الأطفال وإساءة معاملة الأطفال، والجرائم البيئية، وجرائم القتل، ولكن أيضًا الإرهاب والاختطاف، وهي جرائم مدرجة بالفعل في الاستثناءات الثلاثة المقدمة.
ال أنظمة الشرطة التنبؤية, ومع ذلك، لا يمكن استخدامها إلا للتحليل معلومات مجهولة المصدر لتوفير الاتجاهات في مسرح الجريمة، بينما تُحظر الأنظمة التي تشير من خلال الخوارزميات إلى المشتبه به.بعبارة أخرى، لن يكون من الممكن التحقيق مع أي فرد لأنه تم الإبلاغ عنه بواسطة خوارزمية.
القواعد الأخرى المنصوص عليها في قانون الذكاء الاصطناعي
من القضايا المهمة التي تتدخل فيها اللائحة هي الشفافية في استخدام أنظمة الذكاء الاصطناعي.يجب على المستخدمين تكون قادرة على التعرف على المحتويات وهمية عميقة, ، مثل الصور ومقاطع الفيديو، من خلال تسميات واضحة للعيان، ويجب عليهم ذلك معرفة ما إذا كانوا يتفاعلون مع شخص أو مع نظام, ، مثل أ روبوتات الدردشة.بالإضافة إلى، شركات سيكون لدى مقدمي الخدمات الرقميةالالتزام بتحديد المحتوى الذي تم إنشاؤه باستخدام الذكاء الاصطناعي التي يتم تداولها على منصاتهم ويجب وضع علامة عليها تلقائيًا على هذا النحو.ثورة إذا فكرنا في عدد التزييف العميق الذي يتم تداوله، على سبيل المثال، على وسائل التواصل الاجتماعي.
موضوع آخر هو أن’الذكاء الاصطناعي التوليدي, ، ذلك النظام القادرة على إنشاء نصوص أو صور أو مقاطع فيديو أو موسيقى أو وسائط أخرى استجابة للطلبات، مثل ChatGpt. يشير المعيار إلى أنظمة الذكاء الاصطناعي للأغراض العامة, قادر على أداء مهام مختلفة ومدرب من خلال كمية هائلة من البيانات غير المصنفة.تم تعيين بعض عتبات لتحديد الأنظمة على أساس التأثير:وكلما كانت التأثيرات على السكان أكبر، كلما زادت الالتزامات التي يجب احترامها.
ومن بين القضايا الأخرى، القضية المتعلقة حماية حقوق النشر و الشفافية العامة لجميع المحتوى الرقمي تم إنشاؤها باستخدام الذكاء الاصطناعي.
الخطوات التالية لقانون الذكاء الاصطناعي والانتقادات التي تلقاها من المجتمع المدني
وقد انتهى نص اللائحة من عمليته السياسية وهو الآن انتقلت إلى أيدي الفنيين والذين تقع على عاتقهم مهمة مراجعة القواعد للتأكد من تماسكها وتعديلاتها.وبعد نشر النص النهائي، في نهاية كانون الثاني/يناير المقبل تقريبا، ستقوم اللجنة بتجهيز نفسها بـ مكتب للذكاء الاصطناعي. سيكون على كل ولاية أن ترشح سلطة محلية الذي يشرف على تطبيق اللائحة، ويعمل مع ضامن حماية البيانات.
ومن المهم التأكيد على ذلك حتى الآن لا توجد وثيقة نهائية يمكن الاطلاع عليها.كل ما نعرفه تم نشره في المؤتمر الصحفي وتسريبه من قبل مصادر في بروكسل.
المجتمع المدني وشبكات الجمعيات الأوروبية الذين يتعاملون مع الحقوق الرقمية بما في ذلك إدري, ، وهي شبكة من المنظمات غير الحكومية والأكاديميين الذين يتعاملون مع الحقوق الرقمية حذر جدا في الاحتفال بالاتفاق الذي تم التوصل إليه.وفيما يلي نفس الرأي الجمعيات الإيطالية, ، مشتمل اللوبي الجيد, مركز هيرميس و شبكة الخصوصية, ، والتي تؤكد على القلق بشأن الاستثناءات المتعددة إلى الحظر المفروض على استخدام التعرف على الوجه في الأماكن العامة، ولكن قبل كل شيء - غياب الشفافية أثناء المفاوضات. في ملاحظة إيجابية, ، كما يشير ديليتا هويسكس شبكة الخصوصية، يبدو أن إدراجها في قاعدة تقييم الأثر على الحقوق الأساسية بالنسبة للذكاء الاصطناعي عالي الخطورة، ولكن لا يمكن التحقق من ذلك أيضًا إلا من خلال نشر النص النهائي.
كما هو الحال مع اللوائح الأوروبية الأخرى، التفاصيل الأكثر إشكالية سوف يظهرون مرة واحدة فقط سيتم نشر النص للعامة.خلال المفاوضات، كان على الحكومات أن تعترف بوجود أنظمة الذكاء الاصطناعي تستخدم بشكل متزايد للمراقبة الجماعية, والتنميط العنصري وغيرها من الأغراض الضارة والمتطفلة.يحتوي الاتفاق على حدود، لكن فقط من خلال النص النهائي سيكون من الممكن التحقق من تأثيره، خاصة فيما يتعلق بالمراقبة الداخلية والحدود.
من الصعب أن نكون متحمسين للقانون الذي اتخذ، لأول مرة في الاتحاد الأوروبي، خطوات لإضفاء الشرعية على التعرف على الوجه في الوقت الحقيقي.وعلى الرغم من أن البرلمان ناضل بشدة للحد من الأضرار، إلا أن الحزمة الشاملة المتعلقة بالمراقبة البيومترية والتنميط ليست كافية.من المقرر أن تستمر معركتنا ضد المراقبة البيومترية الجماعية