المرصد الأوروبي لمحاربة التطرف ـ هولندا
الذكاء الاصطناعي- هل يتسبب بـ”تمييز رقمي” مبرمَج في ألمانيا؟
DW – تتزايد المخاوف من أن الذكاء الاصطناعي ربما يساهم في زيادة العنصرية الهيكلية وغيرها من أشكال التمييز في ألمانيا. وترغب فيردا أتامان، المفوضة المستقلة لمكافحة التمييز في البلاد، في وضع قواعد صارمة لتجنب “التمييز المبرمج”.خلال مؤتمر صحافي في برلين الأربعاء (30 أغسطس / آب)، قالت فيردا أتامان، المفوضة المستقلة لمكافحة التمييز في ألمانيا، إن الذكاء الاصطناعي “يسهل الكثير من نواحي الحياة بما في ذلك التمييز والعنصرية” أيضا.وجاءت تصريحات أتامان، رئيسة الوكالة الاتحادية لمكافحة التمييز، في مستهل تقديم تقريرها بشأن أفضل السبل لحماية الأشخاص من أي شكل من أشكال التمييز التي تساهم فيها “الخوارزميات الخاصة بدعم اتخاذ القرارات” أو ما يطلق عليها في الإنجليزية “algorithmic decision making systems”، وتعرف في العربية اختصارا بـ”مجال الأتمتة”.واستشهد التقرير بأمثلة عديدة يستخدم فيها “مجال الأتمتة”، الذي يعتمد على الذكاء الاصطناعي، مثل إجراءات التقديم للحصول على وظيفة، أو الحصول على قروض من البنوك أو توقيع عقود مع شركات التأمين أو الحصول على دعم من الدولة مثل المساعدات الاجتماعية.
التمييز الرقمي؟
وقالت أتامان “ما يبدو موضوعيا للوهلة الأولى يمكن أن يعيد تلقائيا صدور أحكام مسبقة وتصورات نمطية. ولا ينبغي لنا تحت أي ظرف من الظروف أن نقلل من مخاطر التمييز الرقمي”. يشار إلى أن السنوات الماضية قد برهنت على صحة مخاوف أتامان، إذ إنه في عام 2019، تعرض أكثر من 20 ألف شخص في هولندا لعملية فساد انطوت على استخدام التكنولوجيا التي يفترض كثيرون أنها نزيهة، في قضية عُرفت إعلاميا بـ “فضيحة الاحتيال في إعانات رعاية الأطفال”.وتعود القضية إلى مطالبة آلاف الأسر في هولندا بسداد عشرات الآلاف من الإعانات بعد اتهامهم خطأ بالاحتيال في رعاية الأطفال، وتهديدهم بفرض غرامات كبيرة عليهم، في فضيحة أدت إلى استقالة الحكومة في حينه بعد أن اعترفت بالخطأ، الذي تعرضت له، خصوصا الأسر التي لديها جنسية مزدوجة.
ويرى خبراء أن “الخوارزمية التمييزية في البرنامج كانت مسؤولة جزئيا” عن الخطأ في فضيحة عززت مخاوف الأقليات العرقية في هولندا من أنهم يتعرضون للتمييز السلبي من قبل السلطات.وفي محاولة لمنع حدوث مثل هذه الحالات في ألمانيا، دعت أتامان الشركات إلى العمل بشفافية، بما يشمل تقديم الشركات التي تستخدم الذكاء الاصطناعي معلومات حول البيانات المستخدمة وطريقة معالجتها.وأشار مؤلفو التقرير، الذي قدمته المسؤولة الألمانية إلى أن الأنظمة القائمة على استخدام الذكاء الاصطناعي تعد بمثابة “صندوق أسود”، حيث من الصعب تتبع أسباب تعرض أي فئة لأي تجاوزات.وقال التقرير إن احتمالات التمييز في “خدمات إدارة بيانات التطبيق” قد تكون “متأصلة بالفعل في النظام نفسه”، فيما قد يكون السبب في ذلك مجموعة بيانات معيبة جرى جمعها لغرض منحرف.
الرمز البريدي
ولم يتوان التقرير عن تقديم أمثلة على مثل هذه الحالات، قائلا: “لا تعد خاصية الرمز البريدي، على سبيل المثال، تمييزية في حد ذاتها، لكنها قد تنطوي على شكل من أشكال التمييز المحظور بسبب أن الكثير من المهاجرين، ولأسباب تاريخية، يقطنون أحياء معينة”.وأضاف التقرير أن هذه الاحتمالية قد تسفر عن عواقب سلبية على الأشخاص، الذين يعيشون في هذه المناطق، إذ يمكن في حالة رغبتهم في الحصول على قروض اعتبار الأمر ينم عن مخاطر مالية مع الاعتقاد السائد بأن المهاجرين قد لا يتمكنون من سداد ديونهم، فيما يُطلق عليه “التمييز الإحصائي السكاني”، الذي يجعل من أي شخص ينتمي إلى عرقية بعينها في دائرة الاشتباه.
الدعوة لإنشاء هيئة تحكيمية
وفي محاولة للحيلولة دون حدوث مثل هذه الحوادث، تأمل أتامان في إنشاء مكتب للتوفيق والتحكيم داخل الوكالة الاتحادية لمكافحة التمييز، مع الدعوة إلى شمول “القانون العام للمساواة في المعاملة” لإجراءات توفيق إلزامية.الجدير بالذكر أن القانون العام للمساواة في المعاملة يحظر التمييز سواء في الحصول على الوظائف وفي أماكن العمل وفي الأماكن العامة وحتى في طرق البحث عن مسكن في ألمانيا.وسلط تقرير الوكالة الاتحادية لمكافحة التمييز الضوء على خطورة الأمر، إذ ذكّر بأنه في الولايات المتحدة الأمريكية أدت الخوارزميات المبرمجة بشكل غير صحيح في البطاقات الائتمانية الخاصة بشركة آبل المعروفة باسم “آبل كارد” إلى التمييز بشكل منهجي ضد المرأة عند منح الائتمان.
ولم يتوقف الأمر على الولايات المتحدة إذ في أستراليا، اضطر مئات الآلاف إلى تسديد استحقاقات الرعاية الاجتماعيةالتي يحق لهم الحصول عليها بسبب خطأ في نظام الأتمتة في عمليات صنع القرار التي تعتمد على الذكاء الاصطناعي.وفي ضوء هذه المعطيات، خلص التقرير الذي عرضته أتامان إلى القول بأن “الرقمنة تعد المستقبل، لكن يجب ألا تصبح كابوسا. يجب أن يكون لدى الناس الثقة بأنهم لن يتعرضوا للتمييز من قبل الذكاء الاصطناعي وحتى في حالة حدوث ذلك، فإنه بمقدورهم الدفاع عن أنفسهم. لذا فإن هناك حاجة إلى الخروج بقواعد واضحة ومفهومة”.
رابط مختصر.. https://eocr.eu/?p=10832