المفوض السامي لحقوق الإنسان في الأمم المتحدة يحث على وقف استخدام الذكاء الاصطناعي الذي يهدد بانتهاكات حقوق الإنسان | أخبار الأعمال والاقتصاد 📰

قال رئيس حقوق الإنسان في الأمم المتحدة إن أنظمة الذكاء الاصطناعي تُستخدم لتحديد من يحصل على الخدمات العامة وتحديد من لديه فرصة للتعيين في وظيفة ، محذرًا من أن البيانات التي تم جمعها يمكن أن تتعرض للخطر ، وقد تكون قديمة وحتى تمييزية.

دعت مفوضة الأمم المتحدة السامية لحقوق الإنسان ميشيل باشليت يوم الأربعاء إلى وقف بيع واستخدام أنظمة الذكاء الاصطناعي التي تهدد حقوق الإنسان حتى يتم وضع ضمانات كافية لضمان عدم إساءة استخدام التكنولوجيا.

قالت باتشيليت: “لا يمكننا الاستمرار في لعب اللحاق بالذكاء الاصطناعي – السماح باستخدامه بحدود أو رقابة محدودة أو بدون حدود ، والتعامل مع عواقب حقوق الإنسان التي لا مفر منها تقريبًا بعد وقوعها”. خبر صحفى.

أصدر مكتب الأمم المتحدة لحقوق الإنسان أ أبلغ عن حذر يوم الأربعاء من مخاطر تقنيات الذكاء الاصطناعي ، وأكد أنه في حين أن الذكاء الاصطناعي يمكن أن يعمل كقوة للخير ، إلا أنه يمكن أن يتسبب أيضًا في آثار كارثية إذا تم استخدامه بشكل غير مسؤول.

“يعد تعقيد بيئة البيانات والخوارزميات والنماذج الكامنة وراء تطوير أنظمة الذكاء الاصطناعي وتشغيلها ، فضلاً عن السرية المتعمدة للجهات الحكومية والخاصة من العوامل التي تقوض الطرق الهادفة للجمهور لفهم آثار أنظمة الذكاء الاصطناعي على حقوق الإنسان والمجتمع “، يذكر التقرير.

شددت باتشيليت ، رئيسة قسم حقوق الإنسان في الأمم المتحدة ، على وجوب حظر تطبيقات الذكاء الاصطناعي التي لا تتوافق مع القانون الدولي لحقوق الإنسان.

“قوة الذكاء الاصطناعي في خدمة الناس لا يمكن إنكارها ، وكذلك قدرة الذكاء الاصطناعي على تغذية انتهاكات حقوق الإنسان على نطاق هائل دون أي رؤية تقريبًا. وشددت باتشيليت على ضرورة اتخاذ إجراءات الآن لوضع حواجز حماية حقوق الإنسان على استخدام الذكاء الاصطناعي لصالحنا جميعًا.

إن قدرات الذكاء الاصطناعي على إجراء التنميط وأتمتة عملية صنع القرار – بالإضافة إلى استخداماته الأخرى – تهدد عدد لا يحصى من حقوق الإنسان. وحذر مكتب الأمم المتحدة لحقوق الإنسان من أن ذلك يمكن أن يؤثر على “الحق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير”.

قال المفوض السامي: “تُستخدم أنظمة الذكاء الاصطناعي لتحديد من يحصل على الخدمات العامة ، وتحديد من لديه فرصة للتعيين في وظيفة ، وبالطبع تؤثر على المعلومات التي يراها الأشخاص ويمكنهم مشاركتها عبر الإنترنت”.

يعرب التقرير عن قلقه العميق من اعتماد بعض الدول والقطاع الخاص لتطبيقات الذكاء الاصطناعي دون دراسة المخاطر التي لا تعد ولا تحصى للتكنولوجيا.

قال مكتب الأمم المتحدة إنه كانت هناك بالفعل بعض الأخطاء الفادحة ، مشيرًا إلى حالات حرم فيها الأفراد من مزايا الضمان الاجتماعي أو تم القبض عليهم بسبب خلل في التعرف على الوجه.

غالبًا ما تجمع أنظمة الذكاء الاصطناعي البيانات وتشاركها وتدمجها وتحللها بطرق غير شفافة. يمكن أن تكون المعلومات التي يجمعها الذكاء الاصطناعي عرضة للخطر ، وقد تكون قديمة وحتى تمييزية.

قالت باتشيليت: “إن خطر التمييز المرتبط بالقرارات التي يقودها الذكاء الاصطناعي – القرارات التي يمكن أن تغير أو تحدد أو تلحق الضرر بحياة البشر – أمر حقيقي للغاية”. “هذا هو السبب في الحاجة إلى إجراء تقييم منهجي ورصد لتأثيرات أنظمة الذكاء الاصطناعي لتحديد مخاطر حقوق الإنسان والتخفيف منها.”

Leave a Reply

Your email address will not be published. Required fields are marked *