يقول الإسكندرية Ocasio-Cortez أن الخوارزميات يمكن أن تكون عنصرية. هنا لماذا هي على حق.

Pin
Send
Share
Send

في الأسبوع الماضي ، تصدرت النائبة الأمريكية المنتخبة حديثًا الإسكندرية أوكاسيو-كورتيز عناوين الصحف عندما قالت ، كجزء من حدث MLK Now السنوي الرابع ، أن تقنيات التعرف على الوجه والخوارزميات "لديها دائمًا هذه الفوارق العرقية التي تترجم ، لأن الخوارزميات لا تزال مصنوعة من قبل البشر ، ولا تزال هذه الخوارزميات مرتبطة بالافتراضات الإنسانية الأساسية. إنها مؤتمتة فقط. وافتراضات آلية - إذا لم تقم بإصلاح التحيز ، فأنت تعمل تلقائيًا على التحيز. "

هل يعني ذلك أن الخوارزميات التي تستند نظريًا إلى الحقائق الموضوعية للرياضيات يمكن أن تكون "عنصرية"؟ وإذا كان الأمر كذلك ، فما الذي يمكن فعله لإزالة هذا التحيز؟

اتضح أن الناتج من الخوارزميات يمكن أن يؤدي بالفعل إلى نتائج متحيزة. يقول علماء البيانات أن برامج الكمبيوتر والشبكات العصبية وخوارزميات التعلم الآلي والذكاء الاصطناعي تعمل لأنها تتعلم كيفية التصرف من البيانات التي يتم تقديمها لها. يتم كتابة البرامج من قبل البشر ، الذين لديهم تحيز ، ويتم أيضًا إنشاء بيانات التدريب من قبل البشر الذين لديهم تحيز.

توضح مرحلتا التعلم الآلي كيف يمكن لهذا التحيز أن يتسلل إلى عملية تبدو آلية. في المرحلة الأولى ، في مرحلة التدريب ، تتعلم الخوارزمية بناءً على مجموعة من البيانات أو على قواعد أو قيود معينة. المرحلة الثانية هي مرحلة الاستدلال ، حيث تطبق الخوارزمية ما تعلمته في الممارسة. تكشف المرحلة الثانية عن تحيزات الخوارزمية. على سبيل المثال ، إذا تم تدريب خوارزمية على صور للنساء اللواتي لديهن شعر طويل فقط ، فسوف تعتقد أن أي شخص لديه شعر قصير هو رجل.

تعرضت جوجل لإطلاق نار سيئ السمعة في عام 2015 عندما وصفت صور جوجل الناس السود بأنهم غوريلا ، على الأرجح لأن هؤلاء كانوا الكائنات الوحيدة ذات البشرة الداكنة في مجموعة التدريب.

ويمكن أن يزحف التحيز من خلال العديد من السبل. وقالت صوفي سيرسي ، عالمة بيانات بارزة في معسكر تدريب علوم البيانات-ميتيس ، لـ Live Science: "من الأخطاء الشائعة تدريب خوارزمية لإجراء تنبؤات تستند إلى قرارات سابقة من البشر المتحيزين". "إذا قمت بعمل خوارزمية لأتمتة القرارات التي سبق أن اتخذتها مجموعة من ضباط القروض ، فقد أسلك الطريق السهل وأقوم بتدريب الخوارزمية على القرارات السابقة من ضباط القروض هؤلاء. ولكن بعد ذلك ، بالطبع ، إذا كان هؤلاء الضباط منحازين ، ثم الخوارزمية التي أبنيها ستستمر في هذا التحيز ".

استشهد سيرسي بمثال كومباس ، وهي أداة تنبؤية مستخدمة عبر نظام العدالة الجنائية الأمريكي لإصدار الأحكام ، والتي تحاول التنبؤ بمكان وقوع الجريمة. قامت ProPublica بإجراء تحليل على COMPAS ووجدت أنه بعد السيطرة على التفسيرات الإحصائية الأخرى ، قامت الأداة بإفراط في تقدير خطر عودة المتهمين السود وتقليل خطر المدعى عليهم البيض باستمرار.

للمساعدة في مكافحة التحيزات الخوارزمية ، أخبر سيرسي Live Science ، أن المهندسين وعلماء البيانات يجب أن يبنوا مجموعات بيانات أكثر تنوعًا للمشكلات الجديدة ، بالإضافة إلى محاولة فهم وتخفيف التحيز المدمج في مجموعات البيانات الحالية.

أولا وقبل كل شيء ، قال إيرا كوهين ، عالم البيانات في شركة التحليلات التنبؤية Anodot ، يجب أن يكون لدى المهندسين مجموعة تدريبية ذات تمثيل موحد نسبيًا لجميع أنواع السكان إذا كانوا يقومون بتدريب خوارزمية لتحديد السمات العرقية أو الجنسانية. وقال كوهين لـ Live Science: "من المهم تمثيل أمثلة كافية من كل مجموعة سكانية ، حتى إذا كانوا أقلية في إجمالي السكان الذين يتم فحصهم". أخيرًا ، يوصي كوهين بالتحقق من التحيزات في مجموعة اختبار تضم أشخاصًا من جميع هذه المجموعات. وقال كوهين لـ LiveScience: "إذا كانت الدقة بالنسبة لسباق معين أقل إحصائيًا بشكل ملحوظ من الفئات الأخرى ، فقد تكون الخوارزمية متحيزة ، وسأقيم بيانات التدريب التي تم استخدامها لها". وأضاف كوهين ، على سبيل المثال ، إذا تمكنت الخوارزمية من تحديد 900 وجهًا من أصل 1000 وجه أبيض بشكل صحيح ، لكنها اكتشفت بشكل صحيح 600 فقط من أصل 1000 وجه آسيوي ، فقد يكون لدى الخوارزمية انحياز "ضد" الآسيويين.

يمكن أن تكون إزالة التحيز أمرًا صعبًا للغاية بالنسبة للذكاء الاصطناعي.

حتى جوجل ، التي تعتبر رائدة في مجال الذكاء الاصطناعي التجاري ، لم تتمكن على ما يبدو من التوصل إلى حل شامل لمشكلة الغوريلا من عام 2015. وجدت Wired أنه بدلاً من إيجاد طريقة لخوارزمياتها للتمييز بين الأشخاص ذوي الألوان والغوريلا ، قامت Google ببساطة بحظر خوارزميات التعرف على الصور من تحديد الغوريلا على الإطلاق.

مثال Google هو تذكير جيد بأن تدريب برامج الذكاء الاصطناعي يمكن أن يكون تدريبًا صعبًا ، خاصة عندما لا يتم اختبار البرنامج أو تدريبه من قبل مجموعة تمثيلية ومتنوعة من الأشخاص.

Pin
Send
Share
Send