تتداخل الخوارزميّات المتطوّرة في أيّامنا، في القرارات الطبيّة، وتوظيف المرشّحين للوظائف، والترجمة وغيرها. علينا فهم كيفيّة عملها حتى نتأكّد من عدم التمييز بحقّ المجموعات الضعيفة

في بداية حزيران 2022م، بدأت تظهر على شبكة الإنترنت المنتجات الّتي أنتجها المستخدمون الّذين لعبوا في موقع Dall-E2 المصغّر (الآن Craiyon). يتيح الموقع، المفتوح للاستخدام العام، الوصولَ إلى نسخة بسيطة من برنامج الذكاء الصناعيّ Dall-E2، وهو مُنشِئٌ للصور يعتمدُ على النصّ الّذي يُدخله المستخدمون. أثارت المنتجاتُ الرائعة، إلى جانب قدرة البرنامج على إنشاء صورة جديدة بسهولة في بضع دقائق، اهتمامًا كبيرًا على الفور. ظهر بسرعة كبيرة عددٌ لا يُحصى من النماذج المثيرة للإعجاب وحتّى الغريبة والمسليّة عبر الويب.

כך נראה כלב במסיבה לפי המחולל של Craiyon
هكذا يبدو "الكلب في الحفلة" وفقًا لمُولّد Craiyon

تلقّيتُ النماذج الأولى لنتائج البرنامج في مجموعة WhatsApp للأصدقاء، وهم أيضًا طلاب متحمّسون وفضوليّون، وبدأنا مشاركة الصور الّتي تمّ إنشاؤها بمساعدة البرنامج.

من خلال معاينة سريعة للنتائج، لا يبدو أنَّ الإصدار المصغّر من Dall-E2 ناجح في إنشاء وجوه واقعيّة، لكن للشخصيّات الّتي ينتجها خصائصُ مميّزة. بالنسبة لنصوص مثل "طالب/ة علوم حاسوب ناجح/ة" أو "شخص ذكيّ"، عادةً ما نحصل على ذكور ذوي بشرة فاتحة (وربطات عنق). بالنسبة للنصّ "طالب/ة مميّز/ة"، في الغالب نحصل على نساء ذوات بشرة فاتحة.

מימין לשמאל: סטודנט/ית מצליח/ה למדעי המחשב (a successful computer science student), אדם חכם (a smart person) וסטודנט/ית מצטיינ/ת ( an excellent student). תוצרים מהמחולל.
من اليمين إلى اليسار: طالب/ة علوم حاسوب ناجح/ة (a successful computer science student)، شخص ذكيّ (a smart person) وطالب/ة متميّز/ة (an excellent student) نتائج من المولّد.

 

قبل الصراخ بهلع وتقديم ادّعاءات صعبة ضدّ الخوارزميّة وحول التحيّز العنصريّ أو الجنسانيّ، من الواضح أنّه يجب فحص البيانات الإضافيّة والتحقّق منها إذا كان هناك تحيّزٌ أكبر بكثير من حيث المقدار. ثلاثة أمثلة لا تكفي لإثبات ادّعاء بشكل قاطع. لكن على موقع Craiyon الإلكترونيّ، تحت السؤال "ماذا عن القيود والتحيّزات؟" يبرز الادّعاء التالي: "على الرغم من القدرات الرائعة للنماذج لإنشاء صورة، إلا أنّها قد تزيد أو تُفاقم من حدّة التحيّزات الاجتماعيّة".

تنصّ وثيقة متابعة لتحليل النموذج على أنَّ الصور الّتي تمّ إنشاؤها قد تحوي قوالب نمطيّة مسيئة تجاه أجزاء من الناس، بل إنّه يُشار بشكل أكثر خاصّ إلى أنَّ الشخصيّات الّتي ينتجها البرنامج تميل إلى أن تكون ذات بشرة فاتحة، وأنَّ هناك نقصًا في تمثيل شخصيّات ذات بشرة داكنة. علاوةً على ذلك، قد تعكس الصور التفاوتات بين الشخصيّات ذات البشرة الفاتحة والشخصيّات ذات البشرة الداكنة، وتُصوّر الشخصيّات ذات البشرة الفاتحة على أنّها ذات مستوى أعلى.

في هذه الحالة، يُعَدّ استخدامًا بريئًا نسبةً للذكاء الصناعيّ، الّذي ينتج صورة مطابقة للنصّ. ماذا يحدث عندما تظهر تحيّزات مماثلة في الخوارزميّات الّتي تحدّد نتائجها مصير الآخرين؟ كيف يؤثّر ذلك في المجموعات السكانيّة المُمَثّلة بشكلٍ غير كافٍ؟ وما هي مسؤوليّة الناس القائمين على البرمجيّات؟

 على من ناديتَ "عنصريّ"؟

في سنة 2015م، اكتشفت شركة أمازون التجاريّة العملاقة أنَّ الخوارزميّة الّتي استخدمتها لتصنيف السِيَر الذاتيّة للموظَّفين المحتملين أعطت درجات منخفضة نسبييًّا للسِيَر الذاتيّة للسيّدات، بما معناه أنّه نشأ تفضيل للمرشَّحين الذكور. في مقال نُشِر سنة 2019م، أشار الباحثون إلى أنّه في خوارزميّة شائعة في نظام الرعاية الصحيّة الأمريكيّ، تمّ تصنيف المرضى السود في نفس مستوى المخاطر الصحيّة مثل المرضى البيض، على الرغم من أنّهم عانوا أكثر من الأمراض.

وجدت خوارزميّات تحليل الوجه الخاصّة في شركة IBM و Microsoft، الّتي تركّز على تصنيف صورة الوجه كذكر أو أنثى، أنّه تمّ تصنيف الرجال بدقّة أكبر من النساء، وتصنيف الأشخاص ذوي البشرة الفاتحة بشكل أكثر دقّة من ذوي البشرة الداكنة، وفي المقابل، كان أداء الخوارزميّة أسوأ عندما طُلب تصنيف صور النساء ذوات البشرة السمراء.

يتزايدُ استخدام خوارزميّات التعلّم الآليّ والذكاء الصناعيّ في مجالات متنوّعة. وتستخدم المزيد من المؤسّسات هذه الخوارزميّات بهدف تسيير النشاطات اليوميّة. في بعضها، يمكن أن يؤثّر قرار الخوارزميّة في حياة المستخدمين اليوميّة. 

רובוט יושב על ערמת ספרים וקורא | kirill_makarov, Shutterstock
تعليم البرمجيّة بواسطة الأمثلة، بحيث تتنبّأ بشكل صحيح بنتائج الأمثلة الجديدة. روبوت يجلس على كومة من الكتب ويقرأ | kirill_makarov, Shutterstock
 

تعليم الآلة

يُعدّ التعلّم الآليّ مفيدًا في المشكلات الّتي لا يمكن حلّها بواسطة معادلة بسيطة. على سبيل المثال، بدلاً من الصياغة الرياضيّة للتمييز بين ملامح وجه النساء والرجال، يتمّ تعليم الآلة التمييز بين المجموعات، على أمل أن تتمكّن من تحديد أجزاء الصورة بنفسها، بحيث تتمكّن من التعرّف على جنس الشخص الّذي يتمّ تصويره. يتمّ التعلّم بمساعدة التدريب على مجموعة من الأمثلة.

أثناء عمليّة التدريب، يتمّ تقديم العديد من الأمثلة للبرمجيّة، وهي تتعلّم ربط المُدخلات بالإجابة. عندما يتلقّى البرنامج صورة لامرأة ويحدّد أنّها صورة لرجل، أو العكس، فإنّه يتلقّى "غرامة"- على غرار الاِرْتِجَاع السلبيّ الّذي يتلقّاه الطلّاب على الإجابات الخاطئة. كلّما زاد عدد المرّات الّتي يرتكب فيها البرنامج الأخطاء، زادت الغرامة. نتيجة لذلك؛ يتعلّم البرنامج عادةً ربط الأمثلة الّتي يتلقّاها بالإجابة الّتي من شأنها تقليل الغرامة. والعقوبة المنخفضة في نهاية عمليّة التعلّم تعني أنَّ تنبّؤات البرنامج تتطابق مع الواقع في كثيرٍ من الحالات.

يُعتبر "التعميم" أحد الجوانب الرئيسة للتعلّم الآليّ. الفكرة المُوجِّهة في الموضوع هي أنّه إذا وَجد البرنامجُ في عمليّة التدريب الخاصّة به روابطَ وخصائصَ حقيقيّة بناءً على مجموعة الأمثلة القائمة، فسوف يعرفُ كيفيّة التعميم بناءً على الأمثلة الّتي تدرّب عليها، والتنبّؤ بالإجابة المناسبة حتّى عندما يُصادف مثالًا جديدًا.

من المهمّ إذًا السؤال عن الروابط والخصائص الّتي تعلّمتها البرمجيّة. عندما تركّز فقط على تقليل الغرامة، فإنّك تُخاطر بأن تتعلّم البرمجيّةُ بعضَ الروابط، ولكنها روابط لا يمكن تعميمها على أمثلة جديدة. توضّح قصّة هانس الذكيّ هذا التأثير جيّدًا.

في برلين في أواخر القرن التاسع عشر الميلاديّ، برز الحصان هانس الذكيّ في عروض الشوارع. درّبه مالكُه على الإجابة عن الأسئلة بمساعدة ضرب الحوافر، ونُسِبَت لهانس قدراتٌ فكريّة بعيدة المدى: يعرف الحصان ما هو اليوم والساعة، ويمكنه القراءة والتهجئة، وحتّى حلّ التمارين الحسابيّة. عندما سُئِل هانس عن حاصل طرح ثلاثة من خمسة، على سبيل المثال، قام بخبط قدمه مرّتين.

بعد أن أثار عرضُ هانس المبهر إعجابَ المشاهدين بشكلٍ كبير، اتّضح بعد تدقيقٍ عميق، أنّه أجاب بشكل صحيح فقط عندما كان السائلون يعرفون الإجابة بأنفسهم. لقد تعلّم هانس بالفعل، ولكن ليس الشيء الصحيح تحديدًا: لقد تعلّم ربط لغة الجسد بالإجابة المطلوبة. وهذا يعني، عن غير قصد، أنَّ السائلين أنفسهم وجّهوا هانس إلى العدد المطلوب من الخبطات، وأنّه لم يتعلّم حقًّا القواعد الحسابيّة الّتي تمكّنه من التعميم.

أحد التحدّيات الرئيسة في التعلّم الآليّ هو أنّه من الصعب جدًّا تصميم غرامة بحيث تُوجّه البرنامج لتعلّم الروابط الضروريّة حقًّا لحلّ المشكلة، وليس التركيز على القواعد غير المُعمّمة المشابهة لحالة هانس الذكيّ. فنحن نودّ أن نوجّه البرنامج لإيجاد وتحديد ملامح الوجه الّتي تميّز الرجال والنساء، ولكن ليس من السهل توجيه البرنامج للعثور على ميزات يصعب علينا تعريفها بأنفسنا.

للتأكّد من أنّ البرنامج يتعلّم التعميم، يتمّ عادةً تقسيم مجموعة الأمثلة في قاعدة البيانات إلى جزءين. حيث تُستخدَم بعض الأمثلة للتدريب والبعض الآخر، وتُسمّى أمثلة الاختبار، يتمّ التحقّق بواسطتها من نجاح التدريب. يتعلّم البرنامج خلال مرحلة التدريبِ الروابطَ من خلال مجموعة أمثلة التدريب، ويهدف إلى تقليل الغرامة التي تُفرض عليه على الخطأ فيها. بعد أن يتعلّم البرنامج من أمثلة التدريب، يعرضون عليه أمثلة الاختبار ويتحقّقون من العقوبة المفروضة عليه.

الفكرة هنا هي أنّه إذا كان البرنامج قادرًا على إيجاد روابط عامّة تصف انتظامًا حقيقيًّا، فإنَّ العقوبة على أمثلة التدريب ستكون مماثلةً للعقوبة على أمثلة الاختبار. إذا كانت العقوبات المفروضة على أمثلة التدريب مختلفة تمامًا عن العقوبة المفروضة على أمثلة الاختبار، فهذه إشارة حمراء. يمكن أن نستنتج منها، أنَّ البرمجيّة تعلّمت روابط ذات صلة بالأمثلة الّتي تدرّبت عليها، ولكن ليست روابط أكثر عامّة.

הסוס אכן למד, אך לא באמת את כללי החשבון שיאפשרו לו להכליל. וילהלם פון אוסטן והנס החכם, 1908 | מקור: ויקיפדיה, נחלת הכלל
لقد تعلّم الحصان بالفعل، لكن لم يتعلّم القواعد الحسابيّة الّتي تسمح له بالتعميم. فيلهلم فون أوستين وهانس الذكيّ، 1908م | المصدر: ويكيبيديا، المجال العام
 

تذنيب الحاسوب

حتّى إذا تعلّمت البرمجيّة التنبّؤ بالإجابات بطريقة تُعمّم جيّدًا أمثلة الاختبار، فهذا لا يكفي لضمان أنّه سيؤدّي أداءً جيّدًا عندما يستخدمها المستخدمون فعليًّا ويدخلون مُدخلاتهم الخاصّة.

في مرحلتَي التدريب والاختبار، تمّ أخذ الأمثلة من قواعد بياناتٍ معيّنة. هناك قواعد بيانات عامّة- للصور، والنصوص، ومقاطع صوتيّة ومقاطع فيديو- تحوي ملايين الأمثلة المُفَهرَسة مسبقًا، لمثل هذه الأهداف فقط. ومع ذلك، فإنَّ العديد من هذه البيانات ليست متنوّعة بما فيه الكفاية. قد يعاني بعض السكان من نقص التمثيل، ما قد يُضعف قابليّة تعميم البرمجيّة على المستخدمين. إضافةً إلى ذلك، حتّى إذا كانت القاعدة متنوّعة للغاية، فقد تكون الأمثلة الّتي جاءت من نفس القاعدة أكثر تشابهًا مع بعضها مقارنةً بعنصرٍ جديد قادم من مصدر آخر، قيد الاستخدام الجاري.

يُحدّد الباحثون في عمليّات التعلّم العمليّات الّتي يسمّونها "التعلّم المختصر". مبدأ الحدّ الأدنى من الجهد هو مبدأ ليس من الصعب التعوّد عليه: فأنتَ تتعلّم ما هو سهلٌ للتعلّم. على سبيل المثال، إذا ظهرت صورة لبقرة، فإنها عادةً ما تكون على خلفيّة من العشب أو منظر طبيعيّ للجبال، ومن المحتمل أن يتعلّم البرنامج ربط صورة "البقرة" بخلفيّات العشب الأخضر أو ​​الجبال. في مثل هذه الحالة، عندما تصل صورة لبقرة على خلفيّة من الرمال والبحر، سيجد البرنامج صعوبة في إدراك أنَّ الموجود في الصورة هو بقرة، لأن البقرة قرب البحر حالة نادرة نسبيًّا.

عند تقييم المخاطر الطبيّة الّتي يعاني منها المريض من أجل مساعدته، وُجِد أنَّ المرضى من خلفيّاتٍ مختلفة، الّذين عانوا من حالات طبيّة أخرى، صُنِّفوا على نفس المستوى من المخاطر. اتّضح أنَّ البرنامج أخذ في الاعتبار النفقات الماليّة للمرضى على صحّتهم. أي أنَّ الوضع الاجتماعيّ والاقتصاديّ، الّذي يرتبط في بعض الحالات بالأصل والعِرق، أثّر في اختيار النموذج لمن يجب أن يتعالج أوّلاً.

قد تتضرّر أيّة مجموعة غير مُمَثّلة بشكلٍ كافٍ في قاعدة البيانات بشكل خاصّ، بسبب الفشل في القدرة على التعميم. في حالة السيرة الذاتيّة لأمازون، الّتي ظلمَت خوارزميّتها المتقدّمين من الإناث باستمرار، تمّ تدريب البرنامج على السِيَر الذاتيّة للموظّفين الّذين عملوا بالفعل في أمازون على مدار عقدٍ من الزمان. إنّها مجموعة تدريب منطقيّة، نظرًا لأنَّ الموظّفين الّذين جنّدتهم أمازون حتّى الآن ربّما يستوفون معاييرها.

ومع ذلك، في ذلك الوقت كان عدد الرجال العاملين في أمازون أكبر بكثير من النساء. على الرغم من إزالة جنس المرشّحين من السِيَر الذاتيّة قبل أن تصنّفها البرمجيّة، إلّا أنّها تعلّمت خفض الربط بين العلامات النسائيّة في السيرة الذاتيّة، مثل التعلّم في كليّات النساء أو العضويّة في نادي الشطرنج النسائيّ، وبين التوظيف في أمازون.

لا يكفي السعي لتحقيق أداء دقيق للخوارزميّة في مرحلة التعلّم. فمن أجل منع التمييز المنهجيّ، تحتاج إلى التأكّد من أنَّ النموذج عادل.

גם פרות שמעו על פתיחת עונת הרחצה פרה בחוף הים | Tore65, Shutterstock
بقرة سمعت عن افتتاح موسم السباحة، لكن ستجد البرمجيّة صعوبة في التعرّف عليها. بقرة على الشاطئ | Tore65, Shutterstock

 

الأمر يتعلّق بالتعريف

في هذه المرحلة تواجهنا عقبة أخرى. كيف نُحدّد القرار العادل للخوارزميّة؟

في مقال نُشِر سنة 2016م في مجلّة California Law Review، قسّم المؤلّفون العمليّة إلى قسمين. تُعتبَر المعاملة مختلفة وغير عادلة إذا كانت الخوارزميّة تأخذ في الاعتبار بشكل مباشر أو غير مباشر سمة مؤثّرة، مثل الجنس أو العِرق أو الأصل، في عمليّة صنع القرار. يُعتبَر القرار مختلفًا وغير عادل إذا كان يؤثّر بشكل غير متناسب في مجموعة معيّنة. في مؤتمر الإنترنت العالميّ في سنة 2017م، تمّ تعريفُ التعامل المختلف غير العادل فيما يتعلّق بسِمَة حسّاسة بأنّها حالةٌ تتغيّر فيها درجةُ خطأ الخوارزميّة عندما يُطلب منها فحص المجموعات الّتي تختلف عن بعضها البعض في هذه السِمَة - على سبيل المثال، عندما يختلف معدّل الخطأ للرجال مقارنةً بمعدّل الخطأ للنساء.

في سنة 2019م، نُشِر تقرير من قِبَل لجنة فرعيّة لمشروع أخلاقيّات الذكاء الصناعيّ وتنظيمه في البلاد. أشار مؤلّفوه بحقّ إلى أنّه عندما يتمّ تطبيق تكنولوجيا الذكاء الصناعيّ في مجال معيّن، على سبيل المثال في علاج الضمان الاجتماعيّ، يجب استشارة الخبراء في الموضوع: الإخصائيّين الاجتماعيّين، وعلماء الاجتماع، وعلماء علم الإنسان وما إلى ذلك، من أجل تحديد نقاط الضعف الخاصّة في هذا المجال مسبقًا.

ليس ثمّ تعريفٌ مُوحّد للعدالة. في الطبّ، على سبيل المثال، من المهمّ حصول كلّ من يحتاج، على دواء مُنقذ للحياة. هذا أكثر أهميّة من منع حالةٍ يتلقّى فيها شخصٌ لا يحتاج إلى الدواء، دواءً عن طريق الخطأ. أي أنَّ تصميم الخوارزميّة يجب أن يركّز على زيادة نسبة قراراتها الإيجابيّة المبرّرة (الإيجابيّ = إعطاء الدواء) وتقليل قراراتها السلبيّة غير الصحيحة. في المقابل، في حالة فصل الموظّفين، من المهمّ أن تكون عمليّة الفصل عادلة، بدلًا من فصل جميع العمّال الّذين يجب فصلهم. في مثل هذه الحالة، من الأفضل أن يركّز تصميم الخوارزميّة على تقليل معدّل القرارات الإيجابيّة الخاطئة (الإيجابيّة = إقالة الموظّف). للتأكّد من عدالة قرار الذكاء الصناعيّ، يجب فحص كلّ حالة على حدة.

الكثير من نقاط الضعف

إنَّ التمثيل الناقص في قواعد البيانات هو جزءٌ صغير من المشكلة. وفقًا لسارة هوكر (Hooker)، الباحثة السابقة في مجموعة أبحاث الذكاء الصناعيّ في جوجل (Google) فقد حان الوقت لتجاوز الادّعاء "التحيّز الخوارزميّ مشكلة قاعدة البيانات". وتشير إلى مجموعةٍ من الدلائل على أنّه حتّى الاختيارات في تصميم الخوارزميّة تؤثّر في سلوكيّاتها غير المرغوب فيها.

تُظهر الأبحاث أنَّ الآلات تواجه أيضًا صعوبة. لتحقيق دقّة عالية في الأمثلة الشائعة، يكفي رؤية بعض هذه الأمثلة أثناء التعلّم. من ناحية أخرى، في الاستثناءات، هناك حاجة إلى مزيد من الأمثلة لزيادة مستوى دقّة التنبّؤ. يبدو أنَّ الأمثلة ذات القوانين واسعة النطاق في قاعدة البيانات يتمّ تعلّمها بسرعة وفي بداية عمليّة التعلّم، بينما تعلّم الاستثناءات يكون ببطء وبتأخير لأنّها تُكتَسب من خلال الحفظ ولا تنبع من القوانين القائمة. ولذلك، فإنَّ مدّة تعلّمها لها تأثيرٌ أيضًا في الإشارة إلى أمثلة غير عاديّة في قواعد البيانات، وبالتالي أيضًا في الاستثناءات.

في التعلّم الآليّ، يتمّ استخدام "الشبكات العصبيّة"، الّتي تحاكي بنية الخلايا العصبيّة، بشكل متكرّر. وهذه الشبكات عبارة عن وحدات معلومات عديدة مرتبطة فيما بينها بواسطة طبقات من الأربطة الّتي تُنشئ بنية شبكة. مع تطوير قدرات الحاسوب الّذي يسمح بتخزين كميّات متزايدة من المعلومات، نمت الشبكات المستخدمة في الذكاء الصناعيّ بشكل أكبر، ما يعني إضافة المزيد من الخلايا العصبيّة إلى عمليّات التعلّم. أظهرت الدراسات، أنّه في نهاية عمليّة التدريب من الممكن التخلّص من العديد من الخلايا العصبيّة دون الإضرار بشكل كبير بالنتائج العامّة للخوارزميّة. هذه التقنيّة تُسمّى "التقليم" (pruning).

يساعد "التقليم" في تقصير وقت حساب النتائج الجديدة، لذلك فهو يُستَخدَم على نطاق واسع. ومع ذلك، أظهرت هوكر في دراساتها أنّه على الرغم من أنَّ النتيجة الإجماليّة لم تتأثّر بشكل كبير، فإنَّ الأجزاء الأقلّ تمثيلًا في قاعدة البيانات تتلقّى معظم الضرر. أي أنَّ تقنيّات التقليم تؤدّي إلى تفاقم التحيّزات الموجودة مسبقًا في قواعد البيانات.

كلّما كانت الخوارزميّات التلقائيّة مُدمجة في الأنظمة الّتي لها تأثير أكثر مباشرة في حياة الأفراد، كان من المهمّ عدم التركيز فقط على النتيجة النهائيّة الّتي يُنتجها الذكاء الصناعيّ، ولكن أيضًا على عمليّة التعلّم الخاصّة به. من الضروريّ أيضًا فهم عمليّة التعلّم نفسها: ما هي المعلومات الّتي يأخذها البرنامج في الاعتبار وما هي العلاقات والقواعد الّتي يتعلّمها. يؤكّد باحثو التعلّم الآليّ أنَّ عمليّة التعلّم يجب أن تكون قابلةً للتفسير، وعادلةً ومستقرّة، بحيث لا تؤدّي التغييرات الطفيفة في عمليّات التعلّم إلى انحراف النتائج إلى أقصى الحدود.

تؤكّد سيفان تامير، الباحثة في المعهد الإسرائيليّ لسياسة التكنولوجيا، على أهميّة القابليّة للتفسير (Explainability) - قدرتنا كبشر على فهم العمليّة- عند استخدام الخوارزميّات لاتّخاذ قراراتٍ تهمّ الجمهور بأكمله. بالإضافة إلى أهميّة الأمر بالنسبة لمطوّري البرمجيّات، فإنَّ المؤسّسات الّتي تُطبّق مثل هذه التقنيّات تتحمّل مسؤوليّة تجاه الأشخاص المتأثّرين بالقرار. تلتزم المؤسّسات، بصفتها تلك الّتي تدمج منتجًا تقنيًّا، بفهم الاعتبارات الكامنة وراء اتّخاذ القرار، حتّى تتمكّن من عكسه على الآخرين. الطرف الثالث في القصّة هم المتأثّرون بالقرار. عمليّة صنع القرار الشفّافة والتفسيريّة هي فقط من يمكنها أن تسمح للمستخدمين بتحدّي الظلم، في حال وُجِد.

מדענים מרכיבים ראש אדם | איור: vectorpouch, Shutterstock
تشير الدراسات إلى أنّه في التعلّم الآليّ، يتمّ تعلّم الاستثناءات بشكل أبطأ من تعلّم الأمثلة ذات القواعد. علماء يركّبون رأسًا! | الصورة: vectorpouch ، Shutterstock
 

كيف نعالج المشكلة؟

نظرًا لأهميّة الموضوع، في الحالات الّتي يتمّ فيها اكتشاف تحيّزات في النتائج الّتي تنتجها الخوارزميّة؛ يتعيّن على الهيئات الّتي تستخدمها الاستجابة بسرعة. ادّعت أمازون أنّ خوارزميّة التصنيف للمتقدّمين قد توقَّف استعمالُها. في سنة 2015م، تمّ تصنيف صور لشخصَين ذوَي بشرة سوداء في موقع جوجل تحت عنوان "الغوريلا". حدثت حالة مماثلة في موقع فيسبوك في سنة 2020م. بعد مرور أكثر من عامَين، كان أحد حلول "صور جوجل" هو إزالة الكلمات "غوريلا" و"شمبانزي" و"قرد" من العلامات الممكنة. هذه خطوات لا تحلّ المشكلة، بل تكنسها تحت البساط.

من ناحية أخرى، تحاول خدمة "ترجمة جوجل" معالجة مشكلة التحيّز الجنسانيّ الموجود عندهم. عندما كانت الترجمة الآليّة للشركة في مهدها، أدرك المستخدمون أنَّ الجمل الإنجليزيّة الّتي لم يكن لها جنس نحويّ محدّد، مثل "I am washing dishes" أو "I am driving a car"، تمّت ترجمتها إلى مجموعة متنوّعة من اللغات إلى "أنا أغسل الصحون" و "أنا أقود السيّارة"، بطريقة تعكس التحيّز الجنسانيّ. منذ ذلك الحين، بُذلت جهود لتحييد مثل هذه التحيّزات بين الجنسين بمساعدة التغييرات الأساسيّة في الخوارزميّة. تُقدّم جوجل حلولًا مثل ترجمتين لكلا الجنسين عند الترجمة من لغةٍ لا تحوي فيها الكلماتُ ذاتُ الصلة جنسًا نحويًّا إلى اللغة المستخدمة فيها.

أما بالنسبة للبلاد، فيتمّ بذل جهود لتحديد الخطوط العريضة الّتي ستوجّه نشاط الذكاء الصناعيّ. في سنة 2021م، انضمّت البلاد إلى المنتدى الدوليّ لبحوث وتطوير الذكاء الصناعيّ (GPAI) الّذي يتناول، من بين الأمور، تعريف السياسة العالميّة في هذا المجال.

لا شكّ  أنّ هناك فائدة كبيرة من وراء استخدام الذكاء الصناعيّ، لكن من المهمّ فهم كيف يعمل، وماذا يتعلّم ولماذا؟ تُعدّ دراسة هذه العمليّات مفتاحًا رئيسًا في تطوير الذكاء الصناعيّ للاستخدام الآمن، العادل والمفيد.
تمت الترجمة بتصرّف

 

0 تعليقات