أخبار التقنية

التنوع في مجال التكنولوجيا 2024: التعاون أمر حيوي لتقدم DEI


إن عصر الذكاء الاصطناعي (AI) يغير مشهد تكنولوجيا المعلومات، ولكن مع أزمة التنوع المستمرة في قطاع التكنولوجياويبقى أن نرى ما إذا كان التطور السريع لهذه التقنيات سيساعد حياتنا أم سيعيقها في النهاية.

وفي حديثه في حدث Computer Weekly السنوي وHarvey Nash للتنوع في التكنولوجيا، سلط بيف وايت، الرئيس التنفيذي لشركة Nash Squared، الشركة الأم لهارفي ناش، الضوء على أهمية خلق فرص للمجموعات الممثلة تمثيلاً ناقصًا للانضمام إلى قطاع التكنولوجيا إذا أردنا أن نجعل الصناعة أكثر واقعية. مكان متنوع.

وأعرب وايت عن أسفه لمدى بطء التحول عندما يتعلق الأمر بالتنوع في التكنولوجيا، وحث العاملين في القطاع على أن يكونوا استباقيين في ضمان أن القوى العاملة في مجال التكنولوجيا تعكس مستخدمي التكنولوجيا.

“يقع على عاتقنا جميعًا – وليس فقط مجتمع الموارد البشرية، وليس فقط مدراء تكنولوجيا المعلومات، والرؤساء التنفيذيين للبيانات، والرؤساء التنفيذيين – إجراء التغيير. قالت: “إن الأمر يقع على عاتقنا جميعًا”.

“في كل مرة نفكر في توظيف أو ترقية أو تشجيع شخص ما على الارتقاء وتمثيل قسم ما، نحتاج إلى التفكير في كيفية القيام بذلك ومنح شخص ما فرصة للوقوف والتألق. علينا أن نفعل ذلك كل يوم، في كل ما نقوم به، وإلا فلن يتغير شيء”.

مع التطور السريع للتكنولوجيا مثل الذكاء الاصطناعي (AI)، الذكاء الاصطناعي التوليدي (GenAI) والتعلم الآلي، لم يكن هذا الشعور أكثر أهمية من أي وقت مضى.

أ تقرير من ناش سكويرد وجدت أن 75% من العمال يستخدمون GenAI بالفعل في عملهم. ومع زيادة هذا الرقم، سيصبح من المهم أكثر من أي وقت مضى التأكد من أن الأشخاص الذين يطورون هذه التقنيات يعكسون الأشخاص الذين يستخدمونها.

يقع على عاتقنا جميعًا – وليس فقط مجتمع الموارد البشرية، وليس فقط مدراء تكنولوجيا المعلومات، والرؤساء التنفيذيين للبيانات، والرؤساء التنفيذيين – إحداث التغيير

بيف وايت، ناش تربيع

وكما أشار وايت، إذا كانت الفرق التي تعمل على تطوير هذه الأدوات لا تمثل بشكل كامل أولئك الذين يستخدمونها، فكيف نضمن أنها تخدم غرضهم؟

ولكن بدلاً من تكثيف الجهود من أجل التنوع، تقوم الشركات بإعادة الاتصال بمبادرات التنوع والإنصاف والشمول (DEI). حيث يواجهون تخفيضات في الميزانية ومخاوف من رد فعل عنيف بسبب اتباع النهج الخاطئ.

وهذا يرسم صورة قاتمة لمستقبل تطوير الذكاء الاصطناعي، حيث تسببت الفرق غير المتوازنة وعدم مراعاة المستخدمين في حدوث مشكلات بالفعل.

فقط لأنك تستطيع، لا يعني أنه ينبغي عليك ذلك

في حين أن اعتماد الذكاء الاصطناعي يتزايد بسرعة، فإن تطوير تكنولوجيا الذكاء الاصطناعي ليس بالأمر الجديد.

قالت ماريا أكسنتي، رئيسة السياسة العامة والأخلاقيات في مجال الذكاء الاصطناعي في شركة برايس ووترهاوس كوبرز، إن تطوير التكنولوجيا يعتمد في كثير من الأحيان على “لأننا نستطيع” دون النظر في “التأثير على المستخدمين ومن يحتاج إلى المشاركة في المحادثة حول التصميم”.

إن دورها كعالمة في أخلاقيات التكنولوجيا جعلها تفكر في هذه القضايا بالضبط – ما هو الغرض الذي ستخدمه التكنولوجيا، ومن تستخدمه التكنولوجيا، ومن يجب أن يشارك في بنائها.

وأوضحت: “أخلاقيات الذكاء الاصطناعي هي نظام يهتم بخلق رؤية لحياة جيدة مع الذكاء الاصطناعي، مهما كانت الحياة الجيدة مع الذكاء الاصطناعي”.

إلى جانب تاريخ التكنولوجيا التي تم تطويرها بشكل متحيز، من أحزمة الأمان إلى أجهزة تتبع الدورة الشهرية، سلطت Axente الضوء على النساء اللاتي يناضلن من أجل جعل تقنيات مثل الذكاء الاصطناعي أخلاقية ومفيدة وعادلة.

قد يستغرق الأمر الكثير من الوقت والجهد والأدلة لإقناع بعض أولئك الذين يقومون بتطوير التقنيات بأن ما يقومون بإنشائه سيكون له تأثير مباشر على حياة الناس، وأنه في بعض الحالات سيكون هذا التأثير سلبيًا دون وجود أفضل الممارسات الصحيحة. .

وقال أكسينتي: “لقد تعلمنا تدريجياً أن التكنولوجيا تلحق الضرر بالناس بشكل ملموس”.

هناك عدد من الطرق التي أدى بها تحيز تطوير الذكاء الاصطناعي والتعلم الآلي ضد النساء والمجموعات الأخرى الممثلة تمثيلا ناقصا. أعطت بيكي تايلور، المؤسس المشارك لشركة Tech Returners، مثالاً لشركة تقنية بارزة نفذت نموذج التعلم الآلي للذكاء الاصطناعي لفحص المتقدمين للوظائف. أوضحت تايلور كيف أن فريق البرمجيات الذي يهيمن عليه الذكور والذي قام ببنائه أدى إلى تحيز البرنامج ضد المتقدمات من الإناث.

وقال تايلور إنه على الرغم من تحديد هذه المشكلة وتعديلها بسرعة، فإن هذا “يظهر أهمية الإنسان في هذه العملية”.

“على الرغم من أنه يسمى الذكاء الاصطناعي، إلا أنه من صنع الناس، وبناه، ونشره، لذلك من المهم من هم هؤلاء الأشخاص، وما إذا كانوا يجلبون مجموعة واسعة من الخبرات ووجهات النظر إلى عملهم.”

كانت هناك حالات أخرى تم فيها تدريب الذكاء الاصطناعي باستخدام مجموعات البيانات أو تطويره بواسطة فرق غير متنوعة، مما يزيد من احتمالية التحيز، مثل: يكون التشخيص المبني على الصور أكثر دقة للمرضى البيض ويزعم أن بطاقة Apple تقديم حدود ائتمانية أعلى للرجال من النساء.

الذكاء الاصطناعي يصنعه البشر، ويبنيه البشر، وينشره الناس، لذلك من المهم من هم هؤلاء الأشخاص، وما إذا كانوا يجلبون مجموعة واسعة من الخبرات ووجهات النظر إلى عملهم

بيكي تايلور، عائدو التكنولوجيا

وقالت أكسنت، المتخصصة في الأخلاقيات في مجال الذكاء الاصطناعي: “نحن مدينون بذلك للكثير من النساء العظيمات اللاتي رفعن أصواتهن، على الرغم من ردود الفعل العنيفة التي تلقينها. إنها تساعدنا على فهم أفضل لكيفية إدامة هذه التكنولوجيا لهذه الأضرار الموجودة.

تعرضت بعض هؤلاء النساء إلى “التخويف” و”الفصل” و”التجاهل” أثناء سعيهن للتأكد من أن تطوير الذكاء الاصطناعي سيفيد الأغلبية وليس القلة، وفقًا لأكسينتي، التي قالت إننا الآن في وضع أفضل للبدء في تغيير العقلية حول تطوير التكنولوجيا واعتمادها – بعيدًا عن بنائها من أجلها ونحو بنائها بشكل هادف.

تتمثل إحدى الطرق الواضحة لضمان تمثيل الخوارزميات لجمهور أوسع من السكان في جذب المزيد من المواهب التقنية من المجموعات الممثلة تمثيلاً ناقصًا والاحتفاظ بها، ولكن أيضًا التأكد من أن أولئك الذين “يشكلون مستقبل البشرية باستخدام الذكاء الاصطناعي” يعكسون عددًا أكبر من المستخدمين الذين سيضطرون في النهاية إلى ذلك. لدمج الذكاء الاصطناعي في حياتهم اليومية – يجب أن يكون “الذكاء الاصطناعي المتمحور حول الإنسان” هو محور التركيز في المستقبل.

وقال أكسنت: “إذا أردنا أن نجعل الذكاء الاصطناعي يعمل لصالحنا كأفراد وكجماعة، فإن التعاون – وليس المنافسة – هو الطريق للمضي قدمًا”.

العمل معًا

في حين أن عدد النساء اللاتي يستخدمن تكنولوجيا الذكاء الاصطناعي يزيد بنسبة 5% عما كان عليه الحال قبل 10 سنوات، إلا أن هناك عدد أقل من النساء العاملات في مجال التكنولوجيا بنسبة 10% عما كان عليه في عام 1984، وفقا لجاسمين جوثمان، نائب الرئيس المشارك لتحالف MACH.

يساهم هذا الخلل بين عدد النساء اللاتي يستخدمن الذكاء الاصطناعي وعدد النساء اللاتي يطورن الذكاء الاصطناعي في تحيز الذكاء الاصطناعي والتكنولوجيا التي لا تناسب جميع مستخدميها – لدرجة أن الحكومة حددت خططًا في تقريرها الأخير خطة عمل فرص الذكاء الاصطناعي لزيادة تنوع مجموعة المواهب في مجال الذكاء الاصطناعي وعلوم البيانات في المملكة المتحدة.

لكن جوثمان قالت إن النساء “يحاولن حاليًا حل المشكلة بأنفسهن، وهذا لن يحل المشكلة”.

ظل تنوع القوى العاملة في مجال التكنولوجيا راكدًا لبعض الوقت. 2024 تقرير التنوع صرح معهد BCS، معهد تشارترد لتكنولوجيا المعلومات، أنه إذا استمرت الاتجاهات الحالية، فسوف يستغرق الأمر 283 عامًا أخرى حتى تتوافق نسبة النساء العاملات في قطاع التكنولوجيا في المملكة المتحدة مع نسبة 48% من النساء في القوى العاملة على نطاق أوسع.

ولكن كما أشار جوثمان: “إذا حاولت تغيير ذلك بنفسي، فلن أتمكن من الوصول إلى أي مكان”.

إن تغيير القرص بوتيرة أكثر منطقية سيتطلب جهدًا جماعيًا، وهو ما ادعت غوثمان أنه أحد الأسباب التي جعلتها لا تريد أن يكون فرع MACH، Women in MACH، مخصصًا للنساء حصريًا أو من أجلهن. وقالت: “يجب أن يكون هناك رجال في الغرفة”. “نحن بحاجة إلى حلفاء رائعين منكم جميعًا في الغرفة لمساعدتنا في جعل المحادثة أكبر وإجراء تلك المحادثة نيابة عنا عندما لا نكون في الغرفة.”

وهناك الكثير من الحالات التي لا تكون فيها النساء والمجموعات الأخرى الممثلة تمثيلاً ناقصًا في الغرفة – 13٪ فقط من مديري تكنولوجيا المعلومات في المملكة المتحدة هم من خلفيات سوداء وآسيوية وأقليات عرقية (BAME)، وتتكون النساء فقط ربع مناصب مدير تكنولوجيا المعلومات في شركات FTSE 100 في عام 2023.

قال جوثمان: “يتعين علينا جميعًا أن نشارك بأي طريقة ممكنة، خاصة وأن “الأقليات والنساء الممثلة تمثيلاً ناقصًا يترددون في كثير من الأحيان أكثر من غيرهم في ترشيح أنفسهم” للأدوار والفرص التكنولوجية.

لقد قدمت بعض التوصيات للأفراد والحلفاء الممثلين تمثيلاً ناقصًا للضغط من أجل إجراء تغييرات صغيرة والتي عندما يتم تجميعها معًا ستحدث تغييرًا كبيرًا. ويشمل ذلك تقديم الأشخاص للحصول على الفرص، والدعوة عندما تكون هناك لجان مخصصة للذكور فقط في الأحداث، والتأكد من سماع رأي الأشخاص الأكثر هدوءًا، ودعوة الحلفاء الذكور للنساء في الأحداث التقنية.

وقالت: “هدفك من هذا اليوم هو أن تكون ذلك الصوت الذي يقول هل هناك طريقة أفضل للقيام بذلك”. “لن يكون أداء الناس أفضل إلا إذا حملناهم جميعًا المسؤولية. كيف نعيد تعريف مستقبل التكنولوجيا؟ الابتكار لا يحدث في صمت، بل يحدث عندما نكسر الحدود معًا – لذا افعل شيئًا صغيرًا اليوم لجعل العالم مكانًا أفضل غدًا.

عندما تقع الكارثة

يمكن أن يكون التعاون أداة قوية عند استخدامه بالطريقة الصحيحة.

عندما أعلنت الحكومة في أوائل العام الماضي عن خطط لرفع عتبة الدخل للمستثمرين الملائكيين المحتملين، قامت إيما رايت، الشريكة في شركة المحاماة Harbottle & Lewis، بحشد مجموعة كبيرة من النساء في مجال التكنولوجيا لإلغاء القانون.

خططت وزارة الخزانة البريطانية لتغيير المعايير التي تحدد “الفرد ذو الملاءة المالية العالية”مما يعني أن الشخص سيحتاج إما إلى دخل لا يقل عن 170 ألف جنيه إسترليني في السنة المالية السابقة أو صافي أصول لا يقل عن 430 ألف جنيه إسترليني للاستثمار.

ومع استبعاد القانون الجديد 70% من النساء القادرات على تقديم الاستثمار الملائكي، هدد هذا التغيير عدد الشركات التي تقودها النساء في المملكة المتحدة.

وأوضح رايت أن “المؤسسات الإناث يحققن إيرادات أكثر من نظرائهن الذكور”.

“1.7% فقط من تمويل رأس المال الاستثماري يذهب إلى الممولين من النساء، وتدعم النساء النساء الأخريات بأكثر من ضعف ما يدعمه الرجال”.

خلفية رايت مناسبة تمامًا لتحدي مثل هذا. بعد أن ترأست سابقًا الحكومة والقطاع العام كشريك في شركة Deloitte Legal، فهي تفهم كيفية عمل الحكومة، بالإضافة إلى دورها كمحامية في مجال التكنولوجيا والبيانات، وكانت أحد مؤسسي المنتدى البرلماني للتكنولوجيا الناشئة (المعروف سابقًا باسم المنتدى البرلماني الدولي للتكنولوجيا الناشئة). معهد الذكاء الاصطناعي).

أطلق رايت حملة InvestHER، الافراج عن رسالة مفتوحة الذي دعا الحكومة إلى اتخاذ قرار بشأن الموازنة المقبلة آنذاك. العديد من النساء اللاتي وقعن على الرسالة المفتوحة كانوا من قائمة Computer Weekly أكثر النساء تأثيراً في المملكة المتحدة التقنية.

وكما أشار رايت، فإن أي تقنية لا يتم تصميمها مع وضع الجميع في الاعتبار “تعمل كحاجز ولا تمكن”. وهذه سابقة خطيرة يجب وضعها عندما يتعلق الأمر بالتكنولوجيا مثل الذكاء الاصطناعي، والتي يبدو أنها تشكل جزءًا كبيرًا جدًا من مستقبل الجميع.

وفي حين تم تحريف هذا التفاوت على وجه الخصوص، فإن جهود InvestHER ما زالت قادرة فقط على عكس القانون الإشكالي، وليس زيادة العدد المحتمل للمستثمرات والداعمين للشركات الناشئة التي تقودها النساء.

وقال رايت: “ما لم نجعل الجميع يطورون الحلول التقنية، فلن نتمكن من المنافسة على المسرح العالمي، ولن يكون لدينا ذكاء اصطناعي شامل”.

مثال واضح على كيف يمكن أن يكون لاعتماد التكنولوجيا تأثير سلبي إذا لم يعتبر أحد أن المستخدم النهائي هو فضيحة مكتب البريد.

قالت مديرة مكتب البريد السابقة جو هاملتون في حدث التنوع Computer Weekly إنها لم تواجه أي مشاكل في تشغيل فرع مكتب البريد الخاص بها حتى تم تقديم نظام Horizon.

نظرًا لأنها لم تكن تعرف شيئًا عن أجهزة الكمبيوتر، عندما حدثت أخطاء في المحاسبة في نهاية اليوم على النظام، اعتقدت أنها هي التي ترتكب الأخطاء، مما أدى إلى ادعاء مكتب البريد بأنها مدينة لهم بالمزيد والمزيد من الأموال بسبب عدم التوازن المزعوم. الكتب – على الرغم من أن الكمبيوتر هو المخطئ.

حدث الشيء نفسه لمئات من مدراء مكاتب البريد الآخرين في جميع أنحاء المملكة المتحدة. جاء النظام بدون تدريب ولا دعم.

“فكر بنا أولاً، فكر بالأشخاص الذين لا يعرفون شيئًا عن التكنولوجيا واستخدامها. قال هاميلتون: “كنا مجرد أصحاب متاجر صغيرة”.

وحثت أولئك الذين يطورون التكنولوجيا على “التفكير في الأشخاص الذين سيستخدمونها [tech] الذين لا يتمتعون بالمهارة التكنولوجية”.

ستحدث مثل هذه الحوادث، وتلك المذكورة سابقًا، أكثر فأكثر إذا لم يتم توخي الحذر لضمان تطوير الذكاء الاصطناعي والتقنيات الأخرى مع حالات الاستخدام الأخلاقي من قبل فرق متنوعة.

ولكن هذا بدوره لا يمكن ضمانه إلا من خلال العمل معًا – من المعلمين إلى الحكومات، ومن المنظمات إلى الأفراد.

وبدون مشاركة الجميع في تشكيل مستقبلنا بالشراكة مع الذكاء الاصطناعي، لن يرى الجميع الفائدة.



Source link

زر الذهاب إلى الأعلى