أخبار التقنية

تجارب الذكاء الاصطناعي للعمال الويلزيين تتشكل من خلال ديناميكيات السلطة غير المتكافئة


تعمل ديناميكيات القوة غير المتماثلة في العمل على تغذية التجربة السلبية للعمال الويلزيين مع الذكاء الاصطناعي (AI)، كما يقول مؤتمر نقابات العمال (TUC)، وتجعل من الصعب تحدي فرض التقنيات الجديدة في مكان العمل.

في مراجعة حول كيفية تجربة العمال والنقابيين في جميع أنحاء البلاد للتكنولوجيا، وجدت TUC في ويلز أن جهودهم لفهم الذكاء الاصطناعي وتحديه في مكان العمل تتعرض للعرقلة بسبب عدم الوصول إلى معلومات مفيدة حول الأنظمة والاستبعاد شبه الكامل من القرار -عمليات صنع حول نشرها.

على سبيل المثال، ذكر التقرير أنه في حين أن أصحاب العمل أنفسهم قد لا يكون لديهم فهم كامل لوظائف وتأثيرات أدوات الذكاء الاصطناعي الخاصة بهم، فإن نقص المعلومات المتاحة للعاملين – سواء فيما يتعلق بالذكاء الاصطناعي بشكل عام أو فيما يتعلق بأنظمة محددة تنشرها أعمالهم – أمر بالغ الأهمية. تقويض مفاوضات فعالة.

قالت TUC في ويلز إن العمال حققوا نجاحًا محدودًا عندما يتعلق الأمر بتشكيل إدخال الذكاء الاصطناعي، حيث تتميز هذه العمليات أيضًا بغياب المشاركة والشفافية، ولا يوجد التزام قانوني على أصحاب العمل للتشاور مع موظفيهم حول هذا الموضوع.

“أشار الممثلون إلى محدودية الشراء فيما يتعلق بتشكيل إدخال ونشر التقنيات، وصعوبة التواصل مع المديرين وأصحاب العمل حول القرارات البشرية وراء الأهداف الخوارزمية التي تبدو “موضوعية””.

“وفقًا للممثلين، تم إدخال التقنيات إلى مكان العمل من قبل أصحاب العمل بهدف معلن وهو تحسين الدقة والكفاءة. ومع ذلك، فإن الفهم الضعيف والتطبيق غير السليم للتكنولوجيات، والفشل في دمج رؤية العمال من قبل أصحاب العمل، كان يؤدي إلى بيئة يزداد فيها إضعاف العمال.

ومن خلال تغذية هذه الديناميكية، وثقت أيضًا كيف يتأثر العمال الويلزيون سلبًا بالذكاء الاصطناعي مراقبة مكان العمل و اتخاذ القرار الآليلأن أصحاب العمل عادة ما يثقون بالتكنولوجيا أكثر من الأشخاص الذين تراقبهم.

على سبيل المثال، أفاد العمال الخاضعون للمراقبة الإلكترونية أن ذلك كان له “تأثير غير إنساني” عليهم بسبب الطرق التي يتم بها اتخاذ الإجراءات التأديبية على خلفية الأنظمة المستندة إلى البيانات والتي تفشل في مراعاة السياق الكامل للموقف .

وهذا بدوره يخلق مواقف يضطر فيها العمال إلى تبرير أنفسهم عندما تنتقدهم الإدارة بشأن مخرجات النظام. “يكمن الخطر في أننا نفقد العناصر البشرية في الموارد البشرية من خلال الأتمتة والبعد. قال أحد العمال في موقع تصنيع كبير: “لا توجد فائدة من الشك، ولا توجد منطقة رمادية”.

أضافت TUC في ويلز أنه على الرغم من أن عدم تمكين العمال في مجال الذكاء الاصطناعي كان أقل وضوحًا في قطاعات مثل التصنيع، حيث كان هناك تاريخ من التنظيم الجماعي حول قضايا التكنولوجيا، إلا أن قدرة العمال على ممارسة أصواتهم والمشاركة بشكل هادف في قرارات نشر التكنولوجيا لا تزال منخفضة بشكل عام عبر المجلس.

“الذكاء الاصطناعي ليس تقنية واحدة. إنه يؤثر على كل مكان عمل بشكل مختلف. النتائج التي توصلنا إليها مثيرة للقلق للغاية وتوضح أن المحادثات حول الذكاء الاصطناعي والعمل ليست مجرد ألعاب أكاديمية – فالتأثيرات حقيقية، وغالبًا ما تكون سلبية وتحدث الآن.

شافانا تاج، ويلز TUC

وقالت: “يطرح الذكاء الاصطناعي تحديات تقنية وقانونية وتشغيلية جديدة تهدد بتعميق عدم تكافؤ القوى في مكان العمل والاقتصاد الأوسع”. “ومع ذلك، ينبغي النظر إلى هذه الديناميكية في سياق عام لبعض أقسى القوانين التي تحكم العلاقات الصناعية في أوروبا الغربية، وحقوق التوظيف التي لم يتم تصميمها لتمكين العمال من أن يكونوا أصحاب مصلحة نشطين في أماكن عملهم، فيما يتعلق بالذكاء الاصطناعي أو أي قضية أخرى. “

وقالت إنه في حين أن العمال من القطاعات خارج التصنيع متخلفون بشكل أكبر في تطوير خبراتهم الفنية وتكتيكات التفاوض للتعامل مع هذه القضايا، فإن النقابات تتولى العمل لفهم أفضل لكيفية المساومة الجماعية بنجاح على الذكاء الاصطناعي نظرًا لتقلبه وتعقيده النسبي.

بعيدًا عن المراجعة التي أجراها، يدعو TUC في ويلز حكومة ويلز إلى استخدام القطاع العام المفوض ليكون مثالًا يحتذى به في دمج العمال، وهو ما يمكنها القيام به من خلال تحديث اتفاقيات مجلس شراكة القوى العاملة (WPC) الحالية لجعل مشاركة العمال حقيقة واقعة.

كما تدعو الحكومة الويلزية إلى تطوير وتعزيز ومراقبة إرشادات أفضل الممارسات لمشاركة العمال في عمليات نشر التكنولوجيا؛ واستخدام نفوذها على العمليات غير المفوضة لصياغة التشريعات المرتبطة بالذكاء الاصطناعي ــ مثل مشروع قانون حماية البيانات والمعلومات الرقمية ــ لصالح العمال.

في أبريل 2023، وقالت مساعدة الأمين العام لـ TUC كيت بيل على الرغم من المخاطر التي قد يؤدي إليها الذكاء الاصطناعي إلى التمييز على نطاق واسع في مكان العمل، ترفض حكومة المملكة المتحدة وضع “حواجز الحماية” اللازمة لحماية حقوق العمال.

وقالت: “بدلاً من الحماية الواضحة والقابلة للتنفيذ، أصدر الوزراء سلسلة من الالتزامات الغامضة والواهية التي لا تساوي الورق الذي كتبت عليه”. ورقة عمل الذكاء الاصطناعي تحديد النهج الذي تتبعه الحكومة في التنظيم.

“لقد فشلوا في تزويد الهيئات التنظيمية بالموارد التي يحتاجونها للقيام بعملهم بشكل صحيح. من الضروري أن يواكب قانون العمل ثورة الذكاء الاصطناعي. لكن تقرير الذكاء الاصطناعي الكئيب الذي صدر الشهر الماضي فشل بشكل مذهل في القيام بذلك.

وفيما يتعلق بسياسة DPDI، قال بيل إن الحكومة “تخفف من إجراءات الحماية المهمة… [which] سوف يترك العمال أكثر عرضة لأصحاب العمل عديمي الضمير “.

بالنسبة للنقابات العمالية، بما في ذلك TUC في ويلز نفسها، أضافت المراجعة أنه يجب أن يكون هناك جهد متضافر لإنتاج موارد وإرشادات مستهدفة لمساعدة العمال خلال عملية نشر الذكاء الاصطناعي في العمل.

“في غياب متطلبات واضحة لأصحاب العمل للكشف عن التقنيات التي تم نشرها، فإن TUC في ويلز سوف تفعل ذلك [also] وأضافت: “نحن بحاجة إلى الحفاظ على القدرة على جمع المعلومات، للاستفادة من فرص العمل”.

وفي المقابل، سلط الضوء أيضًا على الحاجة إلى تطوير ممارسات ومبادرات سياسية جديدة لتمكين العمال في مواجهة الذكاء الاصطناعي.

“الذكاء الاصطناعي ليس تقنية واحدة. إنه يؤثر على كل مكان عمل بشكل مختلف. وقالت شافانا تاج، الأمين العام لـ TUC في ويلز: “إن النتائج التي توصلنا إليها مثيرة للقلق العميق وتوضح أن المحادثات حول الذكاء الاصطناعي والعمل ليست ألعابًا أكاديمية – فالتأثيرات حقيقية، وغالبًا ما تكون سلبية، وهي تحدث الآن”.

“سنناضل من أجل ضمان أن يكون لعمالنا صوت وسيطرة على أي تغييرات في أماكن عملهم وظروف عملهم”.



Source link

زر الذهاب إلى الأعلى