تقنية

بحث يوم العمل: 75 ٪ من الموظفين سيعملون مع الذكاء الاصطناعي ، ولكن ليس من أجل ذلك


الذكاء الاصطناعي (منظمة العفو الدولية) يكتسب الوكلاء أرضية في مكان العمل ، لكن العمال البشريين يقاومون مواعيدهم ، وفقًا للأبحاث التي يلقها يوم العمل.

التقرير القائم على المسح، وكلاء الذكاء الاصطناعى هنا – لكن لا تسميهم رئيسًا، تم العثور على 30 ٪ من المشاركين الذين يزعجون من قبل وكيل منظمة العفو الدولية ، على الرغم من أن ثلاثة أرباع قالوا إنهم يرتاحون العمل معهم.

أجرى Hanover Research الدراسة في مايو ويونيو 2025 ، بتكليف من يوم العمل. كان يستند إلى دراسة استقصائية عالمية شملت 2950 صانعي قرار لتكنولوجيا المعلومات بدوام كامل وقادة تنفيذ البرمجيات في جميع أنحاء أمريكا الشمالية (706) و APAC (1031) و EMEA (1،213).

وجد البحث أن المخاوف الأخلاقية والأمن والحوكمة تعوق نشر وكيل الذكاء الاصطناعي. استشهد حوالي 44 ٪ من مخاوف الأخلاق والحوكمة ، بما في ذلك التحيز وخصوصية البيانات والمسائل القانونية ، و 39 ٪ من تحديات الأمن والخصوصية. علاوة على ذلك ، قال 30 ٪ إنهم كانوا قلقين للغاية بشأن سوء استخدام الذكاء الاصطناعي ، بشكل أساسي.

اختار الباحثون التركيز على الذكاء الاصطناعي ، وليس منظمة العفو الدولية على نطاق أوسع. يقول التقرير: “لغرض هذا التقرير ، يشير” وكلاء الذكاء الاصطناعي “إلى أنظمة الذكاء الاصطناعي القادرة على أداء المهام ، واتخاذ القرارات ، والتفاعل بشكل مستقل أو شبه مستقل في نطاق محدد ، وغالبًا ما يكون التعلم والتكيف بمرور الوقت لتحقيق أهداف محددة”. “على عكس الذكاء الاصطناعي الأوسع ، الذي يمكن أن يشمل مجموعة واسعة من التقنيات الذكية ، يتميز عوامل الذكاء الاصطناعى بقدرتهم على التصرف نيابة عن مستخدم أو نظام مع درجة من الاستقلال. يركز بحثنا على وجه التحديد على اعتماد وتأثير عوامل AI هذه في مكان العمل.”

بالنسبة لمورد التكليف ، قالت كاثي فام ، نائبة رئيس الذكاء الاصطناعي في يوم العمل: “نحن ندخل حقبة جديدة من العمل حيث يمكن أن تكون الذكاء الاصطناعى شريكًا لا يصدق ، ومكمل للحكم الإنساني والقيادة والتعاطف.

في التقرير ، تقول: “إن التفاؤل في AICEN AI يتم صياغة من خلال حدود واضحة. هذه الحدود ، التي تحددها اختياراتنا ، ضرورية للنشر الهادف والمسؤول ، وتحريرنا لاستكشاف إمكانات الذكاء الاصطناعى الكاملة دون خوف من إساءة استخدامهم. يجب على القادة إعطاء أولوية للموظفين الذين يمكّنهم من موظفي الموظفين ، وهم يمكّنون من موظفي التكنولوجيا ، في حين أن الموفرين التكنولوجيين يبنون هذه الحدود بشكل مباشر في المحاليل. تمويل.”

ووجد البحث أن 82 ٪ من المنظمات التي شملتها الاستطلاع تعمل على توسيع استخدامها للوكلاء ، وبينما يثق 36 ٪ من وكلاء منظمة العفو الدولية في منظماتهم لاستخدامها بمسؤولية ، وجد البحث أن العدد يزداد إلى 95 ٪ بين أولئك الذين لديهم خبرة أكبر في الوكلاء ، في مرحلة الاستخدام. وبالمثل ، فإن 90 ٪ من أولئك الذين يتطلعون إلى توسيع نطاق الثقة في أن استخدام وكيل الذكاء الاصطناعي سيكون له تأثير اجتماعي إيجابي.

ومع ذلك ، يقول أقلية صغيرة فقط (24 ٪) من المجيبين إنهم مرتاحون لوكلاء الذكاء الاصطناعى العاملين في الخلفية دون معرفة إنسانية. وقال عدد مماثل قال الوكلاء متفرغ.

ما يقرب من 90 ٪ من المجيبين يعتقدون أن وكلاء الذكاء الاصطناعى سيساعدونهم على إنجاز المزيد ، لكن الكثير منهم يشعرون بالقلق أيضًا أن مكاسب الإنتاجية ستؤدي إلى زيادة الضغط (48 ٪) ، وانخفاض في التفكير النقدي (48 ٪) وأقل تفاعل بشري (36 ٪).

رأى معظم الوكلاء كزملاء في الفريق ، ولكن ليسوا أعضاء كاملين في القوى العاملة. كانت الثقة في الذكاء الاصطناعى هي الأعلى لدعم تكنولوجيا المعلومات وتطوير المهارات ، وأدنى مستوى لمجالات مثل التوظيف والتمويل والمسائل القانونية.

يبدو أن المهنيين الماليين على وجه الخصوص عرضة لرؤية الاتجاه الصعودي في استخدام AICERIC AI.

يعتقد أكثر من ثلاثة أرباع (76 ٪) من العاملين في مجال المالية أن وكلاء الذكاء الاصطناعى سيساعدون في نقص الموظفين والمهارات ، في حين أن 12 ٪ على ما يبدو قلقين بشأن فقدان الوظائف. الاستخدامات العليا لوكلاء الذكاء الاصطناعى في التمويل هي التنبؤ والميزنة (32 ٪) ، والتقارير المالية (32 ٪) ، والكشف عن الاحتيال (30 ٪).

يخلص التقرير إلى أن الموازنة بينه وبين الموارد البشرية كوظائف ، “أخلاقيات ، مصدر قلق رئيسي ل 33 ٪ من المجيبين ، يفرض الرقابة متعددة التخصصات. يجب على قيادة تكنولوجيا المعلومات الانخراط في نطاقها التقليدي عن الذكاء الاصطناعي المسؤول. هذا هو المكان الذي تفترض فيه الموارد البشرية دورًا استراتيجيًا لا غنى عنه.”



Source link

زر الذهاب إلى الأعلى