الذكاء الاصطناعي التوليدي موجود في كل مكان، لكن السياسة لا تزال مفقودة
الذكاء الاصطناعي التوليدي (GenAI) يظهر في كل مكان في مكان العمل، لكن الشركات ليس لديها السياسات أو التدريب المعمول به للتأكد من عدم فشل عمليات النشر.
يستخدم الموظفون في ما يقرب من ثلاثة أرباع المنظمات الأوروبية بالفعل الذكاء الاصطناعي في العمل، ولكن 17٪ فقط لديهم سياسة رسمية وشاملة تحكم استخدام مثل هذه التقنيات، وفقًا لبحث أجرته هيئة التكنولوجيا المهنية ISACA.
وقال حوالي النصف (45%) ممن شملهم استطلاع ISACA إن استخدام GenAI مسموح به في مؤسساتهم، وهو ما يمثل ارتفاعًا ملحوظًا من 29% قبل ستة أشهر فقط.
ومع ذلك، يبدو أن الموظفين يدفعون نحو التبني أكثر من رؤسائهم قد يدرك ذلك أن 62% من المشاركين في الاستطلاع يستخدمون GenAI لإنشاء محتوى مكتوب وزيادة الإنتاجية وأتمتة المهام المتكررة.
عدم فهم الذكاء الاصطناعي
وجد استطلاع ISACA أنه في حين أن 30% من المؤسسات قدمت بعض التدريب المحدود على الذكاء الاصطناعي للموظفين في المناصب ذات الصلة بالتكنولوجيا، فإن 40% منها لم تقدم أي تدريب على الإطلاق.
على الرغم من الضجيج الهائل حول الذكاء الاصطناعي التوليدي، فإن معظم المتخصصين في مجال الأعمال وتكنولوجيا المعلومات لديهم وعي محدود بالتكنولوجيا، كما وجد الاستطلاع، حيث أفاد ثلاثة أرباعهم (74٪) أنهم كانوا على دراية بها إلى حد ما أو لم يكونوا على دراية بها على الإطلاق. وقال 24% فقط أنهم على دراية كبيرة أو جيدة بالذكاء الاصطناعي، بينما وصف 37% أنفسهم بالمبتدئين.
لا يبدو أن هذا يمنع الموظفين من القلق بشأن التأثير السلبي المحتمل للذكاء الاصطناعي، حيث اعترف 61% من المشاركين بأنهم قلقون للغاية أو للغاية من ذلك يمكن استغلال الذكاء الاصطناعي التوليدي من قبل جهات فاعلة سيئة.
ورأى الربع (25%) أن المؤسسات تولي اهتمامًا كافيًا للمعايير الأخلاقية للذكاء الاصطناعي، لكن 23% فقط يعتقدون أن المؤسسات تتعامل بشكل صحيح مع المخاوف المتعلقة بالذكاء الاصطناعي، مثل خصوصية البيانات وخطر التحيز.
حددت أغلبية كبيرة (89%) المعلومات الخاطئة والمعلومات المضللة باعتبارها أكبر مخاطر الذكاء الاصطناعي، لكن 21% فقط كانوا واثقين من قدرتهم أو قدرة شركاتهم على اكتشافها.
وفي حين توقع 38% من العمال الذين شملهم الاستطلاع أن يتم إلغاء العديد من الوظائف بسبب الذكاء الاصطناعي على مدى السنوات الخمس المقبلة، قال كثيرون (79%) أنه سيتم تعديل الوظائف من خلاله.
وكان محترفو الثقة الرقمية أكثر تفاؤلاً بشأن مجالاتهم، حيث قال 82% منهم إن الذكاء الاصطناعي سيكون له تأثير محايد أو حتى إيجابي على حياتهم المهنية. ومع ذلك، أقروا بأن هناك حاجة إلى مهارات جديدة لتحقيق النجاح، حيث توقع 86% منهم أن يضطروا إلى زيادة مهاراتهم ومعارفهم في مجال الذكاء الاصطناعي في غضون عامين للتقدم في وظائفهم أو الاحتفاظ بها.
في هذه الدراسة، قامت ISACA باستطلاع رأي 601 متخصصًا في مجال الأعمال وتكنولوجيا المعلومات في أوروبا. وجاءت النتائج متوافقة مع أ مسح دولي أكبر وأجريت أيضا.
وقال كريس ديميترياديس، كبير مسؤولي الإستراتيجية العالمية في ISACA، إن هناك الكثير من العمل الذي يتعين القيام به عندما يتعلق الأمر بفهم الذكاء الاصطناعي في مكان العمل. “لا يمكنك إنشاء قيمة إذا لم تفهم التكنولوجيا بعمق. وقال: “لا يمكنك معالجة المخاطر حقًا إذا كنت لا تفهم التكنولوجيا”.
وأضاف ديميترياديس أن الوضع الحالي مع الذكاء الاصطناعي هو نفسه كما هو الحال مع التقنيات الناشئة السابقة. وقال: “لدينا منظمات تحاول معرفة ذلك، ووضع سياساتها وتشكيل فرق لخلق المهارات”.
“ولكن في الوقت نفسه، فإن اعتماد هذه التكنولوجيا لا ينتظر حدوث كل هذه الأشياء. لذلك، نرى الموظفين يستخدمون الذكاء الاصطناعي التوليدي لإنشاء محتوى مكتوب [and] وأضاف: “تحاول فرق المنتجات اختبار شراكات جديدة مع مزودي الذكاء الاصطناعي دون وضع ذلك في إطار يمكن أن يساعد المنظمة بطريقة مجدية”.
وحذر ديميترياديس من أنه على الرغم من حرص الشركات على اغتنام وعد الذكاء الاصطناعي وخلق القيمة، إلا أن العديد منها لم تأخذ التدريب على محمل الجد أو تعيد تدريب موظفيها لاستخدام الذكاء الاصطناعي بطريقة آمنة. وقال لمجلة كمبيوتر ويكلي: “إن تعطشنا للابتكار وخلق شيء جديد، يفوق في بعض الأحيان هياكل سياسة الشركة”.
على سبيل المثال، داخل مؤسسة أكبر، قد تبدأ بعض الأقسام الفردية في استخدام الذكاء الاصطناعي دون السماح للإدارة العليا بمعرفة هذه التكنولوجيا الجديدة. وقال إنه في حالات أخرى، يمكن أن تؤدي ضغوط وقت الوصول إلى السوق إلى تخلف جهود الأمن السيبراني والضمان والخصوصية.
هناك حاجة إلى التثقيف حول مخاطر الذكاء الاصطناعي
لكن السبب الأكبر وراء الفجوة بين استخدام الذكاء الاصطناعي وحوكمة الذكاء الاصطناعي هو الافتقار إلى المهارات. “لدينا بالفعل فجوة كبيرة في مجال الأمن السيبراني، على سبيل المثال. تخيل الآن مع الذكاء الاصطناعي كيف تتحول هذه الفجوة إلى شيء أكثر خطورة”.
وذلك لأن GenAI، على وجه الخصوص، يمكن أن تثير مخاطر أمنية جديدة، اعتمادًا على الصناعة والتطبيق. يجب على الشركات التي تعالج البيانات الشخصية أن تكون على دراية بمخاطر التحيز الذي يسببه الذكاء الاصطناعي، على سبيل المثال، أو حتى هلوسة تفاصيل جديدة لإضافتها إلى السجلات.
هناك أيضًا تهديد بشن هجمات من الغرباء، وربما صياغة طلبات يمكن أن تخدع أنظمة الذكاء الاصطناعي لتكشف عن بيانات حساسة. التحدي الآخر هو أنه على الرغم من ظهور لوائح محددة حول الذكاء الاصطناعي في بعض الولايات القضائية، فمن الصعب على غير الخبراء معرفة القواعد التي يمكن أن ينتهكها استخدامهم للذكاء الاصطناعي.
ولهذا السبب يجب على المؤسسات أن تكون حذرة للغاية في تدقيق الذكاء الاصطناعي بشكل مستمر من حيث نتائجه، للتأكد من أنه يعمل وفقًا لتوقعات المستخدم.
الخطوة الأولى نحو إصلاح النقص في السياسات والرقابة على الذكاء الاصطناعي، وفقًا لديميترياديس، هي تدريب الأشخاص المناسبين داخل المنظمة.
“الأمر يبدأ دائمًا بالناس. إذا كان لديك أشخاص مدربون، فيمكن لهؤلاء الأشخاص وضع السياسات الصحيحة موضع التنفيذ. عليك أولاً أن تفهم المخاطر ثم تكتب السياسة.
وقال إن الأمر يتعلق أيضًا بالتأكد من أن هذا الوعي والتعليم حول الذكاء الاصطناعي يتجاوز الخبراء، بحيث يكون الموظفون على دراية بالمخاطر المحيطة باستخدام الذكاء الاصطناعي ويمكنهم تجنب الانتهاكات غير المقصودة.
وأضاف: “هذه مناقشة في مجلس الإدارة، من حيث التأكد من أن القيمة التي سيتم توليدها من خلال اعتماد الذكاء الاصطناعي متوازنة أيضًا مع المخاطر”.
جزء من ذلك سيكون وجود كبير مسؤولي أمن المعلومات (CISO) في متناول اليد، جنبًا إلى جنب مع خبراء الخصوصية والمخاطر المدربين والقادرين على التحدث إلى مجالس الإدارة حول التحدي في سياق تشغيل منظمة معينة.
وقال: “إذا ذهبت إلى مجلس الإدارة بقصة عامة عن التهديدات، فلن يكون هذا مقنعاً أبداً لأنه لن يتم وضعه في سياق تدفق إيرادات محدد داخل الشركة”. “كل شيء يبدأ بتثقيف الناس.”