نحن بحاجة إلى الذكاء البشري من أجل الذكاء الاصطناعي
هل الفيديو الذي وصلنا على الواتساب أصلي؟ هل تم التلاعب بالصورة الفيروسية على X (المعروفة سابقًا باسم Twitter)؟ هل الصوت أصلي أم أنه تم إنشاؤه باستخدام برنامج؟
يتمتع الذكاء الاصطناعي بالقدرة على تحويل الواقع وتشويهه أيضًا من خلال خلق صور مزيفة عميقة، وتوزيع الأخبار المزيفة، وغيرها من الأدوات التي تهدف إلى إرباك الجماهير. لقد رأينا بالفعل التأثيرات الضارة للأخبار الكاذبة عندما اجتاح الذعر شوارع نيويورك ونيوجيرسي في عام 1938، أثناء البرنامج الإذاعي الذي قدمه أورسون ويلز بعنوان “حرب العوالم”، والذي يروي غزو كائنات فضائية للولايات المتحدة. وعلى الرغم من تحذيرات المذيع في بداية ونهاية المقطع بشأن الطبيعة الخيالية للقصة، إلا أن ملايين المستمعين المرتبكين اعتقدوا أنها حقيقية. وفي اليوم التالي، جاء العنوان الرئيسي لصحيفة نيويورك تايمز: “مستمعو الراديو المذعورون ينظرون إلى مسرحية حرب على أنها شيء حقيقي”. وبدون قصد، بدأ ويلز الإشاعة الحديثة: الأخبار الكاذبة.
منذ ثلاثينيات القرن الماضي، انتشرت حالات أخرى من الأخبار المزيفة بشكل كبير عبر العناوين الرئيسية ونشرات الأخبار، بما في ذلك مذكرات هتلر المزعومة وفدية ليندبيرغ. قبل التسعينيات، كان العديد من مذيعي الأخبار قادرين على تصحيح التقارير الإخبارية الكاذبة والحد منها بسرعة. ومع ذلك، في العصر الرقمي الحديث، تتم مشاركة مصادر الأخبار والمقالات على نطاق واسع وبسرعة أكبر من أي وقت مضى. يمكن أن تتراوح عواقب هذه القصص من أمور تافهة، مثل الأغنية التي أنشأها الذكاء الاصطناعي والتي تظاهرت بأنها Bad Bunny وأثارت غضب المغني، إلى قضايا أكثر خطورة مثل الانتخابات. إن جدية التقارير الإخبارية ذات المصداقية تشكل أهمية خاصة في عام حيث سيتم انتخاب أعلى سلطة في 70 دولة.
واليوم، لن يكون لبرنامج إذاعي واحد مثل “حرب العوالم” نفس التأثير. إن تزامن وسائل الإعلام من شأنه أن يسمح لأي شخص بتوضيح الأمر بسرعة على إحدى المنصات العديدة المتاحة. ومع ذلك، فإن تضاعف القنوات المقترنة بالقدرة الإبداعية للذكاء الاصطناعي له تأثير آخر: يمكن لأي شخص أن “يكذب” مثل أورسون ويلز، وليس بالضرورة لأغراض ثقافية أو فنية. ليس من قبيل الصدفة إذن أن يضع تقرير المخاطر العالمية، الذي أعده المنتدى الاقتصادي العالمي، المعلومات المضللة والمعلومات المضللة باعتبارها الخطر الأول على المدى القصير والخامس على مدى العقد المقبل.
وبينما يقوم المنظمون وخبراء التكنولوجيا وقادة الأعمال بتطوير الضمانات اللازمة للذكاء الاصطناعي التوليدي، يجب على المؤسسات أيضًا إنشاء أفضل الممارسات الداخلية لفرق تكنولوجيا المعلومات والإدارات الأخرى للتخفيف من الآثار الضارة للذكاء الاصطناعي.
تنفيذ خوارزميات تصفية المحتوى المتقدمة
كما هو الحال مع العديد من التطورات التقنية، يمكن أن يؤدي GenAI إلى إنشاء معلومات مضللة وتوزيعها. ومع ذلك، يمكن للأدوات التي تدعم تقنية GenAI والذكاء الاصطناعي أيضًا توفير الحل للتخفيف من انتشار وتطوير الصور أو مقاطع الفيديو المزيفة والمقالات النصية غير الدقيقة وما إلى ذلك، باستخدام خوارزميات تصفية الذكاء الاصطناعي المتقدمة. ومع تطوير الفرق لهذه الأدوات ومعرفة المزيد عنها، يمكنهم اكتشاف المعلومات الخاطئة التي يتم إنشاؤها بواسطة الآلة بسرعة وسهولة أكبر واتخاذ الإجراءات اللازمة لإزالة أو تحديث أي أكاذيب.
إنشاء مبادرات تعاونية مع منظمات التحقق من الحقائق
في الأيام الأولى لاعتماد الذكاء الاصطناعي، كان دمج برامج الضمانات والرقابة أبطأ، خاصة وأن جميع الشركات والصناعات تعلمت المخاطر والتحديات الحقيقية للتكنولوجيا. ومع ذلك، فإن الإشراف ضروري لضمان منتجات الذكاء الاصطناعي عالية الجودة، بما في ذلك المحتوى المكتوب وعمليات جمع البيانات وتوصيات العملاء وما إلى ذلك. وبدعم من البائعين الخارجيين أو الموظفين الداخليين المتفانين، يجب التحقق من البيانات المستخدمة داخل برامج الذكاء الاصطناعي وحمايتها. ، والتحقق مرة أخرى للتأكد من استخدام أفضل حلول الذكاء الاصطناعي.
إعادة مهارات القوى العاملة الحالية
بمجرد الاستعداد لدمج أدوات الذكاء الاصطناعي على نطاق واسع، يجب على المؤسسات تعيين خبراء داخليين في الذكاء الاصطناعي. هؤلاء الخبراء هم موظفون متفانون تعلموا التكنولوجيا واختبروها في أنشطتهم اليومية ويمكنهم تقديم برامج تعليمية مفصلة عبر الفرق لمشاركة تعليمات محددة لوظائف كل فريق. سواء كانوا يعملون في المبيعات أو التسويق أو الهندسة أو الموارد البشرية، يحتاج الموظفون إلى معرفة ما يجب فعله وما لا يجب فعله في الذكاء الاصطناعي لدورهم، ولكن لن يتمكنوا من ذلك حتى يمهد شخص آخر الطريق.
تعزيز برامج التعليم والتوعية للمستخدم
ضمن مبادرات التعليم أو التوعية المؤسسية، سيتم تمكين الفرق باستخدام أدوات GenAI وAI لإنشاء نهج ديناميكي يركز على المستخدم، وتخصيص المعلومات وفقًا لاحتياجات وتفضيلات المستخدم المحددة. على سبيل المثال، إذا كان أحد أعضاء فريق التسويق يتعلم عن أدوات GenAI وAI، فسيقوم البرنامج بتخصيص محتواه ليناسب مهام أو احتياجات محددة لفريق التسويق. وهذا النهج سوف يعزز بشكل كبير المشاركة والتفاهم. بالإضافة إلى ذلك، يجب على الفرق استخدام ورش عمل تفاعلية، ووحدات عبر الإنترنت، ودراسات حالة من العالم الحقيقي لإعطاء الجمهور رؤى عملية، وتعزيز ثقافة التعلم المستمر والتكيف في المشهد التكنولوجي المتطور باستمرار.
سيكون التحديث المستمر لهذه البرامج التعليمية للموظفين والمستهلكين أمرًا أساسيًا للنجاح على المدى الطويل، خاصة مع استمرارنا في إطلاق المزيد من قدرات الذكاء الاصطناعي.
زيادة المنح الدراسية وإمكانية الوصول إلى المهارات والتدريب على الذكاء الاصطناعي
نحن بحاجة إلى تعزيز النمو الوظيفي المستمر والاهتمام من خلال إنشاء مجموعة من العمال الجدد لدعم هذه الابتكارات. باعتبارنا قادة أعمال، نحن في وضع يسمح لنا بتحفيز الموظفين الجدد من خلال إنشاء منح دراسية أو تقديم تدريب داخلي للطلاب للتعلم وحتى التدريب في مجال التكنولوجيا. بالنسبة لبرامج المنح الدراسية المبكرة، أوصي ببدء شراكات مع المؤسسات التعليمية والجمعيات الصناعية لتضخيم تأثير هذه المبادرات. بالإضافة إلى ذلك، يمكن للشركات تقديم فرص الإرشاد ضمن أي برامج للمنح الدراسية، مما يمنح الطلاب مشاريع عملية والتعرف على تطبيقات العالم الحقيقي للذكاء الاصطناعي. وهذا لن يجذب المواهب فحسب، بل سيضمن أيضًا مجموعة مهارات شاملة تتماشى مع المتطلبات المتطورة للمشهد التكنولوجي.
يمكننا جميعًا أن نتفق على أن هذه الإجراءات مهمة، ولكن لا تستطيع العديد من الشركات تفعيل بعض هذه الإجراءات أو أي منها بسبب طلب المستهلكين للابتكارات السريعة، ومقاومة المستخدمين، والقوى العاملة المتوترة، التي تعاني من نقص الموظفين. على الرغم من هذه العقبات، يتعين على شركات التكنولوجيا أن تتولى قيادة عملية تطوير وتنفيذ الذكاء الاصطناعي بشكل مسؤول. للقيام بذلك، يجب أن يكون لدينا تعاون بشري مع الذكاء الاصطناعي – هذه هي الطريقة التي سنستغل بها إمكانات الذكاء الاصطناعي ونضمن أننا نستخدم الذكاء الاصطناعي لتحقيق الخير مع تقليل الآثار الضارة.
تقع على عاتق مطوري التكنولوجيا وقادة الأعمال مسؤولية إنشاء الذكاء الاصطناعي بشكل واعي وبناء نقاط اتصال بشرية منتظمة لمراقبة المحتوى الضار الذي يتم إنشاؤه. تقع على عاتق المستهلكين والسياسيين مسؤولية الإبلاغ عن المحتوى الناتج عن الذكاء الاصطناعي ودعم اللوائح الخاصة بالتكنولوجيا. من خلال العمل معًا، يمكننا العثور على القيمة الحقيقية للذكاء الاصطناعي.