يدفع انحدار الذكاء الاصطناعي حوكمة البيانات نحو نماذج الثقة المعدومة

بيانات لم يتم التحقق منها ومنخفضة الجودة تم إنشاؤها بواسطة نماذج الذكاء الاصطناعي (AI) – والتي تُعرف غالبًا باسم منظمة العفو الدولية منحدر – يجبر المزيد من القادة الأمنيين على النظر إليه نماذج انعدام الثقة لإدارة البيانات، حيث من المرجح أن تبدأ 50% من المؤسسات في اعتماد مثل هذه السياسات بحلول عام 2028، وفقًا لتوقعات جارتنر.
في الوقت الحالي، يتم تدريب نماذج اللغات الكبيرة (LLMs) عادةً على البيانات المستخرجة – بإذن أو بدون إذن – من شبكة الويب العالمية ومصادر أخرى بما في ذلك الكتب وأوراق البحث ومستودعات الأكواد. تحتوي العديد من هذه المصادر بالفعل على بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي، وبمعدل الانتشار الحالي، سيتم ملؤها جميعًا تقريبًا في النهاية.
دراسة أجرتها مؤسسة Gartner حول مدراء تكنولوجيا المعلومات والمسؤولين التنفيذيين في مجال التكنولوجيا تم النشر في أكتوبر 2025 وجدت أن 84% من المشاركين يتوقعون زيادة تمويلهم للذكاء الاصطناعي (GenAI) في عام 2026، ومع تسارع هذا الاتجاه، سيتزايد أيضًا حجم البيانات الناتجة عن الذكاء الاصطناعي، مما يعني أن طلاب ماجستير إدارة الأعمال المستقبليين يتم تدريبهم أكثر فأكثر باستخدام مخرجات الحالية.
وقال بيت المحللين إن هذا سيزيد من خطر انهيار النماذج بالكامل تحت وطأة الهلوسة والحقائق غير الدقيقة.
حذرت شركة جارتنر من أنه من الواضح أن هذا الحجم المتزايد من البيانات الناتجة عن الذكاء الاصطناعي يمثل تهديدًا واضحًا وقائمًا لموثوقية حاملي شهادات LLM، وقال نائب الرئيس الإداري وان فوي تشان إن المؤسسات لم يعد بإمكانها الوثوق ضمنيًا بالبيانات، أو افتراض أنها تم إنشاؤها من قبل الإنسان.
وقال تشان: “نظرًا لأن البيانات الناتجة عن الذكاء الاصطناعي أصبحت منتشرة ولا يمكن تمييزها عن البيانات التي أنشأها الإنسان، فإن وضع انعدام الثقة الذي يضع تدابير المصادقة والتحقق، يعد ضروريًا لحماية النتائج التجارية والمالية”.
التحقق من البيانات “الخالية من الذكاء الاصطناعي”.
وقال تشان إنه مع تزايد انتشار البيانات الناتجة عن الذكاء الاصطناعي، فمن المرجح أن تشتد المتطلبات التنظيمية للتحقق مما أسماه البيانات “الخالية من الذكاء الاصطناعي” في العديد من المناطق – على الرغم من أن هذه الأنظمة التنظيمية ستختلف حتما في صرامة.
وقال: “في هذه البيئة التنظيمية المتطورة، ستحتاج جميع المؤسسات إلى القدرة على تحديد البيانات التي يولدها الذكاء الاصطناعي ووضع علامات عليها”. “سيعتمد النجاح على امتلاك الأدوات المناسبة والقوى العاملة الماهرة في إدارة المعلومات والمعرفة، بالإضافة إلى حلول إدارة البيانات الوصفية التي تعتبر ضرورية لفهرسة البيانات.”
توقع تشان أن النشطة ممارسات إدارة البيانات الوصفية ستصبح عامل تمييز رئيسي في هذا المستقبل، مما يمكّن المؤسسات من تحليل وتنبيه وأتمتة عملية صنع القرار عبر أصول البيانات المختلفة الخاصة بها.
يمكن أن تتيح مثل هذه الممارسات إمكانية التنبيه في الوقت الفعلي عندما تصبح البيانات قديمة أو تحتاج إلى إعادة التصديق، مما يساعد المؤسسات على تحديد متى قد تكون الأنظمة الحيوية للأعمال على وشك التعرض لتدفق من الهراء.
إدارة المخاطر
وفقًا لشركة Gartner، هناك العديد من الوسائل الأخرى التي يمكن للمؤسسات من خلالها محاولة إدارة وتخفيف مخاطر بيانات الذكاء الاصطناعي غير الجديرة بالثقة.
قد يرغب قادة الأعمال في التفكير في إنشاء دور قيادي مخصص لحوكمة الذكاء الاصطناعي، يغطي إدارة المخاطر والامتثال وانعدام الثقة. من الناحية المثالية، ينبغي تمكين هذا المسؤول الرئيسي عن حوكمة الذكاء الاصطناعي، والذي ربما يُطلق عليه اسم CAIGO، للعمل بشكل وثيق مع فرق البيانات والتحليلات (D&A).
علاوة على ذلك، يجب على المؤسسات أن تسعى إلى إنشاء فرق متعددة الوظائف تجمع بين D&A والأمن السيبراني لإجراء تقييمات مخاطر البيانات وتحديد مخاطر البيانات الناتجة عن الذكاء الاصطناعي، وتحديد المخاطر التي يمكن معالجتها في ظل السياسات الحالية والتي تحتاج إلى استراتيجيات جديدة. يجب أن تكون هذه الفرق قادرة على البناء على أطر حوكمة D&A الحالية للتركيز على تحديث الأمن وإدارة البيانات الوصفية والسياسات المتعلقة بالأخلاقيات لمعالجة هذه المخاطر الإخبارية.




