الذكاء الاصطناعي والامتثال: ما هي المخاطر؟

يمنح النمو السريع للذكاء الاصطناعي (AI) ، وخاصة الذكاء الاصطناعي (Genai) و chatbots ، الشركات ثروة من الفرص لتحسين الطريقة التي يعملون بها مع العملاء ، وقيادة الكفاءة وتسريع المهام المكثفة في العمالة.
لكن جيناي جلبت مشاكل أيضًا. هذه تتراوح بين عيوب الأمن ومخاوف الخصوصية إلى أسئلة حول التحيز والدقة والنجو الهلوسة، حيث استجابة الذكاء الاصطناعى غير صحيحة تماما.
من المفهوم أن هذا قد لفت انتباه المشرعين والمنظمين. وفي الوقت نفسه ، وجدت وظائف الامتثال الداخلية للعملاء أنفسهم يلعبون اللحاق بالركب بتقنية سريعة النمو ومعقدة.
في هذه المقالة ، ننظر إلى الذكاء الاصطناعى والمخاطر المحتملة التي تشكلها الامتثال للبيئات القانونية والتنظيمية. كل هذا يعني أن فرق الامتثال للمنظمة تحتاج إلى إلقاء نظرة جيدة تحت غطاء محرك السيارة عند استخدامها لـ Genai لتحديد نقاط الضعف ونقاط الضعف ، وفقط مدى موثوقية بيانات المصدر والإخراج.
تشمل مشاريع AI الأكثر شيوعًا في معظمها Genai ، أو نماذج لغة كبيرة (LLMS). هذه تعمل كـ chatbots ، أو الإجابة على استفسارات أو تقديم توصيات المنتج للعملاء. يعد البحث أو تلخيص أو ترجمة المستندات حالة استخدام شعبية أخرى.
لكن الذكاء الاصطناعى قيد الاستخدام أيضًا في مجالات مثل الكشف عن الاحتيال والمراقبة والتصوير الطبي والتشخيص ؛ جميع المناطق التي تكون فيها المخاطر أعلى بكثير. وقد أدى ذلك إلى أسئلة حول كيفية استخدام الذكاء الاصطناعي أو ما إذا.
وجدت المؤسسات أنظمة الذكاء الاصطناعى يمكن أن تنتج أخطاء ، وكذلك نتائج غير دقيقة أو مضللة.
بيانات سرية
تسربت أدوات الذكاء الاصطناعى أيضًا بيانات سرية ، إما مباشرة أو لأن الموظفين قاموا بتحميل مستندات سرية إلى أداة الذكاء الاصطناعى.
ثم هناك تحيز. أحدث خوارزميات الذكاء الاصطناعي ، وخاصة في LLMS ، معقدة للغاية. هذا يجعل من الصعب فهم بالضبط كيف توصل نظام الذكاء الاصطناعي إلى استنتاجاته. بالنسبة للمؤسسة ، فإن هذا بدوره يجعل من الصعب شرح أو حتى تبرير أداة AI ، مثل chatbot ،.
هذا يخلق مجموعة من المخاطر ، وخاصة بالنسبة للشركات في الصناعات المنظمة والقطاع العام. يقوم المنظمون بسرعة بتحديث أطر الامتثال الحالية لتغطية مخاطر الذكاء الاصطناعي ، بالإضافة إلى التشريعات مثل قانون الاتحاد الأوروبي (الاتحاد الأوروبي) الذكاء الاصطناعي.
يحدد الأبحاث التي أجراها محلل الصناعة فورستر أكثر من 20 تهديدًا جديدًا ناتجًا عن Genai ، وبعضها يتعلق بالأمان. وتشمل هذه الفشل في استخدام رمز آمن لبناء أنظمة الذكاء الاصطناعى ، أو الجهات الفاعلة الضارة التي العبث مع نماذج الذكاء الاصطناعى. البعض الآخر ، مثل تسرب البيانات ، العبث بالبيانات وعدم تكامل البيانات ، والمخاطر التي تسبب فشل تنظيمي حتى عندما يكون النموذج آمنًا.
يزداد الأمر سوءًا بسبب نمو “Shadow AI” ، حيث يستخدم الموظفون أدوات الذكاء الاصطناعي بشكل غير رسمي. “من المحتمل أن تكون عمليات النشر الأكثر شيوعًا هي تلك التي لا تدركها المؤسسات” ، كما يحذر جيمس بور ، المستشار الذي يعمل في الأمن والامتثال.
“يتراوح هذا بين الظل في الإدارات ، إلى الأفراد الذين يقومون بتغذية بيانات الشركات إلى الذكاء الاصطناعي لتبسيط أدوارهم. معظم الشركات لم تفكر تمامًا في الامتثال حول الذكاء الاصطناعي ، وحتى أولئك الذين لديهم ضوابط محدودة لمنع سوء الاستخدام.”
وهذا يتطلب من كبار موظفي المعلومات (CIOS) وضباط البيانات أن ينظروا إلى جميع الطرق التي قد يتم بها استخدام الذكاء الاصطناعي في جميع أنحاء العمل ووضع تدابير التحكم في مكانها.
مشكلة بيانات مصدر الذكاء الاصطناعي
المجال الأول للمؤسسات للتحكم هو كيفية استخدام البيانات مع الذكاء الاصطناعي. هذا ينطبق على التدريب النموذجي ، وإلى الاستدلال ، أو الإنتاج ، مرحلة الذكاء الاصطناعي.
يجب على المؤسسات التحقق من أن لديها حقوق استخدام البيانات لأغراض الذكاء الاصطناعي. وهذا يشمل حقوق الطبع والنشر ، خاصة بالنسبة لبيانات الطرف الثالث. تتم تغطية المعلومات الشخصية القابلة للتحديد المستخدمة في الذكاء الاصطناعى بواسطة لائحة حماية البيانات العامة (GDPR) ولوائح الصناعة. لا ينبغي أن تفترض المؤسسات موافقة معالجة البيانات الحالية تطبيقات الذكاء الاصطناعي.
ثم هناك مسألة جودة البيانات. إذا كانت المؤسسة تستخدم بيانات ذات جودة سيئة لتدريب النموذج ، فستكون النتائج غير دقيقة أو مضللة.
هذا ، بدوره ، يخلق مخاطر الامتثال – وقد لا تتم إزالة هذه المخاطر ، حتى لو كانت المؤسسة تستخدم بيانات مجهولة الهوية.
“لا تزال بيانات المصدر واحدة من أكثر مجالات المخاطر التي يتم تجاهلها في مؤسسة AI ، تحذر Ralf Lindenlaub ، كبير موظفي الحلول في Sify Technologies ، ومزود خدمات تكنولوجيا المعلومات والخدمات السحابية. يمكن إعادة تحديد الكثير من هذه البيانات أو تحمل تحيز نظامي.
“تفشل البيانات العامة المستخدمة في نماذج اللغة الكبيرة من مزودي التكنولوجيا العالميين في تلبية معايير الخصوصية الأوروبية. لكي تكون الذكاء الاصطناعى موثوقة حقًا ، يجب على المنظمات تنظيم ومراقبة مجموعات البيانات التي يستخدمونها بعناية ، خاصةً عندما تؤثر النماذج على القرارات التي تؤثر على الأفراد أو النتائج المنظمة.”
يأتي مستوى آخر من التعقيد مع نماذج الذكاء الاصطناعى. على الرغم من أن الاهتمام بذكاء الذكاء الاصطناعى المحلي ينمو ، إلا أن LLMs الأكثر شيوعًا تعتمد على السحابة. تحتاج الشركات إلى التحقق من وجود إذن لنقل البيانات إلى حيث يقوم الموردون السحابيون بتخزينها.
مخرجات الذكاء الاصطناعي والامتثال
تنطبق مجموعة أخرى من الامتثال والقضايا التنظيمية على مخرجات نماذج الذكاء الاصطناعي.
المخاطر الأكثر وضوحا هي أن النتائج السرية من الذكاء الاصطناعى تسربت أو سرقتها. وبينما تربط الشركات أنظمة الذكاء الاصطناعى الخاصة بها بالمستندات أو مصادر البيانات الداخلية ، تزداد المخاطر.
كانت هناك حالات تعرض فيها مستخدمو الذكاء الاصطناعى معلومات سرية إما بشكل ضار أو عن غير قصد من خلال مطالباتهم. سبب واحد استخدام البيانات السرية لتدريب النماذج، دون ضمانات مناسبة.
ثم هناك خطر أن ناتج نموذج الذكاء الاصطناعي هو ببساطة خطأ.
“يمكن أن تبدو مخرجات الذكاء الاصطناعى واثقة ولكن تكون خاطئة تمامًا ، أو متحيزة ، أو حتى تفاوئة الخصوصية” ، يحذر Lindenlaub من Sify. “غالبًا ما تقلل المؤسسات من مدى إتلاف النتيجة المعيبة ، من التوظيف التمييزي إلى المشورة القانونية أو المالية غير الصحيحة. وبدون التحقق الصارم والإشراف على الإنسان ، تصبح هذه المخاطر التزامات تشغيلية.”
والمخاطر لا تزال أكبر مع أنظمة الذكاء الاصطناعي “Agentic” ، حيث يعمل عدد من النماذج معًا لتشغيل عملية تجارية. إذا كان الإخراج من نموذج واحد خاطئًا ، أو متحيزًا ، فسيتم تضمين هذا الخطأ أثناء انتقاله من وكيل إلى وكيل.
قد تكون العواقب التنظيمية شديدة ، لأن الناتج الخاطئ الذي قد يؤدي إلى رفض العديد من العملاء الائتمان أو رفضوا مقابلة عمل.
يقول جيمس بور: “المشكلة الأكثر وضوحًا في المخرجات من الذكاء الاصطناعى هي أنها تولد اللغة ، وليس المعلومات”. “على الرغم من الطريقة التي يتم بها تقديمها ، لا تحلل LLMs ، إلا أنها لا تتمتع بأي فهم ، أو حتى أوزان للحقيقة مقابل الخيال ، باستثناء تلك المدمجة فيها عند تدريبهم.
ويضيف قائلاً: “إنهم يهلون بعنف ، والأسوأ من ذلك أنهم يفعلون ذلك بطرق مقنعة للغاية ، لأنهم يجيدون اللغة”. “لا يمكن الوثوق بها أبدًا دون التحقق الشامل للحقائق-وليس من قبل LLM آخر.”
يمكن للمؤسسات ، والقيام ، استخدام الذكاء الاصطناعى بطريقة متوافقة ، ولكن بحاجة إلى مديري تقنية المعلومات والموظفين الرقميين إلى إيلاء الاعتبار الدقيق لمخاطر الامتثال في التدريب والاستدلال وكيفية استخدامهم لنتائج الذكاء الاصطناعي.


