تحظى الذكاء الاصطناعي مفتوح المصدر بشعبية متزايدة ولكنه ليس خاليًا من المخاطر

تنفجر مشاريع الذكاء الاصطناعي مفتوح المصدر وتساهم في تقدير PWC 15.7 تريليون دولار تأثير ستحصل الذكاء الاصطناعي على الاقتصاد العالمي بحلول عام 2030. ومع ذلك ، ترددت بعض المؤسسات في احتضان الذكاء الاصطناعي تمامًا.
في عام 2023 ، وجد VentureBeat ذلك أثناء أكثر من 70 ٪ من الشركات كانوا يجربون الذكاء الاصطناعي ، فقط 20 ٪ كانوا على استعداد وقادر على الاستثمار أكثر.
توفر الأدوات المفتوحة المصدر للمؤسسات فعالة من حيث التكلفة ، ويمكن الوصول إليها من الذكاء الاصطناعي مع فوائد بما في ذلك التخصيص والشفافية واستقلال النظام الأساسي. ولكنه يحمل أيضًا تكاليف ضخمة للمنفذ. مع توسيع المؤسسات تجربتها من الذكاء الاصطناعي ، تصبح إدارة هذه المخاطر أمرًا بالغ الأهمية.
المخاطر رقم 1: بيانات التدريب
تعتمد العديد من أدوات الذكاء الاصطناعي على متاجر تدريب شاسعة لتطوير النماذج وإنشاء المخرجات. على سبيل المثال ، تم تدريب GPT-3.5 من Openai على 570 جيجابت من بيانات النص عبر الإنترنت، تقريبا 300 مليار كلمة.
تتطلب النماذج الأكثر تقدماً مجموعات بيانات أكبر وأقل شفافية في كثير من الأحيان. يتم إصدار بعض أدوات AI مفتوحة المصدر بدون إفصاحات لمجموعة البيانات أو مع إفصاحات هائلة ، مما يحد من تقييمات النماذج المفيدة وتشكيل المخاطر المحتملة. على سبيل المثال ، أ أداة توليد الكود AI يمكن تدريبها على مجموعات بيانات خاصة مرخصة دون إذن ، مما يؤدي إلى إخراج غير مرخص ، والمسؤولية المحتملة.
لا تزال أدوات AI مفتوحة المصدر باستخدام مجموعات البيانات المفتوحة تواجه تحديات ، مثل تقييم جودة البيانات لضمان عدم تالف مجموعة البيانات ، ويتم الحفاظ عليها بانتظام ، وتتضمن بيانات مناسبة للغرض المقصود للأداة.
بغض النظر عن أصول البيانات ، يجب على الشركات مراجعة مصادر البيانات التدريبية بعناية وتكييف مجموعات البيانات المستقبلية لحالة الاستخدام ، حيثما أمكن.
المخاطر رقم 2: الترخيص
البيانات المناسبة والنموذج والإخراج تقدم مشكلات معقدة لانتشار الذكاء الاصطناعي. يناقش مجتمع المصدر المفتوح مدى ملاءمة تراخيص البرامج التقليدية مفتوحة المصدر لنماذج الذكاء الاصطناعى.
الترخيص الحالي تتراوح بين قيود الاستخدام الجزئي ، ولكن معايير غير واضحة للتأهل كـ “المصدر المفتوح” يمكن أن تؤدي إلى ارتباك ترخيص. يمكن أن يتدفق سؤال الترخيص في اتجاه مجرى النهر: إذا كان النموذج ينتج إخراجًا من مصدر برخصة فيروسية ، فقد تحتاج إلى الالتزام بمتطلبات هذا الترخيص.
مع تطور النماذج ومجموعات البيانات باستمرار ، قم بتقييم ترخيص كل أداة AI مقابل حالة الاستخدام التي اخترتها. يجب أن تساعدك الفرق القانونية في فهم القيود والقيود والمتطلبات الأخرى ، مثل الإسناد أو تدفق المصطلحات.
المخاطر رقم 3: الخصوصية
مع ظهور لوائح الذكاء الاصطناعى العالمي والمناقشات تدور حول سوء استخدام نماذج المصدر المفتوح، يجب على الشركات تقييم المخاوف التنظيمية والخصوصية لمداخل تقنية الذكاء الاصطناعي.
في هذه المرحلة ، كن شاملًا في تقييمات المخاطر الخاصة بك. اطرح على بائعي الذكاء الاصطناعى أسئلة مستهدفة ، مثل:
-
هل تستخدم الأداة إلغاء تحديد الهوية لإزالة المعلومات الشخصية (PII) ، وخاصة من مجموعات البيانات والمخرجات التدريبية؟
-
أين يتم تخزين بيانات التدريب وبيانات الضبط ونسخها ومعالجتها؟
-
كيف يقوم البائع بمراجعة واختبار الدقة والتحيز ، وعلى أي إيقاع؟
-
هل هناك طريقة للاضطراب أو خارج جمع البيانات؟
حيثما أمكن ، تنفيذ شرح قابلية الذكاء الاصطناعي وعمليات المراجعة البشرية. بناء الثقة وقيمة العمل من الذكاء الاصطناعى من خلال فهم النموذج ومجموعات البيانات بما يكفي لشرح سبب إرجاع الذكاء الاصطناعى إلى إخراج معين.
المخاطر رقم 4: الأمن
تعود فوائد الأمان الخاصة بالبرنامج المفتوح المصدر في وقت واحد إلى المخاطر الأمنية. يمكن نشر العديد من نماذج المصدر المفتوح في بيئتك ، مما يمنحك فائدة عناصر التحكم في الأمان. ومع ذلك ، يمكن أن تعرض نماذج المصدر المفتوح التهديدات الجديدة ، بما في ذلك معالجة المخرجات والمحتوى الضار من قبل الممثلين السيئين.
CAN AI Tech Startups التي تقدم الأدوات المبنية على Open AI Can تفتقر إلى الأمن السيبراني الكافيأو فرق الأمن أو ممارسات التطوير والصيانة الآمنة. يجب على المنظمات التي تقيم هؤلاء البائعين طرح الأسئلة المستهدفة ، مثل:
-
هل يعالج المشروع المفتوح قضايا الأمن السيبراني؟
-
هل المطورين المشاركين في المشروع يوضحون ممارسات آمنة مثل تلك التي حددتها owasp؟
-
هل تم علاج نقاط الضعف والأخطاء على الفور من قبل المجتمع؟
يجب أن تستمر المؤسسات التي تجرب أدوات الذكاء الاصطناعي بعد السياسات والعمليات والمعايير والمتطلبات القانونية الداخلية. النظر في أفضل الممارسات الأمنية مثل:
-
يجب أن يظل رمز المصدر للأداة خاضعين لمسح الضعف.
-
تمكين حماية الفرع لتكامل الذكاء الاصطناعي.
-
يجب تشفير الترابط في قواعد النقل وقواعد البيانات في الراحة.
-
إنشاء حماية الحدود لحالات الهندسة المعمارية والاستخدام.
سيخدم الموقف الأمني القوي الشركات بشكل جيد في استكشافات الذكاء الاصطناعي.
المخاطر رقم 5: التكامل والأداء
تكامل وأداء أدوات الذكاء الاصطناعى المسائل لحالات الاستخدام الداخلية والخارجية في المؤسسة.
يمكن أن يؤثر التكامل على العديد من العناصر الداخلية ، مثل خطوط أنابيب البيانات والنماذج الأخرى وأدوات التحليلات ، وزيادة التعرض للمخاطر وأداء المنتج. يمكن للأدوات أيضًا تقديم تبعيات عند التكامل ، مثل المصدر المفتوح قواعد بيانات المتجهات دعم وظائف النموذج. فكر في كيفية تأثير هذه العناصر على تكامل الأدوات واستخدامها ، وتحديد التعديلات الإضافية اللازمة.
بعد التكامل ، مراقبة تأثير الذكاء الاصطناعي على أداء النظام. قد لا يحمل بائعو الذكاء الاصطناعى ضمان أداء ، مما يتسبب في التعامل مع مؤسستك في التعامل مع التنمية إذا لم تفي الذكاء الاصطناعى مفتوح المصدر بتوقعاتك. التكاليف المرتبطة بالحفاظ على وظائف الذكاء الاصطناعي وتوسيع نطاقها ، بما في ذلك تنظيف البيانات ووقت خبرة الموضوع، تسلق بسرعة.
تعرف قبل أن تذهب مفتوح المصدر
توفر أدوات AI مفتوحة المصدر للمؤسسات وسيلة يمكن الوصول إليها وبأسعار معقولة لتسريع الابتكار. ومع ذلك ، يتطلب التنفيذ الناجح التدقيق والامتثال الاستباقي والموقف الأمني. ستضمن استراتيجية التقييم المتعمدة للتكاليف الخفية واعتبارات الاستفادة من الذكاء الاصطناعي مفتوح المصدر الاستخدام الأخلاقي والذكاء.