أوضحت نماذج الذكاء الاصطناعي: فوائد نماذج AI مفتوحة المصدر

يحتوي برنامج Open Source على عدد من الفوائد على المنتجات التجارية ، ليس أقلها حقيقة أنه يمكن تنزيله مجانًا. هذا يعني أن أي شخص يمكنه تحليل الرمز ، وافتراض أن لديه بيئة الأجهزة والبرامج المناسبة ، يمكنه البدء في استخدام رمز المصدر المفتوح على الفور.
مع الذكاء الاصطناعي (AI) ، هناك جزأين لفتح. يمكن تنزيل الكود المصدري لمحرك الذكاء الاصطناعى نفسه من مستودع ، وفحصه وتشغيله على أجهزة مناسبة تمامًا مثل رمز المصدر المفتوح الآخر. لكن ينطبق فتح أيضًا على نموذج البيانات، مما يعني أنه من الممكن تمامًا أن يقوم شخص ما بتشغيل نموذج منظمة العفو الدولية المحلية تم تدريبه بالفعل.
بمعنى آخر ، مع الأجهزة المناسبة ، يكون المطور مجانيًا في تنزيل نموذج الذكاء الاصطناعى ، وافصل الأجهزة المستهدفة عن الإنترنت وقم بتشغيله محليًا دون خطر تسريب بيانات الاستعلام عن خدمة الذكاء الاصطناعي.
ولأنه مفتوح المصدر ، يمكن تثبيت نموذج الذكاء الاصطناعي محليًا لذلك لا يتحمل التكاليف المرتبطة بنماذج الذكاء الاصطناعى المستضافة السحابية ، والتي يتم شحنها عمومًا بناءً على حجم الاستعلامات المقاسة في الرموز المميزة المقدمة إلى محرك الذكاء الاصطناعي.
كيف يختلف النموذج المفتوح عن الذكاء الاصطناعي التجاري؟
يجب أن تكون جميع البرامج مرخصة. يتم تغيير المنتجات التجارية بشكل متزايد على أساس الاشتراك ، وفي حالة النماذج اللغوية الكبيرة (LLMS) ، ترتبط التكلفة بمبلغ الاستخدام ، بناءً على حجم الرموز المقدمة إلى LLM والأجهزة المستهلكة من حيث ساعات من وحدة معالجة الرسومات (GPU) التي تستخدمها النموذج عند الاستعلام عنها.
مثل كل البرامج المفتوحة المصدر ، يخضع LLM المصدر مفتوحًا لشروط وأحكام نظام الترخيص المستخدم. تضع بعض هذه التراخيص قيودًا على كيفية استخدام البرنامج ، ولكن بشكل عام ، لا توجد رسوم ترخيص مرتبطة بتشغيل نموذج مفتوح محليًا.
ومع ذلك ، هناك رسوم إذا تم تشغيل النموذج المفتوح على البنية التحتية السحابية العامة أو الوصول إليه كخدمة سحابية ، والتي يتم حسابها عادةً بناءً على تم تقديم حجم الرموز إلى LLM برمجيا باستخدام واجهات برمجة التطبيق (APIs).
ما هي فوائد نماذج الذكاء الاصطناعي مفتوح المصدر
بالإضافة إلى حقيقة أنه يمكن تنزيلها ونشرها بشكل محلي دون تكلفة إضافية ، فإن انفتاحهم يساعد على تطوير تطوير النموذج بطريقة مماثلة لكيفية قدرة مجتمع المصدر المفتوح على تحسين المشاريع.
تمامًا مثل مشاريع المصادر المفتوحة الأخرى ، يمكن لأي شخص فحص نموذج AI المصدر مفتوح المصدر. يجب أن يساعد هذا في تحسين جودتها وإزالة الأخطاء والذهاب إلى حد ما لمعالجة التحيز ، عندما تكون بيانات المصدر التي يتم تدريبها على النموذج غير متنوعة بدرجة كافية. يستكشف البودكاست التالي نماذج الذكاء الاصطناعي.
كيف تبدأ في نماذج مفتوحة
توفر معظم طرز الذكاء الاصطناعي وصولًا مجانيًا أو منخفض التكلفة عبر الويب لتمكين الأشخاص من العمل مباشرة مع نظام الذكاء الاصطناعي. غالبًا ما يتم شحن الوصول البرنامجي عبر واجهات برمجة التطبيقات بناءً على حجم الرموز المميزة المقدمة إلى النموذج كبيانات إدخال ، مثل عدد الكلمات في استعلام اللغة الطبيعية. يمكن أن يكون هناك أيضًا رسوم لرموز الإخراج ، وهو مقياس للبيانات التي ينتجها النموذج عندما يستجيب للاستعلام.
نظرًا لأنه مفتوح المصدر ، يمكن تنزيل نموذج مفتوح من مستودع المصدر المفتوح (“repo”) على Github. يحتوي المستودع بشكل عام على تصميمات مختلفة للأنظمة المستهدفة – مثل توزيعات Linux و Windows و MacOS.
ومع ذلك ، على الرغم من أن هذا النهج هو كيف يميل المطورون إلى استخدام رمز المصدر المفتوح ، فقد يكون ذلك بمثابة عملية متورطة للغاية وقد يرغب عالم البيانات في “تجربة” النموذج الأخير ، دون الحاجة إلى الدخول في عملية شاقة إلى حد ما النموذج لأعلى وجري.
خطوة في Hugging Face ، يمكن للأشخاص الذين يرغبون في تجربة نماذج الذكاء الاصطناعي البحث في ما هو متاح واختبارها على مجموعات البيانات من مكان واحد. هناك نسخة مجانية ، ولكن يوفر Hugging Face أيضًا اشتراكًا للمؤسسة وأسعار مختلفة لمطوري نماذج الذكاء الاصطناعى لاستضافة وتشغيل نماذجهم.
https://www.youtube.com/watch؟v=jbffuwl0tyy
خيار آخر هو Ollama ، وهي أداة سطر أوامر مفتوحة المصدر توفر طريقة سهلة نسبيًا لتنزيل LLMs وتشغيلها. للحصول على واجهة مستخدم رسومية كاملة للتفاعل مع LLMS ، من الضروري تشغيل منصة AI مثل Open Webui ، وهو مشروع مفتوح المصدر متاح على Github.
كيف تدعم نماذج AI مفتوحة المصدر أمان تكنولوجيا المعلومات
أثار قادة الأمن السيبراني مخاوف بشأن السهولة التي يمكن للموظفين الوصول إليها LLMs الشعبية ، والتي تعرض مخاطر تسرب البيانات. من بين التسريبات التي تم الإبلاغ عنها على نطاق واسع استخدام Samsung Electronics لـ ChatGPT لمساعدة كود تصحيح المطورين. تم تحميل الرمز – في الواقع ، ملكية Samsung Electronics الفكرية – في LLM Public ThatGPT وأصبحت بشكل فعال في النموذج.
اتخذ عملاق التكنولوجيا بسرعة خطوات لحظر استخدام chatgpt ، ولكن النمو في ما يسمى copilots وصعود AIC AI لديه القدرة على تسرب البيانات. غالبًا ما يزعم مقدمو خدمات البرامج الذين ينشرون تقنية الوكيل أنهم يحتفظون بالبيانات الخاصة للعميل منفصلة تمامًا ، مما يعني أن هذه البيانات لا تستخدم لتدريب نموذج الذكاء الاصطناعي. ولكن ما لم يتم تدريبه بالفعل بأحدث التفكير ، والاختصارات ، وأفضل الممارسات والأخطاء ، فإن النموذج سيصبح سريعًا وقديمًا.
يمكن أن يكون نموذج AI مفتوح تشغيل في صندوق رمل آمن، إما على أساس أو مستضاف في سحابة عامة آمنة. لكن هذا النموذج يمثل لقطة لنموذج الذكاء الاصطناعى الذي أصدره المطور ، وعلى غرار الذكاء الاصطناعى في برنامج المؤسسة ، فإنه سيخرج بسرعة ويصبح غير ذي صلة.
ومع ذلك ، فإن أي المعلومات التي يتم تغذيتها في حدود النموذج ، والتي تسمح للمؤسسات على استعداد لاستثمار الموارد اللازمة لإعادة تدريب النموذج باستخدام هذه المعلومات. في الواقع ، يمكن استخدام محتوى المؤسسة الجديدة والبيانات المهيكلة لتعليم نموذج الذكاء الاصطناعى تفاصيل كيفية عمل الأعمال.
ما هي الأجهزة التي تحتاجها
هناك مقاطع فيديو على YouTube توضح أن LLM مثل نموذج Deepseek-R1 الصيني يمكن تشغيله على جهاز Nvidia Jetson Nano المدمج أو حتى جهاز التوت PI ، باستخدام محول مناسب وبطاقة GPU حديثة نسبيًا. على افتراض أن GPU مدعوم ، فإنه يحتاج أيضًا إلى الكثير من ذاكرة الفيديو (VRAM). هذا لأنه لأفضل أداء ، تحتاج LLM إلى تشغيل الذاكرة على وحدة معالجة الرسومات.
يتطلب الاستدلال ذاكرة أقل وتربيات GPU أقل ، ولكن كلما زادت قوة المعالجة و VRAM ، كلما كان النموذج أسرع في الاستجابة ، كمقياس للرموز التي يمكن أن تقوم بمعالجتها في الثانية. لتدريب LLMS ، يرتفع عدد نوى GPU ومتطلبات VRAM بشكل كبير ، وهو ما يعادل خوادم الذكاء الاصطناعى المكلفة للغاية. حتى إذا تم تشغيل وحدات معالجة الرسومات في السحابة العامة مع الاستخدام المقنن ، فلا يوجد ما يفلت من التكاليف المرتفعة اللازمة لتشغيل أعباء عمل الاستدلال بشكل مستمر.
ومع ذلك ، فإن السعة الهائلة لحساب الطاقة المتوفرة من فرط الفصح تعني أنه قد يكون من التكلفة فعالة من حيث التكلفة لتحميل بيانات التدريب إلى نموذج مفتوح LLM مستضاف في سحابة عامة.
كيفية جعل نماذج AI مفتوحة المصدر أكثر تكلفة للتشغيل
كما يوحي اسمها ، نموذج لغة كبير كبير. تتطلب LLMs مجموعات بيانات ضخمة للتدريب والمزارع الهائلة من الخوادم القوية للتدريب. حتى إذا كان نموذج الذكاء الاصطناعى مفتوح المصدر ، فإن التكلفة الهائلة للأجهزة تعني أن تلك المؤسسات التي هي فقط على استعداد لإجراء استثمارات مقدمة في الأجهزة أو سعة GPU الاحتياطية في السحابة العامة لديها وسيلة لتشغيل LLMs بالكامل.
ولكن لا يحتاج الجميع إلى LLM وهذا هو السبب في أن هناك الكثير من الاهتمام بالنماذج التي يمكن أن تعمل على أجهزة أرخص بكثير. هذه ما يسمى نماذج لغة صغيرة (SLM) أقل حسابًا ، وسيتم تشغيل بعضها على أجهزة الحافة والهواتف الذكية وأجهزة الكمبيوتر الشخصية (انظر الصندوق).