6 اتجاهات أمنية متعلقة بالذكاء الاصطناعي يجب مراقبتها في عام 2025
يتوقع معظم محللي الصناعة أن تقوم المؤسسات بتسريع الجهود الرامية إلى تسخير الذكاء الاصطناعي التوليدي (GenAI) ونماذج اللغات الكبيرة (LLMs) في مجموعة متنوعة من حالات الاستخدام خلال العام المقبل.
تشمل الأمثلة النموذجية دعم العملاء، واكتشاف الاحتيال، وإنشاء المحتوى، وتحليلات البيانات، وإدارة المعرفة، وتطوير البرمجيات بشكل متزايد. حديثة استطلاع شمل 1700 متخصص في تكنولوجيا المعلومات التي أجرتها Centent نيابة عن OutSystems، وصف 81% من المشاركين مؤسساتهم بأنها تستخدم حاليًا GenAI للمساعدة في البرمجة وتطوير البرمجيات. ويخطط ما يقرب من ثلاثة أرباع المشاركين (74%) لإنشاء 10 تطبيقات أو أكثر على مدار الـ 12 شهرًا القادمة باستخدام أساليب التطوير المدعومة بالذكاء الاصطناعي.
وفي حين أن حالات الاستخدام هذه تعد بتحقيق مكاسب كبيرة في الكفاءة والإنتاجية للمؤسسات، فإنها تقدم أيضًا مخاطر جديدة تتعلق بالخصوصية والحوكمة والأمان. فيما يلي ستة مشكلات أمنية متعلقة بالذكاء الاصطناعي يقول خبراء الصناعة إنه يجب على قادة تكنولوجيا المعلومات والأمن الاهتمام بها خلال الأشهر الـ 12 المقبلة.