رئيس تطبيق المراسلة الآمنة إشارة حذر من الأمن تداعيات AICERIC AI، حيث يمكن للذكاء الاصطناعي (AI) الوصول إلى الأنظمة لمساعدة الناس على تحقيق مهام معينة.
في جلسة “القرارات المفوضة ، المخاطر المتضخمة” في القمة الأمم المتحدة من أجل القمة الجيدة ، تحدثت ميريديث ويتاكر عن كيفية تعرض أمن الإشارة والتطبيقات الأخرى للخطر من قبل Aulectic AI. وقالت إن الصناعة تنفق مليارات الدولارات على تقدم الذكاء الاصطناعي والرهان على تطوير الوسطاء الأقوياء.
وكمثال على الوصول الذي يتطلبه وكلاء الذكاء الاصطناعى ، قالت: “لإجراء حجز لمطعم ، يجب أن يكون لديه إمكانية الوصول إلى متصفحك للبحث عن المطعم ، ويجب الوصول إلى قائمة جهات الاتصال الخاصة بك ورسائلك حتى يتمكن من إرسال رسالة إلى أصدقائك.
“إن الوصول إلى الإشارة سيؤدي في النهاية إلى تقويض قدرتنا في طبقة التطبيق لتوفير خصوصية قوية وأمن. “
لاحظ Whittaker أنه لكي يقوم وكلاء الذكاء الاصطناعى بوظائفهم بشكل مستقل دون تفاعل المستخدم ، فإنهم يتطلبون وصولًا واسعًا على مستوى الجذر لأنظمة تكنولوجيا المعلومات الخاصة بالمستخدم. مثل هذا الوصول ، كما أشار ويتاكر ، يتعارض مع أفضل الممارسات للأمن السيبراني “بطريقة يعرف أي باحث أو مهندس أمن هنا هو بالضبط نوع المتجه الذي يمكن أن يؤدي فيه نقطة الوصول إلى مجال الوصول أكثر حساسية”.
هناك خطر أمان آخر للوكيل الذكاء الاصطناعى هو أن مكتبات البرامج القديمة ومكونات النظام قد لا تكون آمنة للغاية. “عندما تتيح لنظام AICANCINC AIS الوصول إلى الكثير من حياتك الرقمية ، فإن هذا الوصول المنتشر يخلق متجهًا خطيرًا للهجوم [to target] وحذرت.
ال تطبيق المراسلة إشارة، مثل التطبيقات الأخرى ، يتم تشغيله على طبقة التطبيق في نظام التشغيل ، ويتم تصميمه خصيصًا لعدم استخدام الوصول “الجذر” لتجنب مخاطر الأمن السيبراني.
وقال ويتاكر: “تم تصميم تطبيق Signal Messenger الذي تستخدمه لنظام التشغيل iOS أو Android ، أو نظام تشغيل سطح المكتب ، ولكن في أي من هذه البيئات لن يكون لها الوصول إلى النظام بأكمله. لا يمكن الوصول إلى البيانات في التقويم الخاص بك. لا يمكن الوصول إلى أشياء أخرى”.
عندما تتيح لنظام AICECANIC AIS وصول إلى الكثير من حياتك الرقمية ، فإن هذا الوصول المنتشر يخلق متجهًا خطيرًا للهجوم [to target] ثغرات الأمن
ميريديث ويتاكر ، إشارة
وقالت: “المكان الذي يمكن أن يضمن فيه الإشارة نوع الأمن والخصوصية التي يحتاجها الحكومات والجيشية وعمال حقوق الإنسان وعمال الأمم المتحدة والصحفيين في طبقة التطبيق”.
لكن وكلاء الذكاء الاصطناعى يحتاجون إلى العمل حول هذه القيود الأمنية. وحذرت قائلاً: “نحن نتحدث عن دمج هؤلاء الوكلاء ، غالبًا على مستوى نظام التشغيل ، حيث يتم منح أذونات في طبقة التطبيق”.
بالنسبة إلى Whittaker ، يجب أن تكون طريقة تطوير الوكلاء مصدر قلق لأي شخص تعمل تطبيقاته على طبقة التطبيق في نظام التشغيل ، وهذا هو الحال بالنسبة لغالبية التطبيقات غير النظامية.
وقالت: “أعتقد أن هذا أمر مثير للقلق ، ليس فقط للإشارة ، ولكن لأي شخص موجود تقنيه في طبقة التطبيق”.
لقد استخدمت Spotify كمثال ، قائلة إنها لا ترغب في منح كل شركة أخرى الوصول إلى جميع بياناتها. “هذه معلومات ملكية ، خوارزميات تستخدمها لبيعها إعلانات. لكن الوكيل يأتي الآن من خلال وعد بتوفير قائمة تشغيل وإرسالها إلى أصدقائك على تطبيق المراسلة الخاص بك ، والوكيل لديه الآن الوصول إلى هذه البيانات.”
حذر ويتاكر أيضًا من الحكومات من المخاطر التي تواجهها عند نشر نظام الذكاء الاصطناعي للوصول إلى المعلومات الحساسة الجيوسياسية ، والتي تستخدم واجهة برمجة التطبيقات (API) من أحد مقدمي التكنولوجيا الكبار.
وقالت: “كيف يتم الوصول إلى البيانات عبر أنظمتك؟ كيف يتم تجميع تلك البيانات؟ نعلم أن مجموعة من البيانات هي مصيبة ويمكن أن تكون موردًا مغريًا”.
تعد أنظمة الذكاء الاصطناعى احتمالية وتستقطب مجموعات مختلفة من بيانات التدريب لاشتقاق إجابة معقولة لاستعلام المستخدم.
وأضاف ويتاكر: “الذكاء الاصطناعي ليس شيئًا سحريًا”. “إنها حفنة من النماذج الإحصائية ، وعادةً ما يعتمد عوامل الذكاء الاصطناعي على عدد من الأنواع المختلفة من نماذج الذكاء الاصطناعى ملفوفة في بعض البرامج.”
وحثت المندوبين الذين يفكرون في الذكاء الاصطناعى على تقييم الوصول إلى البيانات التي تتطلبها هذه الأنظمة وفهم كيفية تحقيق نتائجهم.
الطريقة التي يتم بها تدريب نماذج الذكاء الاصطناعي على محتوى المؤسسة كانت موضوع حديث كومباني الأسبوعي بودكاست مع محلل غارتنر نادر هاينن، الذين ناقشوا الحاجة إلى التحكم في الوصول داخل محرك الذكاء الاصطناعى حتى يتمكن من فهم مجموعات البيانات التي يُسمح للمستخدم برؤية.
حذر Heinen من أنه ما لم يكن هذا التحكم في الوصول إلى محرك الذكاء الاصطناعي ، فهناك خطر حقيقي للغاية ، فإنه سيكشف عن غير قصد معلومات للأشخاص الذين لا ينبغي أن يحصلوا على هذه المعلومات.
تتمثل إحدى الأساليب التي يرى هاينن كوسيلة ممكنة لتجنب تسرب البيانات الداخلية في نشر نماذج لغة صغيرة. هنا ، يتم تدريب نماذج الذكاء الاصطناعى ونشرها ، بناءً على مجموعات فرعية من بيانات المؤسسة ، والتي تتماشى مع سياسات الوصول إلى البيانات لفئات المستخدمين.
وقال هينين إن مثل هذه السياسة يمكن أن تكون باهظة الثمن بشكل لا يصدق ومعقدة بشكل لا يصدق ، لكنها أضافت: “قد يكون هذا هو الطريق إلى الأمام لكثير من الحالات”.
يبيع مقدمو الذكاء الاصطناعى الرئيسيين بعض هذه التكنولوجيا لقطاع الدفاع. إنه شيء يحث أحد مقدمي العروض في منظمة العفو الدولية للمؤتمر الجيد للمندوبين على أن يكونوا حذرين.
كيف أن البيانات التي يجمعها هؤلاء مقدمو الخدمات في كل مرة يتم فيها استخدام واجهة برمجة تطبيقات الذكاء الاصطناعى هي شيء يحتاج كل صانع قرار تجاري وخبير الأمن السيبراني في القطاع العام والخاص.