الأمن السيبراني

إلى الجحيم والعودة إلى الذكاء الاصطناعي: العثور على الخلاص من خلال التعاطف


تأخذ إحدى المحللات في شركة Forrester جمهورها في رحلة إلى أعماق المخاطر الأمنية لشركة GenAI وتقول إنه يمكن العثور على جنة التكنولوجيا على الجانب الآخر.

أثبتت قصيدة “الجحيم” لدانتي، وهي القصيدة الملحمية من “الكوميديا ​​الإلهية” والتي تجر بطل الرواية عبر تسع دوائر من الجحيم، أنها تشبيه مناسب للانفجار المفاجئ في استخدام الذكاء الاصطناعي في صناعة التكنولوجيا وخارجها، حيث تنتظر المخاطر الأمنية الجهنمية وعقبات الامتثال .

لكن الأمر كذلك بالنسبة للمكافآت السماوية، وفقًا للمحلل الرئيسي لشركة Forrester، إنزا إيانوبولو، الذي اختتمت كلمته الرئيسية حدث الأمن والمخاطر الذي نظمته الشركة هذا الأسبوع في واشنطن العاصمة. لقد كان خاتمة مناسبة لحدث تركز على التكنولوجيا الناشئة للذكاء الاصطناعي التوليدي (GenAI). ومخاطرها ومكافآتها العميقة.

لقد أثبت الإصدار العام لنموذج اللغة الكبيرة ChatGPT الخاص بـ OpenAI أنه حدث تحول نموذجي – حيث تحاول الحكومات والمنظمات في جميع أنحاء العالم صياغة الضمانات بسرعة مع تنفيذ التكنولوجيا بوتيرة خاطفة.

العثور على “الأدلة” الصحيحة

احتاج دانتي إلى مرشدين لمساعدته في رحلته عبر الجحيم. وقال إيانوبولو إنه في مشهد الذكاء الاصطناعي الحديث، سيحتاج قادة الأعمال إلى أدلة خاصة بهم. وقالت للجمهور: “مرحبًا بكم في دوائر الجحيم التسع”. “هذا هو المكان الذي يهلوس فيه الذكاء الاصطناعي، حيث ينتج الذكاء الاصطناعي التحيز والتمييز… الجحيم هو المكان الذي تحدث فيه إساءة استخدام الملكية الفكرية وانتهاكات الخصوصية والانتهاكات الأمنية.”

متعلق ب:كيفية اختيار مستشار الذكاء الاصطناعي المؤهل

قال إيانوبولو إن المرشدين الذين يساعدون في AI Hell يمكن أن يأتوا من تكنولوجيا المعلومات أو التسويق أو الفريق التنفيذي. “جميعهم يفهمون الفرصة المذهلة للذكاء الاصطناعي التوليدي والقوة التحويلية التي لا مثيل لها للتكنولوجيا الجديدة. وهم يعلمون أنه بدون الأمن والخصوصية وإدارة المخاطر الكافية.

وفقًا لبحث Forrester، قال 36% من المشاركين في تلك المجموعات إن الخصوصية والأمن هما أكبر العوائق أمام اعتماد الذكاء الاصطناعي بشكل توليدي، بينما قال 31% آخرون إن الحوكمة والمخاطر هما أكبر عقبة. وأشار 61% آخرون إلى مخاوف من أن GenAI قد تنتهك قوانين الخصوصية وحماية البيانات مثل اللائحة العامة لحماية البيانات في الاتحاد الأوروبي.

وقالت: “لذلك، المخاوف موجودة”. “ولكن تذكر أن الجحيم مكان ارتباك.”

مع ظهور المزيد من الأطر عبر الإنترنت – المزيد من اللوائح، قد يكون هناك ارتباك أقل وستساعد الأدلة الشركات على تقييم اعتمادها للذكاء الاصطناعي. “قد تكون نقطة انطلاقنا هنا للتفكير حقًا فيما يتعلق بالبدء في تحديد حالات استخدام الذكاء الاصطناعي والذكاء الاصطناعي التوليدي.”

حفرة توقف في المطهر

بمجرد خروجك من AI Hell، مثل Dante، فإن قصتك لن تكتمل. كان على دانتي أن يتوقف أولاً في المطهر. وبعد قضاء بعض الوقت في AI Hell في التعامل مع مسائل المخاطر والتهديدات، ستحتاج الشركات إلى اكتشاف استراتيجية للامتثال.

متعلق ب:بايدن يصدر أمراً تنفيذياً بارزاً بشأن الذكاء الاصطناعي

يؤكد إيانوبولو أنه يمكن تعريف مطهر الذكاء الاصطناعي بأنه مكان للعقاب والتطهير. “أليس هذا هو التعريف الأمثل للامتثال؟ العقاب والتطهير؟ “المطهر ليس مخيفًا مثل الجحيم، لكنه لا يزال مكانًا مخيفًا جدًا.”

وقالت: وبالنسبة لهذا المكان المخيف من مطهر الامتثال، ستحتاج إلى دليل أيضًا. “من سيكون الشخص الذي سيأخذك إلى المطهر؟ ربما يكون مسؤول البيانات الرئيسي لديك.”

وأظهرت الدراسة أن 37% من الشركات قالت إنها تعمل على تحديث السياسات الحالية لتشمل الذكاء الاصطناعي التوليدي، بينما قالت 64% إنها تعمل على تنفيذ سياسة جديدة تمامًا. وقال 30% آخرون إنهم ليس لديهم خطط للذكاء الاصطناعي التوليدي. تتراكم القوانين الجديدة التي تؤثر على خصوصية البيانات والذكاء الاصطناعي في الخارج وفي الولايات المتحدة.

“على الرغم من أننا قد نشعر أنه من السابق لأوانه البدء في التفكير في متطلبات محددة، إلا أنني أستطيع أن أخبرك أن الكثير من عملائنا يعملون بالفعل على تشكيل الفريق الذي سيعمل على تحقيق الامتثال لهذه المتطلبات الجديدة،” إيانوبولو قال. “إذا كنت تريد البدء في التفكير في فريق أحلامك، فأنت بحاجة إلى بطل تنفيذي – ربما يكون هذا هو كبير مسؤولي البيانات، وربما يكون هذا هو مديرك التنفيذي، وربما تكون أنت نفسك. لكنك تحتاج إلى بطل تنفيذي… وتريده أن يحدد أسلوب المبادرة، وهو الشخص الذي سيمتلك خريطة طريق الامتثال الخاصة بك.

متعلق ب:كيف سيغير الذكاء الاصطناعي دور CISO؟

التعاطف والجنة

واستشهد إيانوبولو بدراسة تظهر أنه عندما سئل المستهلكون عن السمات التي يبحث عنها المستهلكون في العلامات التجارية والمؤسسات، كان التعاطف هو السمة التي احتلت باستمرار مرتبة عالية في القائمة. “ولا تخبرك أي من مسودات اللوائح أو المبادئ التوجيهية بأن هناك تركيزًا على التعاطف الذي سيساعدنا في تقديم ذكاء اصطناعي جدير بالثقة.

إنها تساوي “الجنة” بتقديم ذكاء اصطناعي جدير بالثقة. من سيكون الشركاء في تقديم الذكاء الاصطناعي في هذه الجنة؟ “إذا كان لديك مسؤول ثقة رئيسي، فانتقل إليه، وانتقل إلى قسم تكنولوجيا المعلومات والموارد البشرية… فهؤلاء هم بعض الخبراء الذين تحتاجهم في مجتمعك للحصول على ذكاء اصطناعي جدير بالثقة.”

وتؤكد أنه لكي تقنع المستهلكين أو العملاء بعروض الذكاء الاصطناعي التي تقدمها، ستحتاج إلى استخدام التعاطف. “التعاطف هو القدرة على فهم المستهلكين والموظفين ومشاعر المواطنين واحتياجاتهم، والقدرة على التصرف بناءً على تلك الاحتياجات.”

وأضافت: “إنها رحلة طويلة أمامنا”.





Source link

زر الذهاب إلى الأعلى