الأمن السيبراني

هل يجب أن تشعر بالرضا تجاه الذكاء الاصطناعي للعاطفة؟


وبينما يتعلم الذكاء الاصطناعي كيفية تفسير المشاعر البشرية والاستجابة لها، يجب على قادة تكنولوجيا المعلومات البدء في التفكير في الكيفية التي يمكن أن يلعب بها الذكاء الاصطناعي العاطفي دورًا حاسمًا في مؤسساتهم وأسواقهم.

على الرغم من اسمه، إلا أن الذكاء الاصطناعي للعاطفة لا يشير إلى جهاز كمبيوتر غاضب. إنها في الواقع العلامة المطبقة على شكل من أشكال الذكاء الاصطناعي الذي، من خلال التدريب والتعلم الآلي، قادر على تحليل وفهم وربما حتى تكرار المشاعر البشرية، كما يقول مايكل أرمسترونج، مدير التكنولوجيا في شركة Authenticx لتطوير الرعاية الصحية للذكاء التحادثي.

ويضيف خوسيه مويا، مدير التوعية في مطور البرامج المخصصة Capicua Full Stack Creative Hub، أن Emotion AI هو فرع من الذكاء الاصطناعي يهدف إلى التعرف على المشاعر البشرية وتفسيرها والاستجابة لها.

التطبيقات المحتملة

لدى Emotion AI العديد من التطبيقات الممكنة، خاصة في خدمة العملاء. يقول أرمسترونج: “يمكنه، على سبيل المثال، التعرف على الفرق بين مكالمة عميل غاضبة أو متحمسة، وتوجيه المكالمات إلى الوكيل الأفضل تجهيزًا لمعالجة مخاوف المتصل”. ويمكن للتكنولوجيا أيضًا تحليل أنماط الكلام المماثلة لتقديم رؤى في الوقت الفعلي، بما في ذلك توصيات حول كيفية التعامل مع مكالمة عميل معينة. “لقد تم استخدامه بالفعل للكشف عن الاحتيال في مجال التأمين، حيث يستخدم الذكاء الاصطناعي التحليل الصوتي للمساعدة في اكتشاف ما إذا كان الشخص الذي يتصل لتقديم مطالبة يكذب.”

يمكن للذكاء الاصطناعي العاطفي أيضًا استخدام تحليل الكلام لتقييم نجاح المكالمة أو فشلها. على سبيل المثال، هل كان العميل سعيدًا وراضيًا بنهاية المكالمة، أم أن صوته يشير إلى الإحباط أو الغضب؟ يوضح أرمسترونج أنه يمكن استخدام النتائج المجمعة لتحديد نقاط الألم المستمرة التي لا تستطيع عوامل حلها في كثير من الأحيان.

ويتوقع وي “كوكو” شو، أستاذ علوم الكمبيوتر في معهد جورجيا للتكنولوجيا والباحث في معهد AI-CARING التابع لمؤسسة العلوم الوطنية، أن تمتد التطبيقات إلى ما هو أبعد من الأعمال. وتقول: “تخيل أن يكون لديك كلب آلي أليف يتفاعل مثل كلب حقيقي بناءً على مشاعر الناس”. “سيكون رعاية الروبوت أسهل من رعاية كلب حقيقي مع توفير الرفقة لمالكه المسن.” يتمتع الذكاء الاصطناعي العاطفي أيضًا بالقدرة على تحسين العلاج النفسي، مما يجعله متاحًا بسهولة أكبر وعلى نطاق واسع. ينصح شو قائلاً: “من الواضح أن هناك حاجة إلى توخي الحذر فيما يتعلق بهذا الأمر وغيره من التطبيقات عالية المخاطر”.

مع تطور الذكاء الاصطناعي للعواطف، تتوقع أرمسترونج أنه سيتم تطبيقه بشكل متزايد على التسويق، مما يساعد الشركات على تقييم ردود أفعال العملاء تجاه المنتجات والخدمات الجديدة. وعلى الجانب الآخر، يشير إلى أن مندوبي خدمة العملاء يستخدمون بالفعل أجهزة محاكاة متطورة للذكاء الاصطناعي في تدريبهم. “تقوم أجهزة المحاكاة التي تعمل بالذكاء الاصطناعي بتغيير وتكييف الاستجابات بناءً على مدخلات المندوبين، وتقييم مستويات التعاطف والقدرة على مساعدة العملاء.”

المخاطر المقبلة

يقول شو إن فرق تكنولوجيا المعلومات ستحتاج إلى تثقيف نفسها باستمرار حول الجوانب الفنية والأخلاقية للذكاء الاصطناعي العاطفي من أجل الحد من احتمالية سوء الفهم وسوء الاستخدام.

الذكاء الاصطناعي للعاطفة هو تقنية مرنة. ينصح أرمسترونج بأنه يجب على المبرمجين مراجعة نماذج البيانات وتدريبها باستمرار لضمان الدقة والموثوقية المستمرة. ويشير إلى أن “جزءًا من هذا التدريب يجب أن يتضمن بيانات صناعية خاصة بالمجال”. “وإلا فإن المؤسسات تخاطر بالحصول على تفسيرات غير دقيقة ونتائج مشوهة، مما يؤثر سلبًا على أي رؤى تستخدم لاتخاذ قرارات العمل.”

الرقابة والتنظيم

في حين أن الذكاء الاصطناعي العاطفي يحمل وعدًا كبيرًا، وتطبيقاته في الصحة العقلية وخدمة العملاء والتسويق متعددة ومثيرة للاهتمام، فإن التكنولوجيا تثير أيضًا العديد من المخاوف الأخلاقية. يقول مويا: “إن الخصوصية والموافقة، ودقة التفسير، واحتمال إساءة استخدام البيانات العاطفية كلها اعتبارات صحيحة”.

يمكن استخدام الذكاء الاصطناعي الذي يتمتع بالقدرة على فهم المشاعر البشرية بطرق تضر بخصوصية المستخدم من خلال مراقبة وتحليل ردود الفعل العاطفية تجاه المحتوى أو المعلومات، كما يلاحظ خبير الخصوصية الرقمية راي والش، مع شركة تعليم الخصوصية ProPrivacy. “وهذا من شأنه أن ينتهك حقوق خصوصية المستهلك.”

ويضيف والش أن الشركات تمتلك بالفعل كميات كبيرة من بيانات المستهلك، ودمج تتبع المشاعر في استراتيجيات التنميط الخاصة بها يمكن أن يزيد من قدرتها على التلاعب بالمستخدمين واستغلال الرغبات الشخصية.

يقول شو إن التنظيم يجب أن يركز على من يمكنه استخدام التكنولوجيا، ومتى يمكن استخدامها، وربما الأهم من ذلك، على من يمكن استخدامها. “في بعض الحالات، ينبغي تنظيمها من خلال تدابير قانونية، وفي حالات أخرى يمكن تنظيمها من خلال التوقعات المجتمعية السائدة، مثل تلك التي قد تدفع الشركة إلى تعديل ممارساتها بعد تجربة علاقات عامة سيئة.”

يقول أرمسترونج: “يتمتع الذكاء الاصطناعي العاطفي بالقدرة على أن يصبح عامل التمييز الحاسم في استخراج صوت العميل في التسويق والرعاية الصحية وغيرها من الصناعات لاكتساب رؤى أعمق بكثير”. “ومع ذلك، يجب على مؤسسات وشركات تكنولوجيا المعلومات أن تسعى جاهدة لتحقيق الشفافية الكاملة مع الالتزام بفهم أدوات الذكاء الاصطناعي العاطفي وقدراته وقيوده.”

الفكر النهائي

يلاحظ أرمسترونج أن خوارزميات الذكاء الاصطناعي معقدة، وتحتوي على مليارات من المعلمات. ويعترف قائلاً: “إن محاولة فهم كل هذه العوامل أمر غير مرجح”، مضيفاً أنه ينبغي مراقبة مخرجات التكنولوجيا وتأثيرها عن كثب. “في الوقت الحالي، الطريقة الأكثر فائدة لإنجاز هذه المهمة هي وجود إنسان في الحلقة.”

ماذا تقرأ بعد ذلك:

الذكاء العاطفي: مهارة قيادة تكنولوجيا المعلومات التي يتم التغاضي عنها في كثير من الأحيان

هل تحتاج مؤسسة تكنولوجيا المعلومات لديك إلى فريق للذكاء الاصطناعي؟

بودكاست: هل عام 2023 هو ملحمة هلوسة الذكاء الاصطناعي؟





Source link

زر الذهاب إلى الأعلى