الأمن السيبراني

إزالة الغموض عن الذكاء الاصطناعي المسؤول لقادة الأعمال


في استطلاع حديث لقادة الأعمال، وافق ما يقرب من 90% على أهمية المبادئ التوجيهية الواضحة والشفافة حول الاستخدام الأخلاقي للذكاء الاصطناعي. ولكن على الرغم من هذا الموقف القوي، أشار عدد قليل فقط من المشاركين إلى أن لديهم فهمًا قويًا لما يبدو عليه الاستخدام المسؤول للذكاء الاصطناعي.

ويشير هذا التفاوت الهائل بوضوح إلى الحاجة إلى مناقشة واسعة النطاق حول كيفية استخدام الشركات للذكاء الاصطناعي ومتى ولماذا. لا ينبغي على العملاء الذين يعتمدون على سلعك و/أو خدماتك أن يقلقوا من أن الشركة التي تنتج المنتجات التي يستخدمونها تستغل أي تقنية جديدة بطريقة قد تعتبر غير أخلاقية أو غير مسؤولة.

بالنسبة لمحترفي تكنولوجيا المعلومات، يشكل هذا تحديًا، حيث تقدم الذكاء الاصطناعي بسرعة أكبر من أي تنظيم يمكن أن يحد من استخدامه. من المؤكد أن هذه القواعد قادمة، ومن المهم للقادة في مجال تكنولوجيا المعلومات أن يقوموا “بتأمين مستقبل” تطبيق الذكاء الاصطناعي حتى لا تكون هناك حاجة إلى تغييرات واسعة النطاق إذا تم اعتماد لائحة جديدة. إنه توازن دقيق، ولكن مع القليل من التخطيط وبعض الأهداف الواضحة، من الممكن الاستفادة من القوة المذهلة للذكاء الاصطناعي دون أي مخاطر كبيرة.

ضرب التوازن

بالنسبة لمحترفي التكنولوجيا، هناك ثلاثة مخاوف أخلاقية رئيسية فيما يتعلق بالذكاء الاصطناعي وتطبيقاته المختلفة: الملكية، والخصوصية، والدقة.

متعلق ب:ChatGPT: الفوائد والعيوب والاعتبارات الأخلاقية لمؤسسات تكنولوجيا المعلومات

1. الملكية

ينطبق هذا في المقام الأول على الشركات التي ترغب في استخدام أدوات الذكاء الاصطناعي لتسهيل حياة موظفيها أو منحهم ميزة إبداعية في السوق.

يمكن لأدوات الذكاء الاصطناعي المتاحة مجانًا إنشاء محتوى نصي وحتى تعليمات برمجية على نطاق واسع، ولكن إذا تم تدريب أداة الذكاء الاصطناعي على المواد المحمية بحقوق الطبع والنشر، فهناك دائمًا خطر أن يتضمن أي نص ينتجه الذكاء الاصطناعي أجزاء من العمل الأصلي المحمي بحقوق الطبع والنشر. وينطبق هذا على كل شيء بدءًا من الكتابة الخيالية وحتى برمجة تطبيقات iOS، لذلك من المهم فهم الآثار المترتبة على ذلك. عند استخدام أداة الذكاء الاصطناعي لإنتاج هذه الأنواع من المحتوى، من المهم التأكد من عدم تضمين أي مواد محمية بحقوق الطبع والنشر في المنتج النهائي.

الأمر ليس بهذه البساطة مجرد مطالبة أداة ذكاء اصطناعي توليدية بإنشاء شيء ما من الصفر – أو حتى المساعدة في تجسيد محتوى مكتوب أو إنهاء بعض التعليمات البرمجية – لذا تأكد من تدريب أي شكل من أشكال الذكاء الاصطناعي الذي تختار نشره أو استخدامه على البيانات خالية من حقوق الطبع والنشر أو جزء من الملك العام.

يجب التعامل مع أي نص أو رمز أو فن يتم إنشاؤه بواسطة الذكاء الاصطناعي بأقصى قدر من العناية والفهم. وبدون القيام بذلك، فإنك تخاطر بسلامة المنتج النهائي.

2. الخصوصية

بالنسبة للشركات التي ستنفذ أدوات الذكاء الاصطناعي الخاصة بها، أو تستخدم الذكاء الاصطناعي التابع لجهة خارجية مع مجموعات بيانات مخصصة قد تتضمن معلومات الشركة أو المستخدم، يجب أن تكون الخصوصية دائمًا في قمة أولوياتها.

متعلق ب:أخلاقيات الذكاء الاصطناعي المتطورة: ما يحتاج كل قائد تقني إلى معرفته

نظرًا لأن أنظمة الذكاء الاصطناعي لا تزال خاضعة لنفس قوانين ولوائح الخصوصية مثل أي إطار عمل برمجي آخر، فمن الضروري أن يضمن قادة تكنولوجيا المعلومات أن تُظهر شركاتهم فهمًا واضحًا وعميقًا لكيفية إدارة البيانات وتخزينها واستخدامها. يجب أن تكون هذه عملية شفافة، تقدم للمستخدم النهائي فهمًا واضحًا ومباشرًا لكيفية جمع بياناته واستخدامها وأين/إذا كان سيتم تخزينها.

إذا تم استخدام بيانات المستخدم لمواصلة تدريب الذكاء الاصطناعي أو حتى بناء نموذج جديد، فإن الكشف عنها أمر لا بد منه. اعتمادًا على المنطقة المحلية، قد تكون هناك أو لا توجد قواعد معمول بها بالفعل تتطلب هذه الأنواع من الإفصاحات، ولكن من الرهان الآمن أنها ستصبح عالمية في المستقبل القريب.

3. الدقة

يبدو كما لو أن الكثيرين في عالم الأعمال ينظرون إلى الذكاء الاصطناعي باعتباره كيانًا لا يفشل، ولا يمكنه ارتكاب أي خطأ، بالاعتماد على الموارد الهائلة لمجموعات البيانات التي تم تدريبه عليها. يعلم متخصصو تكنولوجيا المعلومات أنه لا توجد آلة معصومة من الخطأ، وأن الذكاء الاصطناعي ليس استثناءً.

الذكاء الاصطناعي عرضة للأخطاء مثل الإنسان، وفي بعض الحالات، أكثر من ذلك. نظرًا لأن أدوات الذكاء الاصطناعي يتم تدريبها على البيانات التي ينتجها البشر (كما خمنت ذلك)، فهي ماهرة بنفس القدر في خلط الأشياء، وإساءة تذكر الحقائق الأساسية، وحتى ارتكاب خطأ فادح. إن الاعتماد بشكل أعمى على الذكاء الاصطناعي للحصول على المحتوى الخاص بك بشكل صحيح، أو إنشاء تعليمات برمجية نظيفة، أو تعديل جزء من العمل الحالي هو وصفة لكارثة.

متعلق ب:يقول قادة البيانات إن “شلل الذكاء الاصطناعي” يخنق التبني: دراسة

يجب دائمًا فحص المحتوى أو التعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي باستخدام مشط دقيق بحثًا عن الأخطاء الواقعية والنحوية، ولا ينبغي لأي جزء من المحتوى المشتق من الذكاء الاصطناعي أن يرى النور على الإطلاق حتى يمر بعملية تحرير وتحقق قوية. .

المخاطر والمكافآت

بالنسبة للعديد من قادة تكنولوجيا المعلومات، فإن مخاطر إنشاء الذكاء الاصطناعي تستحق المكافأة عند القيام بذلك بشكل أخلاقي ووعي.

أ دراسة حديثة لشركة IBM وقد توصلت الدراسة، التي أجريت عبر 3000 من كبار المسؤولين التنفيذيين على مستوى العالم، إلى أن استخدام الذكاء الاصطناعي لم يعد موضع تردد بل أصبح ضرورة لا بد منها. إذا بدأت المؤسسات بالاستفادة من الذكاء الاصطناعي بطرق أخلاقية ومثمرة، بما في ذلك معالجة التطورات التنظيمية المستمرة، فإن الاستخدام الأمثل للتكنولوجيا سيكون أسهل على المدى الطويل لأنه تم وضع المعايير الصحيحة منذ البداية. وهذا يضمن تنفيذ الذكاء الاصطناعي بشكل مسؤول على المدى الطويل وسيجني قادة الأعمال الفوائد.

قبل كل شيء، عليك أن تدرك أن الذكاء الاصطناعي التوليدي ليس واحدًا من تلك الاتجاهات الخاطفة التي ستختفي بالسرعة التي تظهر بها؛ إنها تقنية ناشئة، وقد بدأنا للتو في رؤية ما هي قادرة عليه. والشركات التي تتعلم كيفية تسخيرها الآن سوف تكون قادرة على الازدهار في المستقبل، في حين أن أولئك الذين يتجاهلونها سوف يندمون على الأرجح. أن تكون على الجانب الصحيح من التاريخ يعني أن تقوم بواجبك.





Source link

زر الذهاب إلى الأعلى