أخبار التقنية

أكبر مخاطر الذكاء الاصطناعي على حياتك الخاصة: ChatGPT وGemini وCopilot


أصبح العديد من المستهلكين مفتونين بالذكاء الاصطناعي التوليدي، حيث يستخدمون أدوات جديدة لجميع أنواع الأمور الشخصية أو التجارية.

لكن كثيرين يتجاهلون العواقب المحتملة للخصوصية، والتي يمكن أن تكون ذات أهمية.

من ChatGPT من OpenAI إلى Gemini من Google إلى برنامج Microsoft Copilot وApple Intelligence الجديد، أصبحت أدوات الذكاء الاصطناعي للمستهلكين يمكن الوصول إليها بسهولة وتنتشرومع ذلك، فإن الأدوات لديها سياسات خصوصية مختلفة فيما يتعلق باستخدام بيانات المستخدم والاحتفاظ بها. في كثير من الحالات، لا يدرك المستهلكون كيفية استخدام بياناتهم أو كيفية استخدامها.

وهنا يصبح كون المستهلك مطلعاً على كل ما يتعلق بالخصوصية أمراً بالغ الأهمية. وتقول جودي دانييلز، الرئيسة التنفيذية ومستشارة الخصوصية في شركة ريد كلوفر أدفايزرز، التي تقدم استشارات للشركات بشأن مسائل الخصوصية: “هناك مستويات مختلفة من التحكم فيما يمكنك التحكم فيه، اعتماداً على الأداة”. وتضيف دانييلز: “لا يوجد خيار إلغاء الاشتراك الشامل في كل الأدوات”.

إن انتشار أدوات الذكاء الاصطناعي ــ ودمجها في الكثير مما يفعله المستهلكون على أجهزة الكمبيوتر الشخصية والهواتف الذكية ــ يجعل هذه الأسئلة أكثر إلحاحا. فقبل بضعة أشهر، على سبيل المثال، أطلقت شركة مايكروسوفت أول أجهزة Surface PCs تتميز بزر مساعد الطيار المخصص على لوحة المفاتيح للوصول السريع إلى برنامج الدردشة الآلي، وذلك تنفيذًا لوعد تم تقديمه قبل عدة أشهر. حددت شركة أبل الشهر الماضي رؤيتها للذكاء الاصطناعي — والتي تدور حول عدة نماذج أصغر تعمل على أجهزة وشرائح Apple. وتحدث المسؤولون التنفيذيون في الشركة علنًا عن الأهمية التي توليها الشركة للخصوصية، والتي يمكن أن تشكل تحديًا مع نماذج الذكاء الاصطناعي.

وفيما يلي عدة طرق يمكن للمستهلكين من خلالها حماية خصوصيتهم في العصر الجديد للذكاء الاصطناعي التوليدي.

اسأل الذكاء الاصطناعي عن أسئلة الخصوصية التي يجب أن يكون قادرًا على الإجابة عليها

قبل اختيار أداة ما، يجب على المستهلكين قراءة سياسات الخصوصية المرتبطة بها بعناية. كيف يتم استخدام معلوماتك وكيف يمكن استخدامها؟ هل هناك خيار لإيقاف مشاركة البيانات؟ هل هناك طريقة للحد من البيانات المستخدمة ومدة الاحتفاظ بالبيانات؟ هل يمكن حذف البيانات؟ هل يتعين على المستخدمين المرور عبر حواجز للعثور على إعدادات إلغاء الاشتراك؟

يجب أن يثير ذلك علامة حمراء إذا لم تتمكن من الإجابة على هذه الأسئلة بسهولة، أو العثور على إجابات لها ضمن سياسات الخصوصية الخاصة بمقدم الخدمة، وفقًا لمحترفي الخصوصية.

وأضاف دانييلز “إن الأداة التي تهتم بالخصوصية سوف تخبرك بذلك”.

وإذا لم يحدث ذلك، “فيتعين عليك أن تكون مالكًا لها”، كما أضاف دانييلز. “لا يمكنك أن تفترض فقط أن الشركة ستفعل الشيء الصحيح. فلكل شركة قيم مختلفة وكل شركة تحقق أرباحًا مختلفة”.

قدمت مثالاً لـ Grammarly، وهي أداة تحرير يستخدمها العديد من المستهلكين والشركات، شركة تشرح بوضوح في عدة أماكن على موقعها الإلكتروني كيف يتم استخدام البيانات.

احتفظ بالبيانات الحساسة بعيدًا عن نماذج اللغة الكبيرة

يثق بعض الأشخاص كثيرًا عندما يتعلق الأمر بإدخال البيانات الحساسة في نماذج الذكاء الاصطناعي التوليدية، لكن أندرو فروست موروز، مؤسس متصفح Aloha، وهو متصفح يركز على الخصوصية، يوصي الأشخاص بعدم إدخال أي نوع من البيانات الحساسة لأنهم لا يعرفون حقًا كيف يمكن استخدامها أو إساءة استخدامها.

ينطبق هذا على جميع أنواع المعلومات التي قد يدخلها الأشخاص، سواء كانت شخصية أو متعلقة بالعمل. أعربت العديد من الشركات عن مخاوف كبيرة بشأن استخدام الموظفين لنماذج الذكاء الاصطناعي للمساعدة في عملهم، لأن العمال قد لا يفكرون في كيفية استخدام النموذج لهذه المعلومات لأغراض التدريب. إذا كنت تدخل مستندًا سريًا، فإن نموذج الذكاء الاصطناعي لديه الآن إمكانية الوصول إليه، مما قد يثير جميع أنواع المخاوف. لن توافق العديد من الشركات إلا على استخدام إصدارات مخصصة من أدوات الذكاء الاصطناعي التي تحافظ على جدار حماية بين المعلومات الملكية ونماذج اللغة الكبيرة.

وقال فروست موروز إنه ينبغي للأفراد أيضًا أن يخطئوا في جانب الحذر وعدم استخدام نماذج الذكاء الاصطناعي لأي شيء غير عام أو لا ترغب في مشاركته مع الآخرين بأي شكل من الأشكال. إن الوعي بكيفية استخدامك للذكاء الاصطناعي أمر مهم. إذا كنت تستخدمه لتلخيص مقال من ويكيبيديا، فقد لا يكون ذلك مشكلة. ولكن إذا كنت تستخدمه لتلخيص مستند قانوني شخصي، على سبيل المثال، فهذا غير مستحسن. أو دعنا نقول أن لديك صورة لمستند وتريد نسخ فقرة معينة. يمكنك أن تطلب من الذكاء الاصطناعي قراءة النص حتى تتمكن من نسخه. من خلال القيام بذلك، سيعرف نموذج الذكاء الاصطناعي محتوى المستند، لذلك يحتاج المستهلكون إلى وضع ذلك في الاعتبار، كما قال.

استخدم خيارات إلغاء الاشتراك التي تقدمها OpenAI وGoogle

تتمتع كل أداة ذكاء اصطناعي من الجيل الجديد بسياسات خصوصية خاصة بها وقد يكون لديها خيارات إلغاء الاشتراك. على سبيل المثال، يسمح Gemini للمستخدمين بإنشاء فترة الاحتفاظ وحذف بيانات معينة، من بين عناصر التحكم في النشاط الأخرى.

يمكن للمستخدمين إلغاء الاشتراك في استخدام بياناتهم في تدريب النموذج بواسطة ChatGPTللقيام بذلك، يحتاجون إلى الانتقال إلى أيقونة الملف الشخصي في أسفل يسار الصفحة وتحديد عناصر التحكم في البيانات ضمن عنوان الإعدادات. ثم يحتاجون إلى تعطيل الميزة التي تقول “تحسين النموذج للجميع”. وبينما يتم تعطيل هذه الميزة، لن يتم استخدام المحادثات الجديدة لتدريب نماذج ChatGPT، وفقًا لقسم الأسئلة الشائعة على OpenAI موقع إلكتروني.

وقال جاكوب هوفمان أندروز، كبير خبراء التكنولوجيا في مؤسسة فرونتير الإلكترونية، وهي منظمة دولية غير ربحية معنية بالحقوق الرقمية، إنه لا يوجد جانب إيجابي حقيقي للمستهلكين في السماح للجيل الجديد من الذكاء الاصطناعي بالتدريب على بياناتهم، وهناك مخاطر لا تزال قيد الدراسة.

إذا تم نشر البيانات الشخصية بشكل غير صحيح على الويب، فإن المستهلكين قد يكون من الممكن إزالته وبعد ذلك ستختفي من محركات البحث. لكن عدم تدريب نماذج الذكاء الاصطناعي هو لعبة مختلفة تمامًا، كما قال. قد تكون هناك بعض الطرق للتخفيف من استخدام معلومات معينة بمجرد وجودها في نموذج الذكاء الاصطناعي، لكنها ليست مضمونة تمامًا وكيفية القيام بذلك بشكل فعال هي مجال بحث نشط، كما قال.

الاشتراك الاختياري، كما هو الحال مع Microsoft Copilot، فقط لأسباب وجيهة

تدمج الشركات الذكاء الاصطناعي في الأدوات اليومية التي يستخدمها الأشخاص في حياتهم الشخصية والمهنية. على سبيل المثال، يعمل Copilot for Microsoft 365 داخل Word وExcel وPowerPoint لمساعدة المستخدمين في أداء مهام مثل التحليلات وتوليد الأفكار والتنظيم والمزيد.

بالنسبة لهذه الأدوات، تقول مايكروسوفت أنها لا يشارك بيانات المستهلك مع طرف ثالث دون إذن، ولا تستخدم بيانات العملاء لتدريب Copilot أو ميزات الذكاء الاصطناعي الخاصة به دون موافقة.

ومع ذلك، يمكن للمستخدمين الاشتراك، إذا اختاروا ذلك، من خلال تسجيل الدخول إلى مركز إدارة Power Platform، وتحديد الإعدادات وإعدادات المستأجر وتشغيل مشاركة البيانات لميزات Dynamics 365 Copilot وPower Platform Copilot AI. فهي تتيح مشاركة البيانات وحفظها.

وتتضمن مزايا الاشتراك في هذه الخدمة القدرة على جعل الميزات الحالية أكثر فعالية. ولكن العيب هنا هو أن المستهلكين يفقدون السيطرة على كيفية استخدام بياناتهم، وهو أمر مهم، كما يقول خبراء الخصوصية.

الخبر السار هو أن المستهلكين الذين اختاروا الاشتراك مع Microsoft يمكنهم سحب موافقتهم في أي وقت. ويمكن للمستخدمين القيام بذلك بالانتقال إلى صفحة إعدادات المستأجر ضمن الإعدادات في مركز إدارة Power Platform وإيقاف تشغيل مشاركة البيانات لـ Dynamics 365 Copilot وPower Platform Copilot AI Features.

تعيين فترة احتفاظ قصيرة للذكاء الاصطناعي التوليدي للبحث

قد لا يفكر المستهلكون كثيرًا قبل البحث عن المعلومات باستخدام الذكاء الاصطناعي، واستخدامها كما لو كانوا يستخدمون محرك بحث لتوليد المعلومات والأفكار. ومع ذلك، حتى البحث عن أنواع معينة من المعلومات باستخدام الذكاء الاصطناعي يمكن أن يكون تدخلاً في خصوصية الشخص، لذلك هناك أفضل الممارسات عند استخدام الأدوات لهذا الغرض أيضًا. قال هوفمان أندروز، إذا أمكن، حدد فترة احتفاظ قصيرة لأداة الذكاء الاصطناعي. واحذف الدردشات، إذا أمكن، بعد الحصول على المعلومات المطلوبة. لا تزال الشركات تحتفظ بسجلات الخادم، لكن يمكن أن يساعد ذلك في تقليل مخاطر وصول طرف ثالث إلى حسابك، كما قال. قد يقلل أيضًا من خطر أن تصبح المعلومات الحساسة جزءًا من تدريب النموذج. “يعتمد الأمر حقًا على إعدادات الخصوصية للموقع المعين.”



Source link

زر الذهاب إلى الأعلى