من Gmail إلى Word، إعدادات الخصوصية والذكاء الاصطناعي في علاقة جديدة

تم تنظيم موقع Microsoft 365 على جهاز كمبيوتر محمول في نيويورك، الولايات المتحدة، يوم الثلاثاء، 25 يونيو 2024.
بلومبرج | بلومبرج | صور جيتي
تعد بداية العام وقتًا رائعًا للقيام ببعض النظافة الإلكترونية الأساسية. لقد طُلب منا جميعًا التصحيح وتغيير كلمات المرور وتحديث البرامج. لكن أحد المخاوف التي تزحف بشكل متزايد إلى الواجهة هو التكامل الهادئ أحيانًا للذكاء الاصطناعي الذي يحتمل أن ينتهك الخصوصية في البرامج.
وقالت لينيت أوينز، نائب الرئيس لتعليم المستهلك العالمي في شركة تريند مايكرو للأمن السيبراني: “إن التكامل السريع للذكاء الاصطناعي في برامجنا وخدماتنا قد أثار، وينبغي أن يستمر، تساؤلات مهمة حول سياسات الخصوصية التي سبقت عصر الذكاء الاصطناعي”. قد تخضع العديد من البرامج التي نستخدمها اليوم – سواء كانت برامج البريد الإلكتروني أو مسك الدفاتر أو أدوات الإنتاجية ووسائل التواصل الاجتماعي وتطبيقات البث المباشر – لسياسات الخصوصية التي تفتقر إلى الوضوح بشأن ما إذا كان من الممكن استخدام بياناتنا الشخصية لتدريب نماذج الذكاء الاصطناعي.
“هذا يجعلنا جميعًا عرضة لاستخدام معلوماتنا الشخصية دون الحصول على الموافقة المناسبة. لقد حان الوقت لكل تطبيق أو موقع ويب أو خدمة عبر الإنترنت لإلقاء نظرة فاحصة على البيانات التي يجمعونها، ومع من يشاركونها، قال أوينز: “كيف يقومون بمشاركتها، وما إذا كان يمكن الوصول إليها لتدريب نماذج الذكاء الاصطناعي أم لا”. “هناك الكثير من اللحاق الذي يتعين علينا القيام به.”
حيث الذكاء الاصطناعي موجود بالفعل في حياتنا اليومية عبر الإنترنت
وقال أوينز إن المشكلات المحتملة تتداخل مع معظم البرامج والتطبيقات التي نستخدمها يوميًا.
وقالت: “لقد قامت العديد من المنصات بدمج الذكاء الاصطناعي في عملياتها لسنوات، قبل وقت طويل من أن يصبح الذكاء الاصطناعي كلمة طنانة”.
على سبيل المثال، يشير أوينز إلى أن Gmail استخدم الذكاء الاصطناعي لتصفية البريد العشوائي والنص التنبؤي من خلال ميزة “الكتابة الذكية”. وقال أوينز: “وتعتمد خدمات البث مثل Netflix على الذكاء الاصطناعي لتحليل عادات المشاهدة والتوصية بالمحتوى”. تستخدم منصات التواصل الاجتماعي مثل Facebook وInstagram الذكاء الاصطناعي منذ فترة طويلة للتعرف على الوجه في الصور وخلاصات المحتوى المخصصة.
“في حين أن هذه الأدوات توفر الراحة، يجب على المستهلكين النظر في مقايضات الخصوصية المحتملة، مثل مقدار البيانات الشخصية التي يتم جمعها وكيفية استخدامها لتدريب أنظمة الذكاء الاصطناعي. يجب على الجميع مراجعة إعدادات الخصوصية بعناية، وفهم البيانات التي تتم مشاركتها، وقال أوينز: “والتحقق بانتظام من تحديثات شروط الخدمة”.
إحدى الأدوات التي خضعت لتدقيق خاص هي تجارب Microsoft المتصلة، والتي كانت موجودة منذ عام 2019 ويتم تنشيطها مع إلغاء الاشتراك الاختياري. وقد تم تسليط الضوء عليها مؤخرًا في التقارير الصحفية – بشكل غير دقيق، وفقًا للشركة وكذلك بعض خبراء الأمن السيبراني الخارجيين الذين ألقوا نظرة على المشكلة – كميزة جديدة أو تم تغيير إعداداتها. وبغض النظر عن العناوين المثيرة جانبا، فإن خبراء الخصوصية يشعرون بالقلق من أن التقدم في الذكاء الاصطناعي يمكن أن يؤدي إلى احتمال استخدام البيانات والكلمات في برامج مثل مايكروسوفت وورد بطرق لا تغطيها إعدادات الخصوصية بشكل كاف.
وقال أوينز: “عندما تتطور أدوات مثل التجارب المتصلة، حتى لو لم تتغير إعدادات الخصوصية الأساسية، فإن الآثار المترتبة على استخدام البيانات قد تكون أوسع بكثير”.
كتب متحدث باسم Microsoft في بيان لـ CNBC أن Microsoft لا تستخدم بيانات العملاء من تطبيقات Microsoft 365 الاستهلاكية والتجارية لتدريب نماذج اللغات الكبيرة الأساسية. وأضاف أنه في حالات معينة، قد يوافق العملاء على استخدام بياناتهم لأغراض محددة، مثل تطوير النموذج المخصص الذي يطلبه بعض العملاء التجاريين صراحةً. بالإضافة إلى ذلك، يتيح الإعداد الميزات المدعومة بالسحابة التي يتوقعها العديد من الأشخاص من أدوات الإنتاجية مثل التأليف المشترك في الوقت الفعلي والتخزين السحابي وأدوات مثل Editor في Word التي توفر اقتراحات إملائية ونحوية.
تعد إعدادات الخصوصية الافتراضية مشكلة
قال تيد ميراكو، الرئيس التنفيذي لشركة برمجيات الأمان Approov، إن ميزات مثل تجارب Microsoft المتصلة هي سيف ذو حدين – الوعد بتعزيز الإنتاجية ولكن تقديم إشارات حمراء مهمة للخصوصية. قال Miracco إن حالة الإعداد الافتراضية يمكن أن تجعل الأشخاص يختارون شيئًا لا يعرفونه بالضرورة، ويتعلق بشكل أساسي بجمع البيانات، وقد ترغب المؤسسات أيضًا في التفكير مرتين قبل ترك الميزة قيد التشغيل.
وقال ميراكو: “إن ضمانات مايكروسوفت لا تقدم سوى راحة جزئية، ولكنها لا تزال غير كافية لتخفيف بعض المخاوف الحقيقية المتعلقة بالخصوصية”.
يمكن أن يكون الإدراك مشكلة خاصة به، وفقًا لكافيه فادات، مؤسس RiseOpp، وهي وكالة تسويق لتحسين محركات البحث.
“وقال فاهدات: “إن وجود الإعداد الافتراضي للتمكين يغير الديناميكية بشكل كبير. إن تمكين هذه الميزات تلقائيًا، حتى مع النوايا الحسنة، يضع بطبيعته العبء على المستخدمين لمراجعة وتعديل إعدادات الخصوصية الخاصة بهم، الأمر الذي قد يشعر البعض بالتطفل أو التلاعب”.
وجهة نظره هي أن الشركات بحاجة إلى أن تكون أكثر شفافية، وليس أقل، في بيئة حيث يوجد الكثير من عدم الثقة والشكوك فيما يتعلق بالذكاء الاصطناعي.
يجب على الشركات بما في ذلك Microsoft التأكيد على إلغاء الاشتراك الافتراضي بدلاً من الاشتراك، وقد توفر معلومات أكثر تفصيلاً وغير تقنية حول كيفية التعامل مع المحتوى الشخصي لأن التصور يمكن أن يصبح حقيقة.
وقال: “حتى لو كانت التكنولوجيا آمنة تمامًا، فإن التصور العام يتشكل ليس فقط من خلال الحقائق، ولكن أيضًا من خلال المخاوف والافتراضات – خاصة في عصر الذكاء الاصطناعي حيث يشعر المستخدمون غالبًا بالعجز”.

الإعدادات الافتراضية التي تتيح المشاركة منطقية لأسباب تجارية ولكنها ضارة لخصوصية المستهلك، وفقًا لجوكيم هاميل، الأستاذ المساعد لأنظمة المعلومات والإدارة في كلية وارويك للأعمال بجامعة وارويك في إنجلترا.
وقال هاميل إن الشركات قادرة على تعزيز منتجاتها والحفاظ على قدرتها التنافسية من خلال مشاركة المزيد من البيانات كإجراء افتراضي. ومع ذلك، فمن وجهة نظر المستخدم، فإن إعطاء الأولوية للخصوصية من خلال اعتماد نموذج الاشتراك في مشاركة البيانات سيكون “نهجًا أكثر أخلاقية”، على حد قوله. وطالما أن الميزات الإضافية المقدمة من خلال جمع البيانات ليست ضرورية، فيمكن للمستخدمين اختيار ما يتوافق بشكل أوثق مع اهتماماتهم.
وقال هامل إن هناك فوائد حقيقية للمقايضة الحالية بين الأدوات المعززة بالذكاء الاصطناعي والخصوصية، بناءً على ما يراه في العمل الذي قدمه الطلاب. قال هامل إن الطلاب الذين نشأوا مع كاميرات الويب، ويبثون حياتهم في الوقت الفعلي على وسائل التواصل الاجتماعي، والتكنولوجيا الشاملة، غالبًا ما يكونون أقل اهتمامًا بالخصوصية، ويتبنون هذه الأدوات بحماس. وقال “طلابي، على سبيل المثال، يقومون بإنشاء عروض تقديمية أفضل من أي وقت مضى”.
إدارة المخاطر
في مجالات مثل قانون حقوق الطبع والنشر، كانت المخاوف بشأن النسخ الجماعي من قبل حاملي شهادة الماجستير في القانون مبالغًا فيها، وفقًا لكيفن سميث، مدير المكتبات في كلية كولبي، لكن تطور الذكاء الاصطناعي يتقاطع مع المخاوف الأساسية المتعلقة بالخصوصية.
وقال سميث: “إن الكثير من المخاوف المتعلقة بالخصوصية التي أثيرت حاليًا حول الذكاء الاصطناعي كانت موجودة بالفعل منذ سنوات؛ وقد أدى النشر السريع لنماذج لغوية كبيرة مدربة على الذكاء الاصطناعي إلى تركيز الاهتمام على بعض هذه القضايا”. وأضاف: “المعلومات الشخصية تدور حول العلاقات، لذا فإن خطر قيام نماذج الذكاء الاصطناعي بالكشف عن البيانات التي كانت أكثر أمانًا في نظام أكثر ثباتًا هو التغيير الحقيقي الذي نحتاجه لإيجاد طرق لإدارته”.
في معظم البرامج، يعد إيقاف تشغيل ميزات الذكاء الاصطناعي خيارًا مدفونًا في الإعدادات. على سبيل المثال، مع التجارب المتصلة، افتح مستندًا ثم انقر فوق “ملف” ثم انتقل إلى “الحساب” ثم ابحث عن إعدادات الخصوصية. بمجرد الوصول إلى هناك، انتقل إلى “إدارة الإعدادات” وانتقل لأسفل إلى التجارب المتصلة. انقر فوق المربع لإيقاف تشغيله. بمجرد القيام بذلك، تحذر Microsoft: “إذا قمت بإيقاف تشغيل هذا، فقد لا تكون بعض التجارب متاحة لك.” تقول Microsoft إن ترك الإعداد قيد التشغيل سيسمح بمزيد من الاتصالات والتعاون واقتراحات الذكاء الاصطناعي.
في Gmail، يحتاج المرء إلى فتحه، والنقر على القائمة، ثم الانتقال إلى الإعدادات، ثم النقر فوق الحساب الذي تريد تغييره، ثم التمرير إلى القسم “عام” وإلغاء تحديد المربعات بجوار “الميزات الذكية” وخيارات التخصيص المتنوعة. .
كما قالها بائع الأمن السيبراني Malwarebytes منشور مدونة حول ميزة Microsoft: “قد يؤدي إيقاف تشغيل هذا الخيار إلى فقدان بعض الوظائف إذا كنت تعمل على نفس المستند مع أشخاص آخرين في مؤسستك. … إذا كنت تريد إيقاف تشغيل هذه الإعدادات لأسباب تتعلق بالخصوصية ولا تستخدمها على أي حال، يمكنك القيام بذلك بكل الوسائل، ويمكن العثور على جميع الإعدادات ضمن إعدادات الخصوصية لسبب ما، ولكن لم أجد في أي مكان أي إشارة إلى استخدام هذه التجارب المتصلة لتدريب نماذج الذكاء الاصطناعي.
في حين أن هذه التعليمات سهلة بما يكفي لاتباعها، وربما يكون معرفة المزيد حول ما وافقت عليه خيارًا جيدًا، إلا أن بعض الخبراء يقولون إنه لا ينبغي أن يقع على عاتق المستهلك مسؤولية إلغاء تنشيط هذه الإعدادات. وقال ويس تشار، خبير خصوصية البيانات: “عندما تنفذ الشركات ميزات مثل هذه، فإنها غالبًا ما تقدمها كاشتراكات للوظائف المحسنة، لكن المستخدمين قد لا يفهمون تمامًا نطاق ما يوافقون عليه”.
وقال تشار: “إن جوهر المشكلة يكمن في الإفصاحات الغامضة والافتقار إلى التواصل الواضح حول ما يستلزمه “المتصلون” ومدى عمق تحليل المحتوى الشخصي أو تخزينه”. “بالنسبة لأولئك الذين هم خارج نطاق التكنولوجيا، قد يكون الأمر أشبه بدعوة مساعد مفيد إلى منزلك، ليعلموا لاحقًا أنهم قاموا بتدوين ملاحظات حول محادثاتك الخاصة للحصول على دليل تدريبي.”
ويسلط قرار إدارة الوصول إلى البيانات أو الحد منه أو حتى إلغائه الضوء على الخلل في النظام البيئي الرقمي الحالي. وقال تشار: “بدون أنظمة قوية تعطي الأولوية لموافقة المستخدم وتوفر التحكم، يصبح الأفراد عرضة لإعادة استخدام بياناتهم بطرق لم يتوقعوها أو يستفيدوا منها”.