سكارليت جوهانسون وOpenAI وSilencing ‘Sky’
انتقدت نجمة هوليوود سكارليت جوهانسون مؤخرًا OpenAI لاستخدامها صوتًا مع ChatGPT 4o وأكدت أنه يحاكيها. تم إيقاف الصوت، المعروف باسم Sky، – على الأقل في الوقت الحالي – مع ادعاء OpenAI أن الصوت لم يكن تقليدًا لجوهانسون. أثار القليل من التاريخ وراء تفاعل OpenAI مع جوهانسون تساؤلات حول صحة تأكيدات الشركة، فضلاً عن الطريق المعقد الذي يجب المضي فيه في أخلاقيات الذكاء الاصطناعي.
تشير رسالة صادرة عن جوهانسون إلى أنها رفضت سابقًا عرضًا قدمه سام ألتمان في سبتمبر الماضي لتوظيفها لإعارة صوتها إلى ChatGPT 4o. وفقًا لرسالتها، فوجئت جوهانسون وعائلتها وأصدقاؤها عندما سمعوا لاحقًا أن Sky الخاص بـ OpenAI يبدو مثلها. وأشارت أيضًا إلى أن ألتمان غرّد بالإشارة إلى فيلم “Her” الذي ظهر فيه جوهانسون وهو يعبر عن نظام دردشة تفاعلي.
تنص رسالة جوهانسون على أن محاميها طلبوا كتابيًا أن تصف OpenAI بالتفصيل كيف أنشأت الصوت لـ Sky.
قام OpenAI بإيقاف Sky و نشرت شرحا على الانترنت لربط كيفية اختيار الصوت والتأكيد على أنه لم يحاول تقليد جوهانسون.
سكاي هاي ستيكس
هذه القضية – السيطرة على التشابه وأوجه التشابه المحتملة – ليست جديدة. وحتى قبل أن يهز الذكاء الاصطناعي التوليدي (GenAI) العالم، اندلعت خلافات أخرى حول الاستخدام المزعوم لصورة الفرد دون موافقته. على سبيل المثال، رفعت الممثلة ليندساي لوهان دعوى قضائية ضد شركة Rockstar Games بدعوى أنها كانت مصدر إلهام لشخصية في لعبة الفيديو “Grand Theft Auto V”، ولكن تم رفض القضية في النهاية.
أدى انتشار GenAI إلى تكثيف الحجج حول حقوق المرء في التشابه حيث يمكن للتكنولوجيا أن تحاكي بشكل متزايد، إن لم تكن تنسخ، أداء وأعمال الأشخاص الحقيقيين. علاوة على ذلك، يمكن أن تؤدي الإساءات المحتملة لتشابه الشخص إلى إنشاء صور مزيفة مثل الصور والصوت والفيديو لإحداث ضرر شخصي أو لمزيد من الدعاية السياسية.
وقالت جوهانسون في رسالتها إنها تتطلع إلى الشفافية و”إقرار التشريعات المناسبة” لحماية حقوق الأفراد.
خلافات في إضراب SAG-AFTRA لعام 2023، على سبيل المثال، تضمنت لعبة شد الحبل مع استوديوهات السينما والتلفزيون التي تأمل في الاستفادة من GenAI في الاستخدامات المستقبلية مثل إنشاء شخصيات خلفية بناءً على أشكال الممثلين – الذين سيتم الدفع لهم مرة واحدة فقط مقابل الاستخدام الدائم لممثليهم. الصور. انتهى الإضراب بعد حصول SAG-AFTRA (نقابة ممثلي الشاشة – الاتحاد الأمريكي لفناني التلفزيون والراديو) على امتيازات شملت مصطلحات حول استخدام الذكاء الاصطناعي والنسخ الرقمي.
ليس مجرد قلق للمشاهير
يمكن أن يكون تحديد مصادر GenAI وملكية المحتوى المنتج غامضًا، ويتفاقم ذلك بسبب التفسيرات المختلفة للقوانين الحالية والقوانين المحتملة في الأعمال.
إحدى نقاط الخلاف هي تطبيق الدعاية الصحيحة، والتي تهدف إلى الحماية من اختلاس عناصر الهوية الشخصية مثل الاسم والصوت والصورة للاستخدام التجاري. ويقول مات سافاري، الشريك ورئيس قسم العقود التجارية في شركة المحاماة لوينشتاين ساندلر: “كان حق الدعاية، منذ عقود عديدة، يوصف بأنه كومة قش وسط إعصار، ولم يتحسن الوضع على الإطلاق”. “خاصة في الولايات المتحدة، لا يوجد قانون فدرالي لحق الدعاية”.
ويقول سافاري إن هذا يعني أن الدول قد يكون لديها تفسيرات مختلفة لهذا الحق. “تعترف بعض الدول بحق الدعاية بموجب القانون العام والقضايا المعروضة على المحاكم. ويعترف البعض بذلك بموجب القانون. البعض يتعرف عليه من قبل كليهما. والبعض لا يتعرف عليه على الإطلاق.”
وذلك حتى قبل إضافة الذكاء الاصطناعي إلى المحادثة. ويقول: “إنها منطقة قانونية مربكة ومعقدة ودقيقة للغاية”. “ربما يكون هذا أحد المجالات الأكثر تعقيدًا التي يتم سؤالي عنها كثيرًا.”
تنظيم المسار إلى الأمام
على الرغم من أن حدة الحجج التي أثيرت حول GenAI واضحة، يبدو أن هناك وعيًا بأن التكنولوجيا واستخدامها ليسا على وشك الاختفاء. في بيان تمت مشاركته مع InformationWeek، عرضت SAG-AFTRA هذا التعليق على المشكلة التي أثارتها جوهانسون حول OpenAI وSky: “نحن نشاركها مخاوفها وندعم حقها بالكامل في التمتع بالوضوح والشفافية فيما يتعلق بالصوت المستخدم في تطوير Chat GPT-4o”. الجهاز “سكاي”.
وأعرب البيان أيضًا عن أن النقابة “تؤيد بقوة التشريعات الفيدرالية” التي من شأنها حماية أصوات أعضائها وأمثالهم، جنبًا إلى جنب مع الجمهور، من النسخ الرقمي غير المصرح به: “يسعدنا أن OpenAI استجابت لهذه المخاوف وأوقفت استخدامها مؤقتًا”. Sky، ونحن نتطلع إلى العمل معهم ومع أصحاب المصلحة الآخرين في الصناعة لتوفير حماية شفافة ومرنة لنا جميعًا.”
يقول جو جونز، مدير الأبحاث والرؤى في الرابطة الدولية لمحترفي الخصوصية (IAPP)، إن هذا الموضوع يصبح فوضويًا بسبب الأجزاء المتنوعة التي تتلاقى حول الملكية الفكرية وحقوق النشر. ويقول: “إذا تم تدريب الأصوات من المحتوى السمعي البصري – الأفلام والأفلام والأغاني – فلديك العديد من المستويات المختلفة لحقوق الطبع والنشر وأصحاب الحقوق”. “السيناريو، المسجل، الشخص الذي يصوره، المنتج. إذن، لديك شبكة من حقوق الملكية المختلفة هناك.”
إن الافتقار إلى قانون فيدرالي متماسك بشأن الحقوق والخصوصية وكيفية عمل GenAI يؤدي إلى مستنقع قد يتعمق مع استمرار تطور الذكاء الاصطناعي. الشركات التي تسعى إلى تعزيز الذكاء الاصطناعي بالصوت قد تتعارض مع اللوائح على مستوى الدولة في هذه العملية. يقول جونز: “تتعامل بعض الولايات في الولايات المتحدة مع الصوت باعتباره نقطة بيانات بيومترية”. علاوة على ذلك، قد لا ترغب المؤسسات في افتراض أن كل مصدر بيانات يمكنهم الوصول إليه يمثل لعبة عادلة ليعمل الذكاء الاصطناعي الخاص بها معها. “لديك مشكلات تتعلق بالخصوصية تتعلق بإعادة استخدام البيانات لأغراض ثانوية.” هو يقول. “كان من الممكن جمع هذه البيانات الصوتية لغرض واحد ثم استخدامها بعد سنوات لتدريب الخوارزمية. ليس من السهل دائمًا الاعتماد على البيانات للاستخدامات الثانوية.