أعلنت شركة “ميتا” الأميركية شروعها، ابتداءا من ماي المقبل، في تقييد نشر المحتويات المنتجة بالذكاء الاصطناعي على شبكاتها الاجتماعية، عبر وضع علامات تميزها لمحاربة تزييف الحقائق عبر الصور والفيديوهات المفبركة.
علامة “مايد ويذ إيه آي”
وأوضحت مونيكا بيكرت، نائبة الرئيس المسؤولة عن سياسات المحتوى في الشركة الأم لفيسبوك وإنستغرام وواتساب وثريدز، قائلة “نخطط للبدء في تصنيف المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي بداية من ماي 2024″، موضحة أن علامة “مايد ويذ إيه آي (Made with AI) -التي تعني “صنع باستخدام الذكاء الاصطناعي”- ستوضع على عدد أكبر من محتويات الفيديو والصوت والصور” مقارنة بالسابق.
وأشارت إلى أن المجموعة ستضع هذه العلامات على منصاتها عند رصد “مؤشرات على صور بالذكاء الاصطناعي بما يتوافق مع المعايير المعمول بها في القطاع”، أو إذا ما “أشار أشخاص إلى أنهم يحملون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”.
توضيح بدل الإزالة
وأعلنت المجموعة الأميركية أنها ستغير الطريقة التي تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعي، وذلك بعد التشاور مع مجلسها الإشرافي، معتبرة أن “الشفافية وإضافة عناصر أكثر لتوضيح السياق أصبحتا تشكلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب”، وذلك “من أجل تجنب مخاطر وضع قيود لا طائل منها على حرية التعبير”.
وباتت “ميتا” تفضل إضافة “علامات وعناصر من السياق” إلى هذا النوع من المحتوى، بدلا من إزالته كما كانت تفعل حتى الآن، لكنها ومع ذلك، ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي، إذا ما كان يتعارض مع قواعدها “ضد التدخل في العملية الانتخابية أو التخويف أو المضايقة أو العنف (..) أو أي سياسة أخرى مدرجة في معايير مجتمعنا”.
التضليل وتزوير الحقائق
وأثار تنامي برمجيات الذكاء الاصطناعي التوليدي مخاوف من استخدام هذه الأدوات لزرع الفوضى السياسية، خصوصا من خلال التضليل أو تزوير الحقائق، وبالأخص في هذا العام الذي يشهد سلسلة استحقاقات انتخابية كبرى، أبرزها الانتخابات الرئاسية في الولايات المتحدة.
وبعيدا من عمليات الانتخاب هذه، فإن تطوير برامج الذكاء الاصطناعي التوليدية يترافق مع سيل من المحتويات المسيئة، وفق الكثير من الخبراء والهيئات الناظمة، بما يشمل تركيب صور ومقاطع إباحية ملفقة لنساء مشهورات بتقنية “التزييف العميق”، وهي ظاهرة تستهدف أيضا الأشخاص العاديين.
التعليقات 0