تكنولوجيا و علوم

قريبًا… علامة على صور الذكاء الاصطناعي المنشورة على فيسبوك وإنستغرام

قررت شركة “ميتا”، المالكة لفيسبوك وإنستغرام وثريدز، عدم السماح بنشر أي صور جرى تصميمها بواسطة تقنيات الذكاء الاصطناعي، إلا بعد وضع علامة عليها توضح ذلك، وفقا لما ذكر موقع “أكسيوس” الأميركي.

وأوضح الموقع أن القرار الذي أعلنت عنه الشركة العملاقة، الثلاثاء، ينطوي على أهمية كبرى، باعتبار أن منصاتها الاجتماعية تضم أكثر من 5 مليارات حساب نشط بمعظم لغات العالم.

أعلنت شركة “ميتا” الخميس تحقيق أرباح بلغت 14 مليار دولار في الأشهر الثلاثة الأخيرة من العام الماضي، متجاوزة بذلك توقعات المحللين.

 

وتعرضت ميتا لضغوط كبرى، بما في ذلك من مجلس الرقابة الخاص بها، من أجل تطوير سياسات أقوى للمحتوى الناتج عن الذكاء الاصطناعي، خاصة وأن انتشار تلك المحتويات يتزامن مع موسم انتخابات مزدحم في العديد من الدول خلال العام الجاري.

وقالت الشركة إن الحل التقني الذي يقوم على مبدأ وضع العلامات التلقائية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي، سيكون متاحا خلال الأشهر القليلة المقبلة.

دعت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشيل باشيليت، الأربعاء، لوقف استخدام تكنولوجيا الذكاء الاصطناعي التي قد تمثل خطورة كبيرة على حقوق الإنسان، ومنها أنظمة مسح الوجوه التي تتبع الناس في الأماكن العامة.

 

وذكر رئيس الشؤون العالمية في شركة “ميتا”، نيك كليج، في مدونة، أن شركته تعمل بجد “لتطوير أدوات التصنيف التي يمكن أن تساعد المستخدمين على اكتشاف المحتوى الناتج عن الذكاء الاصطناعي تلقائيًا، حتى لو كان المحتوى يفتقر إلى علامات غير مرئية”.

ونبه إلى أن الشركة “تعمل مع منظمة غير ربحية تتألف من أكاديميين ومتخصصين في المجتمع المدني ومنظمات إعلامية، للتوصل إلى معايير يمكن استخدامها لتحديد صور الذكاء الاصطناعي عبر شبكات الويب”.

وبحسب كليج، فإن ميتا ستبدأ في القريب العاجل الطلب من المستخدمين الكشف عن توقيت إنشاء المنشورات الصوتية أو المرئية الواقعية التي تم تعديلها بالذكاء الاصطناعي، “بما يعزز الشفافية والمسؤولية”.

ونوه إلى أنه إذا لم يكشف المستخدمون عن تلك المعلومات، “فإن العقوبات المحتملة تتراوح من التحذيرات إلى إزالة المنشور”. 

لبنان ٢٤

تابع كل المواضيع و الأخبار التي تهمك الان على واتساب اضغط على الرابط التالي https://n247.co/wp

قد يهمك أيضاً
زر الذهاب إلى الأعلى
error: