عندما اكتشف براين هود أن «تشات جي بي تي» نسب إليه ماضياً إجرامياً، وجد هذا السياسي الأسترالي نفسه في مواجهة معضلة ينكبّ المهندسون جاهدين على محاولة حلّها، وتتمثل في كيفية تعليم الذكاء محوَ الأخطاء.
فالخيار القانوني المتمثل في تلويح براين هود في نيسان الفائت برفع دعوى تشهير على شركة «أوبن إيه آي» (منشئة «تشات جبي بي تي») لا يبدو حلاً مناسباً. كذلك لا يكمن الحلّ في إعادة ضبط معايير الذكاء الاصطناعي بالكامل، إذ إن تدريب النموذج مجدداً يستغرق وقتاً طويلاً وهو مكلف جداً.
ويرى المختصون أن مسألة «إلغاء التعلّم» أي جعل الذكاء الاصطناعي ينسى بعض ما تلقّنه، ستكون بالغة الأهمية في السنوات المقبلة، خصوصاً في ضوء التشريعات الأوروبية لحماية البيانات.
وتؤكد أستاذة علوم المعلومات في جامعة «آر إم آي تي» في ملبورن ليسا غيفن أن «القدرة على محو البيانات الموجودة في قواعد بيانات التعلّم هي موضوع مهم جداً». لكنها ترى أن جهداً كبيراً لا يزال مطلوباً في هذا المجال نظراً إلى النقص الحالي في المعرفة في شأن كيفية عمل الذكاء الاصطناعي، وفق ما ذكرته وكالة الصحافة الفرنسية.
ففي ظل الكم الهائل من البيانات التي يُدرَّب الذكاء الاصطناعي عليها، يسعى المهندسون إلى حلول تتيح تحديداً أكبر، بحيث تُزال المعلومات الخاطئة من مجال معرفة أنظمة الذكاء الاصطناعي بغية وقف انتشارها.
واكتسب الموضوع زخماً خلال السنوات الثلاث أو الأربع الأخيرة، على ما يوضح لوكالة الصحافة الفرنسية الباحث الخبير في هذا المجال مقداد كرمانجي من جامعة وارويك البريطانية.
وانكبّ أكثر من 1000 خبير شاركوا في مسابقة أطلقتها الشركة الأميركية على العمل ما بين تموز وأيلول لتحسين أساليب «إلغاء تعلّم» الذكاء الاصطناعي.
(الشرق الأوسط)
لبنان ٢٤
تابع كل المواضيع و الأخبار التي تهمك الان على واتساب اضغط على الرابط التالي https://n247.co/wp