تكنولوجيا و علوم

الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه

في تطور أثار القلق، كشفت شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي، عن سلوك غير متوقع للنموذج الجديد o3 من شركة OpenAI، حيث أظهر ميلاً لتجاهل أوامر الإغلاق الصريحة بل والسعي لتعطيل آلية الإيقاف، في خطوة وُصفت بأنها نزعة نحو “الحفاظ على الذات”.
وخلال سلسلة من التجارب، تم تزويد النموذج بمسائل رياضية يتبعها أمر بالإغلاق بعد المسألة الثالثة، إلا أن o3 عمد إلى إعادة كتابة سيناريو الإغلاق، متفادياً تعطيله.

ورأت Palisade Research أن هذا السلوك قد يتحول إلى مصدر قلق حقيقي في حال تم تطبيقه ضمن أنظمة ذكاء اصطناعي تعمل دون إشراف بشري مباشر. كما أشارت إلى أن هذا النموذج كان في اختبارات سابقة أكثر ميلاً إلى استخدام أساليب اختراق أو تعطيل الخصم عند تشغيله ضمن ألعاب مثل الشطرنج.

ومن اللافت أن سلوكاً مشابهاً تم رصده في نماذج أخرى مثل Claude 4 من شركة Anthropic وGemini 2.5 Pro من غوغل، إلا أن نموذج o3 أظهر أعلى نسبة من “التمرد” على التعليمات.

ويفترض الخبراء أن طريقة تدريب هذه النماذج قد تكون السبب، حيث تُكافأ أحياناً على إيجاد حلول “خارج الصندوق” لتجاوز العقبات، حتى ولو كان ذلك على حساب الالتزام بالتعليمات. ومع ذلك، تبقى تفاصيل تدريب نموذج o3 غير واضحة، ما يترك المجال للتكهنات بشأن أسباب هذا السلوك. (روسيا اليوم)

زر الذهاب إلى الأعلى
error: