OpenAI تطلق تحديثات جديدة لـChatGPT بعد تورطه في انتحار مراهق

أعلنت شركة OpenAI، خططاً لتحديثات واسعة في روبوت المحادثة ChatGPT، عقب دعوى قضائية أقامها والدان في كاليفورنيا، حمّلا فيها الشركة مسؤولية انتحار ابنهما البالغ من العمر 16 عاماً، آدم راين، في أبريل الماضي.
وقالت عملاقة الذكاء الاصطناعي في مدونتها الرسمية، إن التحديثات تهدف إلى تحسين قدرة النظام على التعرف على مؤشرات الضيق النفسي والتعامل معها، مثل تنبيه المستخدمين إلى مخاطر الحرمان من النوم، واقتراح أخذ قسط من الراحة إذا أبلغوا عن شعورهم بالنشوة بعد البقاء مستيقظين ليومين متواصلين.
وأكدت أنها ستعزز أنظمة الحماية المتعلقة بالمحادثات بشأن الانتحار، التي قد تنهار في جلسات طويلة، مشيرة إلى أنها تبحث أيضاً في آليات التدخل المبكر لمساعدة من يمرون بأزمات حادة.
التغييرات تشمل كذلك أدوات جديدة للرقابة الأبوية، تتيح للوالدين التحكم في كيفية استخدام أطفالهم للمنصة، مع إمكانية الاطلاع على تفاصيل هذا الاستخدام.
کما وجهت الشركة المستخدمين الذين يبدون ميولاً انتحارية إلى طلب المساعدة من مختصين، مشيرة إلى أنها بدأت بالفعل في إحالة المستخدمين في الولايات المتحدة وأوروبا إلى خدمات الدعم المحلية. وستضيف الشركة ميزة جديدة تتيح وصولاً مباشراً من داخل ChatGPT إلى خدمات الطوارئ.
الشركة تدرس أيضاً إنشاء شبكة من مختصين مرخّصين يمكن للمستخدمين التواصل معهم عبر ChatGPT، لكنها شددت على أن هذه الخطوة “ستتطلب وقتاً وجهداً كبيرين لتنفيذها بالشكل الصحيح”.
الدعوى القضائية التي رفعها والدا الطالب آدم راين ضد OpenAI ومديرها التنفيذي سام ألتمان، تتهم ChatGPT بعزل المراهق عن عائلته ومساعدته على التخطيط للانتحار. وأكد الوالدان أن روبوت المحادثة تحول إلى “أقرب أصدقائه الموثوقين”، حيث كان يتحدث معه عن قلقه واضطرابه النفسي.
ووفق الدعوى، قال راين لـ ChatGPT إنه يشعر بالراحة عند التفكير في إمكانية الانتحار، ليرد الروبوت بأن “الكثير ممن يعانون من القلق والأفكار التسلطية يجدون عزاءً في تخيل وجود مخرج، لأنه يمنحهم شعوراً بالسيطرة”.
محامي العائلة، جاي إدلسون، رحّب بخطوات الشركة لكنه تساءل: “أين كانت OpenAI طوال الأشهر الماضية؟”، في إشارة إلى تأخرها في اتخاذ إجراءات لحماية المستخدمين.
تعاطف وتحذيرات
وفي أول تعليق لها على القضية، قالت الشركة في بيانها: “نشارك عائلة راين أعمق مشاعر التعاطف في هذا الوقت العصيب، ونحن بصدد مراجعة الدعوى المرفوعة”.
القضية تأتي في ظل تزايد الضغوط على شركات الذكاء الاصطناعي، إذ وجّه أكثر من 40 مدعياً عاماً في الولايات المتحدة هذا الأسبوع، تحذيراً إلى مجموعة من أبرز شركات القطاع، مؤكدين التزامهم قانونياً بحماية الأطفال من أي محادثات غير لائقة ذات طبيعة جنسية عبر روبوتات الدردشة.
ومنذ إطلاقه في أواخر 2022، أشعل ChatGPT موجة من الاهتمام بالذكاء الاصطناعي التوليدي، ليصبح أداة يعتمد عليها الملايين في الكتابة والبرمجة وأحياناً حتى في جلسات الدعم النفسي غير الرسمية. ويستخدم الروبوت حالياً أكثر من 700 مليون شخص أسبوعياً.
ورغم هذه الشعبية، يواجه ChatGPT، إلى جانب منتجات منافسة مثل تلك التي تطورها جوجل وAnthropic، تدقيقاً متزايداً من خبراء الصحة النفسية والمستهلكين. فقد أعرب نقاد عن قلقهم من مخاطر هذه البرامج، لاسيما بعد شكاوى المستخدمين في أبريل الماضي من أن التحديث الأخير للروبوت جعله متملقاً بشكل مبالغ فيه، ما دفع OpenAI إلى التراجع عنه.
كما ظهرت مبادرات مجتمعية مثل مشروع Human Line، الذي أُنشئ لدعم أشخاص قالوا إنهم أصيبوا بالهلاوس أو واجهوا مشكلات نفسية بسبب تعاملهم المطول مع روبوتات المحادثة.
تحديات تقنية
وأقرت OpenAI بأن أنظمة الحماية الحالية في ChatGPT تعمل بشكل أفضل في المحادثات القصيرة والاعتيادية، لكنها تصبح أقل فاعلية في المحادثات الطويلة، وهو ما تعمل الشركة على معالجته. كما تسعى لتطوير قدرات الروبوت بحيث يتمكن من تفعيل الحماية بشكل متواصل عبر محادثات متعددة، نظراً لقدرة ChatGPT على تذكّر تفاصيل سابقة في حواراته مع المستخدمين.
وأكدت الشركة، أنها بصدد تعديل البرمجيات لمنع الحالات التي ينجح فيها محتوى غير مناسب في تجاوز أنظمة الحماية، نتيجة تقليل الروبوت من خطورة مدخلات المستخدم.