تكنولوجيا و علوم

تشات جي بي تي يفشل في الإجابة عن هذه الأسئلة

كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة “تشات جي بي تي” (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية.

وبحسب شبكة “سي إن بي سي” الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على “تشات جي بي تي” ليجدوا أن 10 من إجاباته فقط يمكن عدّها مُرضِية.

أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.

وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: “يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية”.

وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية “أوبن أيه آي”، المطورة لـ”تشات جي بي تي”، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية.
وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.

المصدر:
أ.ف.ب – الشرق الأوسط – رويترز

لبنان ٢٤

تابع كل المواضيع و الأخبار التي تهمك الان على واتساب اضغط على الرابط التالي https://n247.co/wp

قد يهمك أيضاً
زر الذهاب إلى الأعلى
error: