إرهاب مُسلح يحمله الذكاء الإصطناعي.. خبراءٌ يحذرون من خطر كبير!
ويكشف خبيران في مجال الذكاء الاصطناعي وتكنولوجيا المعلومات لموقع “سكاي نيوز عربية” حقيقة تلك المخاوف ومدى إمكانية تحققها في المستقبل القريب.
“إرهاب” الذكاء الاصطناعيوالثلاثاء، حذر 3 من قادة الذكاء الاصطناعي المؤثرين أثناء شهادتهم في جلسة استماع بالكونغرس الأميركي، من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
وانعقدت جلسة الاستماع بعد أيام من تقديم شركات تعمل في مجال الذكاء الاصطناعي التزامات طوعية للبيت الأبيض، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أماناً.
مخاوف مبررةيتحدث خبير تكنولوجيا المعلومات، سلوم الدحداح، عن “جانب أسود وخطر” للذكاء الاصطناعي،؛ نظرا لآن تلك الأنظمة قادرة على “التعلم وتطوير نفسها ذاتيا”، ويضيف: “يمكن استخدام الذكاء الاصطناعي في تطور أسلحة قاتلة وفتاكة، حسب البرمجة التي يقوم الإنسان بتغذية تلك الأنظمة بها قبل أن تعمل على تطوير ذلك بشكل ذاتي”.
وفي سياق حديثه، يسأل الدحداح: “ماذا سيحدث إذا اتصل الذكاء الاصطناعي بأشخاص لديهم اهتمام بفعل الشر أو تطوير أسلحة مدمرة؟!”. هنا، يعتبر خبير التكنولوجيا أن حدوث هذا قد “يدمر كل شيء”، ويحول تلك الأنظمة الذكية إلى “وسيلة تهدد البشرية وتطور معدات وأسلحة عسكرية ذات قدرات غير محدودة”.
خطر “بلا حدود”من جانبه، يرى خبير تكنولوجيا المعلومات، إسلام غانم، أن تطور الذكاء الاصطناعي “ليس لديه حدود”؛ ولذلك تسعى الولايات المتحدة ودول الغرب لعدم عمل الشركات العملاقة في مجال الذكاء الاصطناعي بشكل منفرد، حتى لا يتحول إلى أداة تهدد تلك الدول أو تعبث بأمن البشرية.
والذكاء الاصطناعي التوليدي، الذي يستخدم البيانات لإنشاء محتوى جديد يشبه ما ينتجه البشر، مثلما يفعل “شات جي بي تي”، أحدثت قدراته صدمة في العالم، وبدأت برلمانات وحكومات، منها البرلمان الأوروبي، في وضع تشريعات تكبح جماحه، وتجعله تحت المراقبة والسيطرة.
نوعان لشركات الذكاء الاصطناعيبحسب رأي سلوم الدحداح، فإنَّ أكبر مخاطر الذكاء الاصطناعي تتعلق بـ”قدرة تلك الأنظمة على التعلم ذاتياً، والقيام بأشياء لا يريدها الإنسان”، ويُردف: “نحن نؤيد تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لتلك الأنظمة تعلمه، وما لا يجب عليها معرفته أو الخوض فيه”.
ويشير الدحداح إلى مخاطر أخرى تتعلق بتغذية تلك الأنظمة بـ”بيانات مشوهة أو تطبيقات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستخدم قدرات الذكاء الاصطناعي في غير موضعها”.
من جانبه، يشير إسلام غانم إلى نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، النوع الأول يستجيب لتلك المخاوف ويعمل على “ضبط أداء الأنظمة الذكية”. كذلك، فإن غانم يتخوف من نوعٍ آخر من الشركات التي “لا تستجيب لتلك المخاوف أو تراها غير مبررة، وتسارع لإنتاج أنظمة ذكية للغاية “دون ضوابط أو قواعد”. (سكاي نيوز عربية)
لبنان ٢٤
تابع كل المواضيع و الأخبار التي تهمك الان على واتساب اضغط على الرابط التالي https://n247.co/wp