ايلون ماسك يبدي قلقه من خطر الذكاء الاصطناعي

ابدى إيلون ماسك، قلقه من خطر الذكاء الاصطناعي، رغم انفتاحه بشأن دفع التكنولوجيا الى أقصى حد.

 

كان إيلون ماسك منفتحا للغاية بشأن تطلعاته لدفع التكنولوجيا إلى أقصى حدودها، من السفر إلى الفضاء إلى السيارات ذاتية القيادة وغيرها.

 

لكن تعليقات ماسك الأخيرة تشير إلى أنه يضع حدا للذكاء الاصطناعي (AI).

 

أثناء حضوره قمة سلامة الذكاء الاصطناعي في قاعدة بليتشلي بارك لفك الشفرات في زمن الحرب، ادعى ماسك أن سلامة الذكاء الاصطناعي “حيوية لمستقبل الحضارة”.

 

ويأتي ذلك بعد يوم واحد فقط من ظهور ماسك في برنامج جو روجان، حيث ادعى أن الذكاء الاصطناعي يمكن أن يشكل خطرا وجوديا إذا أصبح “معاديا للإنسان”.

 

ويجتمع السياسيون وأقطاب التكنولوجيا في بليتشلي بارك بينما يبدأ أوليفر دودن أول قمة على الإطلاق لسلامة الذكاء الاصطناعي. ويطلق نائب رئيس الوزراء المؤتمر في قاعدة فك الشفرات التاريخية في زمن الحرب حيث يتجادل الخبراء حول حجم المخاطر الناجمة عن التكنولوجيا الناشئة.

 

واقتباسا من تغريدة رئيس الوزراء البريطاني ريشي سوناك، كتب ماسك ببساطة: “سلامة الذكاء الاصطناعي أمر حيوي لمستقبل الحضارة”.

 

وجاء في المنشور الأصلي ل‍ريشي سوناك ما يلي: “تبدأ القمة العالمية لسلامة الذكاء الاصطناعي في المملكة المتحدة اليوم. إليكم ما نأمل تحقيقه: الاتفاق على مخاطر الذكاء الاصطناعي، لإبلاغنا بكيفية إدارتها، ومناقشة كيف يمكننا التعاون بشكل أفضل على المستوى الدولي، والنظر في كيفية استخدام الذكاء الاصطناعي الآمن لتحقيق الصالح العام على مستوى العالم”.

 

وقال ماسك: “عليك أن تقول، كيف يمكن أن يخطئ الذكاء الاصطناعي؟، حسنا، إذا تمت برمجة الذكاء الاصطناعي من قبل دعاة الانقراض، فستكون وظيفته هي العمل على انقراض البشرية”.

 

وقال إن مخاطر برمجة الذكاء الاصطناعي “ضمنيا” للاعتقاد بأن “انقراض البشرية هو ما يجب أن تحاول القيام به” هو “الخطر الأكبر” الذي تشكله التكنولوجيا.

 

ووقع ماسك على خطاب يدعو إلى التوقف لمدة ستة أشهر عن تطوير الذكاء الاصطناعي في وقت سابق من هذا العام.

الذكاء الاصطناعيايلون ماسك