الروبوتات الذكية يمكن أن تتسبب في فناء البشرية

يحذر العلماء من حدوث وشيك لسباق عالمي تسارع فيه جميع الدول بالتسلح بأسلحة مستقلة القرارات "روبوتات" تعتمد على الذكاء الاصطناعي، ما لم تحظر الدول تطوير مثل هذه الأنواع من الأسلحة.

 

وقد وقّع كل من الملياردير "إيلون ماسك"، وعالم الفيزياء "ستيفن هوكينغ" ومشاهير علماء التكنولوجيا في العالم خطابًا مفتوحًا، محذرين فيه من مخاطر بدء سباق التسلح العالمي في أسلحة الذكاء الاصطناعي "AI"، ودعوا الأمم المتحدة لفرض حظر على الأسلحة التي لن يكون للبشر أي "تحكم حقيقي فيها".

 

وصدرت الرسالة عن مؤسسة "مستقبل الحياة" Future of Life، وتم عرضها يوم 27 يوليو في المؤتمر الدولي المشترك للذكاء الاصطناعي في بوينس آيرس، بالأرجنتين.

 

وجاء في نص الرسالة: "السؤال الرئيسي للبشرية اليوم هو: هل ينبغي البدء في سباق تسلح AI عالمي لأسلحة الذكاء الاصطناعي المستقلة القرارات، أم أن على العالم منعه قبل أن يبدأ؟".

 

إذا ما قامت أي قوة عسكرية كبيرة بدفع تطوير هذا النوع من الأسلحة إلى الأمام، فسباق التسلح العالمي سيصبح أمرًا لا مفر منه تقريبًا، ونقطة النهاية لهذا المسار ستكون واضحة، أسلحة الذكاء الاصطناعي ستصبح كلاشينكوف الغد، وسيشكل هذا الأمر خطورة أكبر من خطورة الأسلحة النووية.

 

حتى الباحثون في مجال تطوير الذكاء الاصطناعي أنفسهم عبروا عن مخاوفهم بشأن الكيفية التي يجري تطوير هذه الابتكارات في هذا المجال، حيث تحدثوا عن مدى خطورة مجرد التفكير في الأسلحة المستقلة الذاتية القرارات، مثل الطائرات من دون طيار، التي يمكن أن تحلق وحدها وتقتل الناس باستخدام خوارزمية التعرف على الوجوه، وهذه التكنولوجيا يمكن أن تكون بالفعل في متناول الجميع في غضون سنوات قليلة مقبلة.

 

 

 

علاوة على ذلك يمكن لهذه الأسلحة الآلية المتطورة أن تصبح في أيدي جميع التشكيلات العسكرية تقريبًا على كوكب الأرض، لأن آلات القتل الرهيبة هذه لا تحتاج إلى تكلفة عالية، كما أن مواد صناعتها سهل الحصول عليها. 


ويخشى الباحثون من أن يتطور الأمر حتى تقع هذه التكنولوجيا في أيدي القتلة والإرهابيين والعناصر الشريرة الأخرى، التي تستطيع شراءها من السوق السوداء، واستخدامها لأغراض إرهابية خطيرة.