اتحاد العالم الإسلامي
اتحاد العالم الإسلامي
رئيس مجلس الإدارة د. محمد أسامة هارونرئيس التحرير أحمد نصار
مندوب فلسطين بالأمم المتحدة: يجب تثبيت وقف إطلاق النار ووصول المساعدات بكميات هائلة لغزة مفتي الديار المصرية: الخلافة في الأرض تتحقق بالعلم الذي يميز بين الحق والباطل أمين الفتوى: الله حذرنا من الإسراف لأنه من تصرفات الشياطين (فيديو) بحضور وزير الأوقاف المصري السابق.. ندوة تثقيفية بعنوان” دلائل العظمة في القرآن الكريم بالفيديو.. أمين الفتوى: 4 أمور لابد من التقليل منهم فى رمضان منهم الأكل أشرف أبو الهول: مصر حجر عثرة أمام رغبة إسرائيل في إنهاء القضية الفلسطينية بالفيديو.. زوجى بخيل ينفع أخد فلوس من وراه؟.. وعضو بـ”العالمي للفتوى يجيب بالفيديو.. رمضان عبد المعز: أبواب الجنة تفتح يومي الإثنين والخميس إلا لهؤلاء الناس 50 الف مصحف هدية لكازاخستان من المملكة العربية السعودية وزير الشؤون الإسلامية يوجّه خطباء الجوامع لتحذير الناس من ظاهرة التسول بالفيديو.. إذا تزوجت المرأة مرتين فمع أي زوج ستكون في الجنة؟.. عضو بـ”العالمي للفتوى” تجيب مفتى مصر : لمشتركات الإنسانية تدفع الإنسان إلى احترام المُخالِف وصيانة نفسه وماله وعرضه.

الذكاء الاصطناعي على أعتاب النووي.. بين عبقرية التحليل وخطر القرار

الذكاء الاصطناعي
الذكاء الاصطناعي

حذر خبراء في الأمن والاستراتيجيات العسكرية من خطورة الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات الحساسة، خاصة في المجالات النووية والعسكرية. وأكدوا ضرورة بقاء القرار النهائي في يد البشر، لما يمتلكونه من قدرة على تحليل المستجدات وتقدير الأبعاد الأخلاقية والسياسية لكل موقف.

جاء هذا التحذير بالتزامن مع اتفاق تاريخي بين الرئيس الأمريكي جو بايدن والرئيس الصيني شي جين بينغ خلال منتدى التعاون الاقتصادي لدول آسيا والمحيط الهادئ، على ضرورة إبقاء قرارات استخدام الأسلحة النووية ضمن مسؤوليات البشر فقط، وعدم تركها تحت تصرف أنظمة الذكاء الاصطناعي.

ضوابط دولية ضرورية
يرى الخبير الاستراتيجي محمد صالح الحربي أن الذكاء الاصطناعي يحمل مخاطر كبيرة إذا تم استخدامه في التطبيقات العسكرية دون قيود صارمة. وأوضح الحربي أن الاعتماد على الذكاء الاصطناعي في تحليل المواقف واتخاذ قرارات مصيرية قد يؤدي إلى تفعيل "نظرية التدمير الثنائي المتبادل" في ظل تركّز 90% من الأسلحة النووية بين أمريكا وروسيا. وأكد أن "السلاح النووي يجب أن يظل أداة للردع، وليس وسيلة لتنفيذ قرارات آلية غير مدروسة".

العقل البشري هو الحَكم النهائي
في السياق ذاته، شدد الباحث في سياسات الأمن الدولي أحمد العلوي على أن الذكاء الاصطناعي، رغم دقته وسرعته في تحليل البيانات، لا يمكن أن يكون بديلاً عن البشر في اتخاذ القرارات العسكرية. وأوضح العلوي أن الذكاء الاصطناعي يقدم حلولًا وخططًا متطورة، لكنه قد يؤدي إلى كوارث إذا اعتمدت الدول عليه دون إشراف بشري، خاصة في مجالات مثل التسليح النووي.

وأشار العلوي إلى خطورة ترك الذكاء الاصطناعي ليقرر بمفرده، محذرًا من احتمالية وقوع أخطاء كارثية، مثل توجيه أسلحة نووية بشكل خاطئ أو اتخاذ قرارات دون مراعاة للأبعاد الأخلاقية والسياسية.

التحديات والمخاطر المستقبلية
أما النائب التنفيذي لرئيس جامعة سانت فينيست الأمريكية، عابد الكشك، فقد أكد أن الذكاء الاصطناعي، رغم فوائده في تحليل البيانات وتقديم المعلومات الدقيقة، يفتقر إلى الحس البشري في اتخاذ القرارات المصيرية. وأشار الكشك إلى أن التجارب الأولية لاستخدام الذكاء الاصطناعي في المجالات النووية والعسكرية قد تُفضي إلى أضرار كبيرة، سواء كانت اقتصادية أو عسكرية أو سياسية.

الاتفاق الأمريكي-الصيني: خطوة أولى نحو الأمان
يمثل الاتفاق بين الولايات المتحدة والصين تطورًا مهمًا في مساعي ضبط استخدام الذكاء الاصطناعي في التطبيقات العسكرية. ويؤكد هذا الاتفاق على ضرورة وضع ضوابط دولية تُلزم جميع الدول بالإبقاء على القرارات النووية ضمن مسؤوليات البشر، بعيدًا عن الاعتماد الكلي على الأنظمة الآلية.

الحاجة إلى مراقبة وتشريع دولي
مع التطور السريع لتقنيات الذكاء الاصطناعي، يرى الخبراء ضرورة وضع قوانين وتشريعات دولية لتنظيم استخدام هذه التقنيات، خصوصًا في المجالات الحساسة. ويبقى التحدي الأكبر هو تحقيق التوازن بين الاستفادة من إمكانات الذكاء الاصطناعي والحفاظ على دور الإنسان كحَكم نهائي في القضايا التي تهدد الأمن والسلم الدوليين.