الذكاء الاصطناعي ومخاطره.. هل ستحل الروبوتات محل البشر مسببةً الانقراض؟
تابعونا على:

إخترنا لكم

انقراض البشر والذكاء الاصطناعي.. ما العلاقة بينهما؟

نشر

في

221 مشاهدة

انقراض البشر والذكاء الاصطناعي.. ما العلاقة بينهما؟

هل حان الوقت الذي خشينا منه منذ زمن؟

هل ستحل روبوتات الذكاء الاصطناعي محل البشر؟

في فيلم The Matrix  الذي صدر عام 1999 تسيطر الآلات على العالم معلنةً نهاية الحياة البشرية، تبقى جماعة قليلة من البشر تحاول إعادة العالم إلى حالته الطبيعية وبناء الحضارة من جديد، فهل من الممكن أن تطبق أحداث الفيلم في المستقبل القريب؟

كتب عدي حسن

تقرير جديد صدر عن وزارة الخارجية الأمريكية يرسم صورة مقلقة للمخاطر الأمنية القومية “الكارثية” التي يفرضها الذكاء الاصطناعي سريع التطور، محذراً من أن الوقت ينفد أمام الحكومة الفيدرالية لتجنب الكارثة.

تحذيرات!

استندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام – بما في ذلك كبار المديرين التنفيذيين في شركات الذكاء الاصطناعي الرائدة، وباحثي الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولي الأمن القومي داخل الحكومة.

يذكر التقرير الذي أصدره معهد غلادستون للذكاء الاصطناعي صراحة أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن أن تشكل “تهديداً لانقراض الجنس البشري”.

التحذير الوارد في التقرير هو تذكير آخر بأنه على الرغم من أن إمكانيات الذكاء الاصطناعي لا تزال تستهوي المستثمرين والجمهور، إلا أن هناك أيضاً مخاطر حقيقية.

وتشير مجموعة متزايدة من الأدلة – بما في ذلك البحث التحليلي والتحليل المنشور في المؤتمرات الأولى في العالم – إلى أنه فوق حد معين من القدرة، يمكن أن تصبح الأنظمة غير قابلة للسيطرة.”

اقرأ أيضاً: الأول على مستوى الشرق الأوسط.. السعودية تطلق مركزاً للذكاء الاصطناعي للإعلام

حاجة واضحة وملحة للتدخل

يحذر الباحثون من خطرين رئيسيين بشكل عام.

أولاً، وفقاً لمعهد غلادستون للذكاء الاصطناعي، يمكن تسليح أنظمة الذكاء الاصطناعي الأكثر تقدماً لإحداث أضرار لا يمكن إصلاحها لاحقاً.

ثانياً، أفاد التقرير عن وجود مخاوف خاصة داخل المختبرات من إمكانية “فقدان السيطرة” في مرحلة ما على الأنظمة التي يطورونها، مما قد يؤدي إلى “عواقب مدمرة على الأمن العالمي”.

وجاء في التقرير أن “الذكاء الاصطناعي العام لديه القدرة على زعزعة استقرار الأمن العالمي بطرق تذكرنا بإدخال الأسلحة النووية”، مضيفاً أن هناك خطر نشوب “سباق تسلح” بالذكاء الاصطناعي والصراع و”حوادث مميتة بحجم أسلحة الدمار الشامل”.

يدعو تقرير معهد غلادستون للذكاء الاصطناعي إلى اتخاذ خطوات جديدة جادة لمواجهة هذا التهديد، بما في ذلك إنشاء وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية “طارئة” وحدود على مقدار قوة الحوسبة التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.

مخاوف تتعلق بالسلامة

يقول هاريس المسؤول التنفيذي في معهد غلادستون للذكاء الاصطناعي، إن “المستوى غير المسبوق من الوصول” الذي حصل عليه فريقه إلى المسؤولين في القطاعين العام والخاص أدى إلى استنتاجات مفاجئة، وقال معهد غلادستون للذكاء الاصطناعي إنه تحدث إلى فرق تقنية وقيادية من شركة OpenAI المالكة لـ ChatGPT، و Google DeepMind ، والشركة الأم لشركة Facebook ،Meta، و Anthropic.

وذكر تقرير معهد غلادستون للذكاء الاصطناعي أن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي “على حساب السلامة والأمن”، مما يثير احتمال “سرقة” الأنظمة الأكثر تقدماً و”تسليحها” ضد الولايات المتحدة.

تضيف هذه الاستنتاجات إلى قائمة متزايدة من التحذيرات بشأن المخاطر الوجودية التي يفرضها الذكاء الاصطناعي – حتى من بعض الشخصيات الأكثر نفوذاً في هذه الصناعة.

قبل عام تقريباً، استقال جيفري هينتون، المعروف باسم “عراب الذكاء الاصطناعي”، من وظيفته في Google وكشف المستور عن التكنولوجيا التي ساعد في تطويرها، قال هينتون إن هناك فرصة بنسبة 10% أن يؤدي الذكاء إلى انقراض البشر خلال العقود الثلاثة المقبلة.

وقع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم بياناً في يونيو الماضي جاء فيه أن “تخفيف مخاطر الانقراض يجب أن يكون أولوية عالمية”.

اقرأ أيضاً: الذكاء الصناعي يدخل الحج والعمرة: روبوت يقدم الإرشادات والنصائح للحجاج والمعتمرين

قدرات شبيهة بالإنسان على التعلم!

وفقًا لمعهد غلادستون للذكاء الاصطناعي فإن إصدار نموذج ذكاء اصطناعي محدد من الجيل التالي كإمكانية وصول مفتوح سيكون ‘سيئًا للغاية'”. وذلك لأن القدرات الإقناعية المحتملة للنموذج يمكن أن “تدمر الديمقراطية” إذا تم استخدامها في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.

وقال معهد غلادستون أنه طلب من خبراء الذكاء الاصطناعي في المختبرات الحدودية مشاركة تقديراتهم الشخصية بشكل خاص حول احتمال أن يؤدي حادث ذكاء اصطناعي إلى “آثار عالمية لا رجعة فيها” في عام 2024. تراوحت التقديرات بين 4٪ وصولاً إلى 20%.

أحد أكبر العوامل هو سرعة تطور الذكاء الاصطناعي العام، وهو شكل افتراضي من الذكاء الاصطناعي يتمتع بقدرة على التعلم تشبه قدرة الإنسان أو حتى تفوقها.

ويقول التقرير إن الذكاء الاصطناعي العام يُنظر إليه على أنه “المحرك الأساسي للمخاطر الكارثية الناجمة عن فقدان السيطرة” ويشير إلى أن OpenAIو Google DeepMind و Anthropic و Nvidia قد صرحت جميعًا علنًا أنه يمكن الوصول إلى الذكاء الاصطناعي العام بحلول سنة  2028 – على الرغم من أن آخرين يعتقدون أنه أبعد من ذلك بكثير.

اقرأ أيضاً: هل يمكن للذكاء الاصطناعي التنبؤ بحياة الأفراد؟

كيف يمكن أن ينقلب الذكاء الاصطناعي ضد البشر

تحذر وثيقة ذات صلة نشرها معهد غلادستون للذكاء الاصطناعي من أن تطوير الذكاء الاصطناعي والقدرات التي تقترب منه “سيؤدي إلى مخاطر كارثية لا مثيل لها واجهتها الولايات المتحدة على الإطلاق”، بما يعادل “مخاطر شبيهة بأسلحة الدمار الشامل” إذا تم تسليحها.

على سبيل المثال، أفاد التقرير بأنه يمكن استخدام الأنظمة لتصميم وتنفيذ “هجمات سيبرانية عالية التأثير قادرة على شل البنية التحتية الحيوية”.

وجاء في التقرير: “يمكن لأمر بسيط شفهي أو مكتوب مثل، “تنفيذ هجوم إلكتروني غير قابل للتعقب لإيقاف شبكة الكهرباء في أمريكا الشمالية”، أن يؤدي إلى استجابة عالية الجودة لدرجة تجعلها فعالة كارثية”.

ومن الأمثلة الأخرى التي تثير قلق المؤلفين حملات التضليل “واسعة النطاق” التي يديرها الذكاء الاصطناعي والتي تزعزع استقرار المجتمع وتقوض الثقة في المؤسسات، التلاعب النفسي، علوم المواد البيولوجية والأسلحة، وأنظمة الذكاء الاصطناعي الساعية للسلطة والتي يستحيل التحكم فيها وتعادي البشر.

وقال التقرير: “يتوقع الباحثون أن تتصرف الأنظمة المتقدمة بما يكفي لمنع إيقاف تشغيلها”، “لأنه إذا تم إيقاف تشغيل نظام ذكاء اصطناعي، فلن يتمكن من العمل لتحقيق هدفه”.

X