إلى أي حد يمكن أن يصل الذكاء الاصطناعي في تطوره؟
وهل يمكن له أن يتفوق على البشر الذين ابتكروه؟
وهل من الممكن أن يتسبب في انهيار حضارتهم على غرار ما نشاهده في أفلام الخيال العلمي؟
كتب عدي حسن
المخاوف في بريطانيا!
تخشى المخابرات البريطانية أن يؤدي الذكاء الاصطناعي إلى تغذية برامج الفدية وتفاقم الجرائم الإلكترونية، في تقرير لوحدة الأمن السيبراني التابعة للمخابرات البريطانية (GCHQ) يشير إلى أن الذكاء الاصطناعي سيؤدي إلى زيادة حجم وتأثير الهجمات الإلكترونية في المدى القريب.
كما تشير وكالة الاستخبارات البريطانية إلى أنه من المتوقع أن يؤدي الذكاء الاصطناعي إلى زيادة جرائم الإنترنت في العامين المقبلين.
تحليل الباحثين لهذه المخاطر
لطالما حذر الباحثون في مجال الأمن من خطر أن تصبح برامج الذكاء الاصطناعي ذكية بما يكفي لتنظيم هجمات إلكترونية، لكن يوم الأربعاء الماضي، ذهب مركز الأمن السيبراني الوطني (NCSC) التابع للمملكة المتحدة إلى أبعد من ذلك ونشر تقريراً مضمونه “من المرجح جداً أن يؤدي الذكاء الاصطناعي إلى زيادة حجم الهجمات الإلكترونية وزيادة تأثيرها”.
“يستخدم جميع أنواع الجهات الفاعلة في التهديدات السيبرانية – الدول والجهات غير الحكومية والخبراء والأقل مهارة – الذكاء الاصطناعي بدرجات متفاوتة”، وفقاً للتقرير الذي يستشهد جزئياً بـ “المخابرات السرية” وبيانات الصناعة (يعمل NCSC تحت إشراف وكالة الاستخبارات GCHQ التابعة للمملكة المتحدة).
لا يذكر التقرير خطر خروجه عن السيطرة للاستيلاء على العالم، بدلاً من ذلك، يقول NCSC إن الذكاء الاصطناعي أصبح أداة قوية لمساعدة المتسللين على تحسين وتبسيط هجماتهم، مما يجعل من السهل إنتاج رسائل التصيد الخادعة والبرامج الضارة التي يصعب اكتشافها.
الهندسة الاجتماعية
“سيوفر الذكاء الاصطناعي في المقام الأول دفعة للقدرة على التهديد في الهندسة الاجتماعية”، قال NCSC، “يمكن بالفعل استخدام الذكاء الاصطناعي التوليدي (GenAI) لتمكين التفاعل المقنع مع الضحايا، بما في ذلك إنشاء مستندات الإغراء ، دون الأخطاء النحوية والنحوية والترجمة التي تكشف غالباً عن التصيد الاحتيالي، من المرجح جداً أن يزداد هذا خلال العامين المقبلين حيث تتطور النماذج ويزداد القبول”.
أما القلق الآخر فهو استخدام المتسللين لنماذج الذكاء الاصطناعي الحالية لفرز كميات كبيرة من البيانات أو حتى تيرابايت من البيانات التي نهبوها من الهدف بسرعة، بالنسبة لإنسان يمكن أن يستغرق الأمر أسابيع لتحليل المعلومات، لكن يمكن برمجة نموذج Al لتحديد تفاصيل مهمة بسرعة في غضون دقائق لمساعدة المتسللين في إطلاق هجمات جديدة أو مخططات ضد الضحايا.
المخاطر المحتملة لـ الذكاء الاصطناعي في بريطانيا
“من المحتمل جداً أن تصبح الهجمات الإلكترونية ضد المملكة المتحدة أكثر تأثيراً لأن الجهات الفاعلة في التهديدات ستتمكن من تحليل البيانات المُستخلصة بشكل أسرع وأكثر فاعلية، وستستخدمها لتدريب نماذج الذكاء الاصطناعي”، يضيف NCSC.
نقطة إيجابية!
وعلى الرغم من المخاطر المحتملة، وجد تقرير NCSC نقطة إيجابية واحدة: “سيتم تعويض تأثيره على التهديد السيبراني من خلال استخدام الذكاء الاصطناعي لتعزيز مرونة الأمن السيبراني من خلال الكشف وتحسين الأمان من خلال التصميم”، لذلك فمن الممكن أن يطور قطاع الأمن السيبراني ذكاءً اصطناعياً ذكياً بما يكفي لمواجهة الهجمات من الجيل التالي، لكن الوقت كفيل بإثبات ذلك.
هجمات سيبرانية
تقول شركات الأمن السيبراني بما في ذلك Kaspersky إنها رصدت أيضاً مجرمين إلكترونيين يستخدمون برامج الذكاء الاصطناعي، “غالباً ما تتضمن الموضوعات تطوير البرامج الضارة وأنواع أخرى من الاستخدام غير المشروع لنماذج اللغة، مثل معالجة البيانات المسروقة من المستخدمين، وفهرسة الملفات من الأجهزة المصابة، وما إلى ذلك” ، كما تقول Kaspersky في تقريرها الخاص.
في العام الماضي، كُشف عن مطور ينشئ نسخة ضارة من ChatGPT تسمى WormGPT يمكن استخدامها لصياغة مخططات القرصنة، تم التخلي عن المشروع لاحقاً، وأصبح من المفارقات أنه أصبح مخططًا لخداع قراصنة آخرين، ولكن منذ ذلك الحين ظهرت روبوتات دردشة ضارة أخرى تسمى “xxxGPT ، WolfGPT ، FraudGPT ، و DarkBERT” ، كما تقول Kaspersky.