خبير في الأمن السيبراني يحلل التهديدات باستخدام أدوات الذكاء الاصطناعي التوليدي.

كيف يمكن استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟

مقدمة

يُعدّ الذكاء الاصطناعي التوليدي - أنظمة الذكاء الاصطناعي القادرة على إنشاء محتوى أو تنبؤات جديدة - قوةً دافعةً للتغيير في مجال الأمن السيبراني. وقد أثبتت أدوات مثل GPT-4 من OpenAI قدرتها على تحليل البيانات المعقدة وتوليد نصوص شبيهة بالنصوص البشرية، مما يتيح أساليب جديدة للدفاع ضد التهديدات السيبرانية. ويبحث متخصصو الأمن السيبراني وصنّاع القرار في مختلف القطاعات كيف يُمكن للذكاء الاصطناعي التوليدي تعزيز الدفاعات ضد الهجمات المتطورة. فمن القطاع المالي والرعاية الصحية إلى قطاع التجزئة والحكومة، تواجه المؤسسات في جميع القطاعات محاولات تصيّد احتيالي متطورة، وبرامج ضارة، وغيرها من التهديدات التي قد يُساعد الذكاء الاصطناعي التوليدي في مواجهتها. في هذه الورقة البحثية، نتناول كيفية استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ، مع تسليط الضوء على تطبيقاته العملية، وإمكانياته المستقبلية، والاعتبارات المهمة لاعتماده.

يختلف الذكاء الاصطناعي التوليدي عن الذكاء الاصطناعي التحليلي التقليدي ليس فقط في اكتشاف الأنماط، بل أيضًا في إنشاء المحتوى - سواءً بمحاكاة الهجمات لتدريب الدفاعات أو إنتاج تفسيرات باللغة الطبيعية لبيانات أمنية معقدة. هذه القدرة المزدوجة تجعله سلاحًا ذا حدين: فهو يوفر أدوات دفاعية جديدة فعّالة، ولكن يمكن للجهات الفاعلة في مجال التهديدات استغلاله أيضًا. تستكشف الأقسام التالية مجموعة واسعة من حالات استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني، بدءًا من أتمتة اكتشاف التصيد الاحتيالي وصولًا إلى تحسين الاستجابة للحوادث. كما نناقش الفوائد التي تُبشر بها ابتكارات الذكاء الاصطناعي هذه، إلى جانب المخاطر (مثل "هلوسة" الذكاء الاصطناعي أو إساءة استخدامه بشكل عدائي) التي يجب على المؤسسات إدارتها. وأخيرًا، نقدم نصائح عملية لمساعدة الشركات على تقييم الذكاء الاصطناعي التوليدي ودمجه بمسؤولية في استراتيجياتها للأمن السيبراني.

الذكاء الاصطناعي التوليدي في الأمن السيبراني: نظرة عامة

يشير الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني إلى نماذج الذكاء الاصطناعي - غالبًا نماذج لغوية ضخمة أو شبكات عصبية أخرى - التي يمكنها توليد رؤى وتوصيات وبرمجيات، أو حتى بيانات اصطناعية، للمساعدة في مهام الأمن. على عكس النماذج التنبؤية البحتة، يستطيع الذكاء الاصطناعي التوليدي محاكاة السيناريوهات وإنتاج مخرجات سهلة الفهم (مثل التقارير والتنبيهات، أو حتى عينات من البرمجيات الخبيثة) استنادًا إلى بيانات التدريب. تُستغل هذه القدرة للتنبؤ واكتشافها والاستجابة لها بطرق أكثر ديناميكية من ذي قبل ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس ). على سبيل المثال، يمكن للنماذج التوليدية تحليل سجلات ضخمة أو مستودعات معلومات التهديدات، وإنتاج ملخص موجز أو توصية بالإجراء، ما يجعلها بمثابة "مساعد" ذكاء اصطناعي لفرق الأمن.

أظهرت التطبيقات المبكرة للذكاء الاصطناعي التوليدي في مجال الدفاع السيبراني نتائج واعدة. ففي عام 2023، أطلقت مايكروسوفت " سكيورتي كوبايلوت" ، وهو مساعد مدعوم بتقنية GPT-4 لمحللي الأمن، للمساعدة في تحديد الاختراقات وفرز 65 تريليون إشارة تعالجها مايكروسوفت يوميًا ( مايكروسوفت سكيورتي كوبايلوت: مساعد ذكاء اصطناعي جديد بتقنية GPT-4 للأمن السيبراني | ذا فيرج ). يمكن للمحللين توجيه هذا النظام بلغة طبيعية (مثل: "لخص جميع الحوادث الأمنية في آخر 24 ساعة" )، وسيقدم المساعد ملخصًا سرديًا مفيدًا. وبالمثل، نظام جوجل للذكاء الاصطناعي لتحليل التهديدات نموذجًا توليديًا يُسمى "جيميني" لتمكين البحث التفاعلي في قاعدة بيانات جوجل الضخمة لمعلومات التهديدات، وتحليل التعليمات البرمجية المشبوهة بسرعة وتلخيص النتائج لمساعدة مكتشفي البرامج الضارة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). توضح هذه الأمثلة الإمكانات الهائلة للذكاء الاصطناعي التوليدي، حيث يمكنه استيعاب بيانات الأمن السيبراني المعقدة واسعة النطاق وتقديم رؤى مبسطة، مما يُسرّع عملية اتخاذ القرارات.

في الوقت نفسه، يُمكن للذكاء الاصطناعي التوليدي إنشاء محتوى مُزيّف شديد الواقعية، ما يُعدّ ميزةً قيّمةً للمحاكاة والتدريب (وللأسف، يُفيد أيضًا المُهاجمين الذين يُصمّمون عمليات الهندسة الاجتماعية). عند استعراض حالات استخدام مُحدّدة، سنرى أن قدرة الذكاء الاصطناعي التوليدي على توليف وتحليلها نستعرض حالات استخدام رئيسية، تشمل كل شيء بدءًا من منع التصيّد الاحتيالي وصولًا إلى تطوير البرمجيات الآمنة، مع أمثلة توضح كيفية تطبيق كل حالة في مختلف القطاعات.

التطبيقات الرئيسية للذكاء الاصطناعي التوليدي في الأمن السيبراني

الشكل: تشمل حالات الاستخدام الرئيسية للذكاء الاصطناعي التوليدي في الأمن السيبراني مساعدي الذكاء الاصطناعي لفرق الأمن، وتحليل ثغرات التعليمات البرمجية، والكشف التكيفي عن التهديدات، ومحاكاة هجمات اليوم الصفر، وتعزيز الأمن البيومتري، والكشف عن التصيد الاحتيالي ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ).

الكشف عن عمليات التصيد الاحتيالي والوقاية منها

لا يزال التصيد الاحتيالي أحد أكثر التهديدات الإلكترونية انتشارًا، حيث يُخدع المستخدمون للنقر على روابط خبيثة أو الكشف عن بيانات اعتمادهم. ويجري استخدام الذكاء الاصطناعي التوليدي للكشف عن محاولات التصيد الاحتيالي وتعزيز تدريب المستخدمين لمنع الهجمات الناجحة. فعلى الصعيد الدفاعي، تستطيع نماذج الذكاء الاصطناعي تحليل محتوى البريد الإلكتروني وسلوكيات المرسلين لرصد العلامات الدقيقة للتصيد الاحتيالي التي قد تغفلها المرشحات القائمة على القواعد. ومن خلال التعلم من مجموعات بيانات ضخمة تضم رسائل بريد إلكتروني شرعية مقابل رسائل احتيالية، يستطيع النموذج التوليدي تحديد أي شذوذ في النبرة أو الصياغة أو السياق يشير إلى عملية احتيال، حتى عندما لا تكشف القواعد النحوية والإملائية عنها. في الواقع، يشير باحثو شركة بالو ألتو نتوركس إلى أن الذكاء الاصطناعي التوليدي قادر على تحديد "العلامات الدقيقة لرسائل البريد الإلكتروني التصيدية التي قد تمر دون اكتشاف"، مما يساعد المؤسسات على البقاء متقدمة بخطوة على المحتالين ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ).

تستخدم فرق الأمن أيضًا الذكاء الاصطناعي التوليدي لمحاكاة هجمات التصيد الاحتيالي لأغراض التدريب والتحليل. على سبيل المثال، قدمت شركة Ironscales أداة محاكاة للتصيد الاحتيالي مدعومة بتقنية GPT، تقوم تلقائيًا بإنشاء رسائل بريد إلكتروني مزيفة للتصيد الاحتيالي مصممة خصيصًا لموظفي المؤسسة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). تعكس هذه الرسائل الإلكترونية المصممة بالذكاء الاصطناعي أحدث أساليب المهاجمين، مما يمنح الموظفين تدريبًا واقعيًا على اكتشاف المحتوى الاحتيالي. يُعد هذا التدريب الشخصي بالغ الأهمية، حيث يعتمد المهاجمون أنفسهم على الذكاء الاصطناعي لإنشاء طُعم أكثر إقناعًا. والجدير بالذكر أنه على الرغم من قدرة الذكاء الاصطناعي التوليدي على إنتاج رسائل تصيد احتيالي متقنة للغاية (انتهى زمن الرسائل الإنجليزية الركيكة التي يسهل اكتشافها)، فقد وجد المدافعون أن الذكاء الاصطناعي ليس منيعًا. في عام 2024، أجرى باحثون في قسم أمن المعلومات بشركة IBM تجربةً قارنوا فيها رسائل البريد الإلكتروني التصيدية المكتوبة يدويًا بتلك المولدة بواسطة الذكاء الاصطناعي، و "المثير للدهشة أن رسائل البريد الإلكتروني المولدة بواسطة الذكاء الاصطناعي كانت سهلة الكشف رغم سلامة قواعدها النحوية" ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). يشير هذا إلى أن الحدس البشري، إلى جانب الكشف المدعوم بالذكاء الاصطناعي، لا يزال قادرًا على تمييز التناقضات الدقيقة أو إشارات البيانات الوصفية في عمليات الاحتيال المكتوبة بواسطة الذكاء الاصطناعي.

يُسهم الذكاء الاصطناعي التوليدي في تعزيز الحماية من التصيد الاحتيالي بطرق أخرى أيضًا. إذ يُمكن استخدام النماذج لإنشاء ردود أو فلاتر آلية لاختبار رسائل البريد الإلكتروني المشبوهة. على سبيل المثال، يُمكن لنظام الذكاء الاصطناعي الرد على رسالة بريد إلكتروني باستفسارات مُحددة للتحقق من مصداقية المُرسل، أو استخدام نموذج لغة طبيعية لتحليل روابط ومرفقات البريد الإلكتروني في بيئة معزولة، ثم تلخيص أي نوايا خبيثة. تُبرهن منصة مورفيوس على قوة الذكاء الاصطناعي في هذا المجال، حيث تستخدم نماذج معالجة اللغة الطبيعية التوليدية لتحليل وتصنيف رسائل البريد الإلكتروني بسرعة، وقد وُجد أنها تُحسّن اكتشاف رسائل التصيد الاحتيالي بنسبة 21% مُقارنةً بأدوات الأمان التقليدية ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). بل إن مورفيوس تُحلل أنماط تواصل المستخدمين لاكتشاف السلوك غير المعتاد (مثل قيام المستخدم فجأةً بإرسال رسائل بريد إلكتروني إلى العديد من العناوين الخارجية)، مما قد يُشير إلى اختراق حساب يُرسل رسائل تصيد احتيالي.

في الواقع، بدأت الشركات في مختلف القطاعات بالاعتماد على الذكاء الاصطناعي لفلترة رسائل البريد الإلكتروني وحركة مرور الإنترنت بحثًا عن هجمات الهندسة الاجتماعية. فعلى سبيل المثال، تستخدم شركات التمويل الذكاء الاصطناعي التوليدي لفحص الاتصالات بحثًا عن محاولات انتحال الشخصية التي قد تؤدي إلى الاحتيال الإلكتروني، بينما يوظف مقدمو الرعاية الصحية الذكاء الاصطناعي لحماية بيانات المرضى من الاختراقات المتعلقة بالتصيد الاحتيالي. ومن خلال توليد سيناريوهات تصيد احتيالي واقعية وتحديد السمات المميزة للرسائل الخبيثة، يُضيف الذكاء الاصطناعي التوليدي بُعدًا قويًا لاستراتيجيات الوقاية من التصيد الاحتيالي. الخلاصة: يُمكن للذكاء الاصطناعي المساعدة في اكتشاف هجمات التصيد الاحتيالي وإحباطها بشكل أسرع وأكثر دقة، حتى مع استخدام المهاجمين للتقنية نفسها لتطوير أساليبهم.

الكشف عن البرامج الضارة وتحليل التهديدات

تتطور البرمجيات الخبيثة الحديثة باستمرار، حيث يقوم المهاجمون بإنشاء نسخ جديدة أو إخفاء التعليمات البرمجية لتجاوز توقيعات برامج مكافحة الفيروسات. يوفر الذكاء الاصطناعي التوليدي تقنيات مبتكرة للكشف عن البرمجيات الخبيثة وفهم سلوكها. يتمثل أحد هذه الأساليب في استخدام الذكاء الاصطناعي لإنشاء نسخ مُعدّلة من البرمجيات الخبيثة : إذ يُمكن لباحثي الأمن إدخال عينة معروفة من البرمجيات الخبيثة في نموذج توليدي لإنشاء العديد من النسخ المُعدّلة منها. وبذلك، يتوقعون بفعالية التعديلات التي قد يُجريها المهاجم. يُمكن بعد ذلك استخدام هذه النسخ المُولّدة بواسطة الذكاء الاصطناعي لتدريب أنظمة مكافحة الفيروسات وأنظمة كشف التسلل، بحيث يتم التعرف حتى على النسخ المُعدّلة من البرمجيات الخبيثة في بيئاتها الحقيقية ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). تُساعد هذه الاستراتيجية الاستباقية في كسر الحلقة المفرغة التي يُجري فيها المخترقون تعديلات طفيفة على برمجياتهم الخبيثة للتهرب من الكشف، مما يُجبر المدافعين على كتابة توقيعات جديدة في كل مرة. كما ورد في إحدى حلقات البودكاست المتخصصة، يستخدم خبراء الأمن الآن الذكاء الاصطناعي التوليدي لمحاكاة حركة مرور الشبكة وإنشاء برمجيات خبيثة تحاكي الهجمات المعقدة، ما يُمكّنهم من اختبار دفاعاتهم ضد مجموعة كاملة من التهديدات بدلاً من التركيز على تهديد واحد فقط. ويعني هذا الكشف التكيفي عن التهديدات أن أدوات الأمن تصبح أكثر مقاومة للبرمجيات الخبيثة متعددة الأشكال التي قد تتسلل لولا ذلك.

إلى جانب الكشف، يُسهم الذكاء الاصطناعي التوليدي في تحليل البرمجيات الخبيثة والهندسة العكسية ، وهما مهمتان تقليديًا تتطلبان جهدًا بشريًا كبيرًا من محللي التهديدات. يمكن تكليف نماذج لغوية ضخمة بفحص التعليمات البرمجية أو النصوص البرمجية المشبوهة وشرح وظيفتها بلغة بسيطة. ومن الأمثلة العملية على ذلك VirusTotal Code Insight من جوجل، والتي تستفيد من نموذج ذكاء اصطناعي توليدي (Sec-PaLM من جوجل) لإنتاج ملخصات بلغة طبيعية للتعليمات البرمجية التي يُحتمل أن تكون خبيثة ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). وهو في جوهره "نوع من ChatGPT مُخصص لبرمجة الأمان"، يعمل كمحلل برمجيات خبيثة يعمل على مدار الساعة طوال أيام الأسبوع لمساعدة المحللين البشريين على فهم التهديدات ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). بدلاً من الغوص في تفاصيل البرامج النصية أو الشفرات الثنائية غير المألوفة، يمكن لعضو فريق الأمن الحصول على شرح فوري من الذكاء الاصطناعي - على سبيل المثال، "يحاول هذا البرنامج النصي تنزيل ملف من خادم XYZ ثم تعديل إعدادات النظام، وهو ما يشير إلى سلوك برمجيات خبيثة". هذا يُسرّع بشكل كبير الاستجابة للحوادث، حيث يمكن للمحللين فرز وفهم البرمجيات الخبيثة الجديدة بشكل أسرع من أي وقت مضى.

يُستخدم الذكاء الاصطناعي التوليدي أيضًا لتحديد البرامج الضارة في مجموعات البيانات الضخمة . بينما تفحص برامج مكافحة الفيروسات التقليدية الملفات بحثًا عن التوقيعات المعروفة، يستطيع النموذج التوليدي تقييم خصائص الملف، بل والتنبؤ بما إذا كان خبيثًا بناءً على أنماط مُكتسبة. من خلال تحليل سمات مليارات الملفات (الخبيثة والسليمة)، قد يكتشف الذكاء الاصطناعي نوايا خبيثة حتى في غياب توقيع واضح. على سبيل المثال، قد يُصنّف النموذج التوليدي ملفًا تنفيذيًا على أنه مشبوه لأن سلوكه يُشبه إلى حد ما نسخة مُعدّلة من برامج الفدية التي رصدها أثناء التدريب، حتى وإن كان الملف جديدًا. يُساعد هذا الكشف القائم على السلوك في التصدي للبرامج الضارة الجديدة أو ما يُعرف ببرامج اليوم الصفر. يُذكر أن ذكاء جوجل الاصطناعي لتحليل التهديدات (التابع لشركة كرونيكل/مانديانت) يستخدم نموذجه التوليدي لتحليل التعليمات البرمجية التي يُحتمل أن تكون خبيثة، و "يُساعد متخصصي الأمن بشكل أكثر كفاءة وفعالية في مكافحة البرامج الضارة وأنواع التهديدات الأخرى". ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).

من جهة أخرى، يجب أن نُقرّ بأن المهاجمين قد يستخدمون الذكاء الاصطناعي التوليدي هنا أيضًا - لإنشاء برمجيات خبيثة تتكيف تلقائيًا. في الواقع، يحذر خبراء الأمن من أن الذكاء الاصطناعي التوليدي قد يُساعد مجرمي الإنترنت على تطوير برمجيات خبيثة يصعب اكتشافها ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ). يمكن توجيه نموذج الذكاء الاصطناعي لتغيير شكل البرمجيات الخبيثة بشكل متكرر (تغيير بنية ملفاتها، وطرق التشفير، وما إلى ذلك) حتى تتجاوز جميع فحوصات مكافحة الفيروسات المعروفة. يُعد هذا الاستخدام العدائي مصدر قلق متزايد (يُشار إليه أحيانًا باسم "البرمجيات الخبيثة المدعومة بالذكاء الاصطناعي" أو البرمجيات الخبيثة متعددة الأشكال كخدمة). سنناقش هذه المخاطر لاحقًا، لكنها تُؤكد أن الذكاء الاصطناعي التوليدي أداة في هذه اللعبة المُعقدة التي يستخدمها كل من المدافعين والمهاجمين.

بشكل عام، يُعزز الذكاء الاصطناعي التوليدي الدفاع ضد البرمجيات الخبيثة من خلال تمكين فرق الأمن من التفكير كالمهاجمين ، ما يُتيح لهم توليد تهديدات وحلول جديدة داخليًا. وسواءً أكان ذلك من خلال إنتاج برمجيات خبيثة اصطناعية لتحسين معدلات الكشف، أو استخدام الذكاء الاصطناعي لتفسير واحتواء البرمجيات الخبيثة الحقيقية الموجودة في الشبكات، فإن هذه التقنيات قابلة للتطبيق في مختلف القطاعات. فعلى سبيل المثال، قد يستخدم أحد البنوك تحليل البرمجيات الخبيثة المدعوم بالذكاء الاصطناعي لتحليل ماكرو مشبوه في جدول بيانات بسرعة، بينما قد تعتمد شركة تصنيع على الذكاء الاصطناعي للكشف عن البرمجيات الخبيثة التي تستهدف أنظمة التحكم الصناعية. ومن خلال تعزيز تحليل البرمجيات الخبيثة التقليدي بالذكاء الاصطناعي التوليدي، تستطيع المؤسسات الاستجابة لحملات البرمجيات الخبيثة بشكل أسرع وأكثر استباقية من ذي قبل.

استخبارات التهديدات وأتمتة التحليل

تتعرض المؤسسات يوميًا لوابل من بيانات استخبارات التهديدات، بدءًا من مؤشرات الاختراق المكتشفة حديثًا وصولًا إلى تقارير المحللين حول أساليب القرصنة الناشئة. ويكمن التحدي الذي يواجه فرق الأمن في غربلة هذا الكم الهائل من المعلومات واستخلاص رؤى قابلة للتنفيذ. وقد أثبت الذكاء الاصطناعي التوليدي جدواه الكبيرة في أتمتة تحليل معلومات التهديدات واستخدامها . فبدلًا من قراءة عشرات التقارير أو مدخلات قواعد البيانات يدويًا، يستطيع المحللون استخدام الذكاء الاصطناعي لتلخيص معلومات التهديدات ووضعها في سياقها بسرعة فائقة.

أدوات استخبارات التهديدات من جوجل ، التي تدمج الذكاء الاصطناعي التوليدي (نموذج جيميني) مع كميات هائلة من بيانات التهديدات من مانديانت وفيروس توتال. يوفر هذا الذكاء الاصطناعي "بحثًا تفاعليًا عبر مستودع جوجل الضخم لمعلومات التهديدات" ، مما يسمح للمستخدمين بطرح أسئلة طبيعية حول التهديدات والحصول على إجابات موجزة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). على سبيل المثال، يمكن للمحلل أن يسأل: "هل رصدنا أي برامج ضارة مرتبطة بمجموعة التهديدات X تستهدف قطاعنا؟" وسيقوم الذكاء الاصطناعي باستخلاص المعلومات ذات الصلة، مشيرًا ربما إلى "نعم، تم ربط مجموعة التهديدات X بحملة تصيد احتيالي الشهر الماضي باستخدام البرنامج الضار Y" ، بالإضافة إلى ملخص لسلوك هذا البرنامج الضار. هذا يقلل بشكل كبير من الوقت اللازم لجمع المعلومات التي كانت تتطلب في السابق استخدام أدوات متعددة أو قراءة تقارير مطولة.

يمكن للذكاء الاصطناعي التوليدي أيضًا ربط وتلخيص اتجاهات التهديدات . فقد يقوم بتحليل آلاف المنشورات على مدونات الأمن، وأخبار الاختراقات، ومناقشات الإنترنت المظلم، ثم يُنشئ ملخصًا تنفيذيًا لأهم التهديدات السيبرانية لهذا الأسبوع لعرضه على مسؤول أمن المعلومات. تقليديًا، كان هذا المستوى من التحليل وإعداد التقارير يتطلب جهدًا بشريًا كبيرًا؛ أما الآن، فيمكن لنموذج مُحسَّن إعداده في ثوانٍ، مع اقتصار دور البشر على تحسين النتائج. طورت شركات مثل ZeroFox أداة FoxGPT ، وهي أداة ذكاء اصطناعي توليدي مصممة خصيصًا "لتسريع تحليل وتلخيص المعلومات الاستخباراتية عبر مجموعات البيانات الضخمة"، بما في ذلك المحتوى الضار وبيانات التصيد الاحتيالي ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). من خلال أتمتة عملية قراءة البيانات والتحقق من صحتها، يُمكّن الذكاء الاصطناعي فرق استخبارات التهديدات من التركيز على اتخاذ القرارات والاستجابة.

من الاستخدامات الأخرى للذكاء الاصطناعي البحث عن التهديدات من خلال المحادثات . تخيّل محلل أمن يتفاعل مع مساعد ذكاء اصطناعي: "أرني أي مؤشرات على تسريب البيانات خلال الـ 48 ساعة الماضية" أو "ما هي أبرز الثغرات الأمنية الجديدة التي يستغلها المهاجمون هذا الأسبوع؟" يستطيع الذكاء الاصطناعي تفسير الاستعلام، والبحث في السجلات الداخلية أو مصادر المعلومات الخارجية، والرد بإجابة واضحة أو حتى قائمة بالحوادث ذات الصلة. هذا ليس بالأمر المستبعد، فقد بدأت أنظمة إدارة معلومات وأحداث الأمان (SIEM) الحديثة في دمج الاستعلامات باللغة الطبيعية. على سبيل المثال، ستضيف مجموعة أدوات الأمان QRadar من IBM ميزات الذكاء الاصطناعي التوليدي في عام 2024 لتمكين المحللين من "طرح أسئلة محددة حول مسار الهجوم الموجز" لأي حادثة والحصول على إجابات مفصلة. كما يمكنه أيضًا "تفسير وتلخيص معلومات التهديدات ذات الصلة" تلقائيًا ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). باختصار، يحوّل الذكاء الاصطناعي التوليدي كميات هائلة من البيانات التقنية إلى رؤى موجزة وسهلة الفهم عند الطلب.

لهذا الأمر آثار بالغة الأهمية في مختلف القطاعات. فبإمكان مقدمي الرعاية الصحية استخدام الذكاء الاصطناعي للبقاء على اطلاع دائم بأحدث مجموعات برامج الفدية التي تستهدف المستشفيات، دون الحاجة إلى تخصيص محلل للبحث بدوام كامل. كما يمكن لمركز عمليات الأمن السيبراني في شركات البيع بالتجزئة تلخيص أساليب البرامج الخبيثة الجديدة التي تستهدف نقاط البيع بسرعة عند إطلاع موظفي تقنية المعلومات في المتجر. وفي القطاع الحكومي، حيث يجب دمج بيانات التهديدات من مختلف الوكالات، يمكن للذكاء الاصطناعي إنتاج تقارير موحدة تُبرز التحذيرات الرئيسية. ومن خلال أتمتة جمع معلومات التهديدات وتفسيرها ، يُساعد الذكاء الاصطناعي التوليدي المؤسسات على الاستجابة بشكل أسرع للتهديدات الناشئة، ويُقلل من خطر إغفال التحذيرات الهامة المُخبأة وسط الكم الهائل من البيانات.

تحسين مركز عمليات الأمن (SOC)

تشتهر مراكز عمليات الأمن السيبراني بكثرة التنبيهات وكثرة البيانات الهائلة. قد يضطر محلل مركز عمليات الأمن السيبراني إلى مراجعة آلاف التنبيهات والأحداث يوميًا للتحقيق في الحوادث المحتملة. يعمل الذكاء الاصطناعي التوليدي كعامل مضاعف للقوة في مراكز عمليات الأمن السيبراني من خلال أتمتة الأعمال الروتينية، وتقديم ملخصات ذكية، وحتى تنسيق بعض الاستجابات. الهدف هو تحسين سير العمل في مراكز عمليات الأمن السيبراني بحيث يتمكن المحللون البشريون من التركيز على القضايا الأكثر أهمية بينما يتولى الذكاء الاصطناعي باقي المهام.

أحد التطبيقات الرئيسية هو استخدام الذكاء الاصطناعي التوليدي كمساعد للمحلل . ويُعدّ برنامج "مساعد الأمان" من مايكروسوفت، الذي ذُكر سابقًا، مثالًا على ذلك: فهو "مصمم لمساعدة محلل الأمن السيبراني في عمله لا استبداله"، حيث يُساعد في تحقيقات الحوادث وإعداد التقارير ( مساعد الأمان من مايكروسوفت هو مساعد ذكاء اصطناعي جديد بتقنية GPT-4 للأمن السيبراني | ذا فيرج ). عمليًا، يعني هذا أن بإمكان المحلل إدخال البيانات الأولية - سجلات جدار الحماية، أو التسلسل الزمني للأحداث، أو وصف الحادث - وطلب تحليلها أو تلخيصها من الذكاء الاصطناعي. قد يُخرج المساعد تقريرًا سرديًا مثل: "يبدو أنه في الساعة 2:35 صباحًا، نجح تسجيل دخول مشبوه من عنوان IP X على الخادم Y، تلاه عمليات نقل بيانات غير معتادة، مما يُشير إلى احتمال اختراق هذا الخادم". يُعدّ هذا النوع من السياق الفوري بالغ الأهمية عندما يكون الوقت عاملًا حاسمًا.

تُساهم أنظمة الذكاء الاصطناعي المساعدة أيضًا في تخفيف عبء الفرز الأولي. فبحسب بيانات القطاع، قد يقضي فريق الأمن 15 ساعة أسبوعيًا في فرز نحو 22,000 تنبيه وإنذار خاطئ ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). وبفضل الذكاء الاصطناعي التوليدي، يُمكن فرز العديد من هذه التنبيهات تلقائيًا؛ إذ يُمكن للذكاء الاصطناعي تجاهل التنبيهات غير الضارة (مع توضيح الأسباب) وتسليط الضوء على التنبيهات التي تستدعي اهتمامًا حقيقيًا، بل واقتراح أولوياتها أحيانًا. في الواقع، تُمكّن قدرة الذكاء الاصطناعي التوليدي على فهم السياق من الربط بين التنبيهات التي قد تبدو غير ضارة منفردة، ولكنها تُشير مجتمعةً إلى هجوم متعدد المراحل. وهذا يُقلل من احتمالية إغفال أي هجوم نتيجةً لكثرة التنبيهات.

يستخدم محللو مراكز عمليات الأمن السيبراني (SOC) أيضًا اللغة الطبيعية مع الذكاء الاصطناعي لتسريع عمليات البحث والتحقيق. Purple AI بين واجهة تعتمد على نموذج اللغة الطبيعية (LLM) وبيانات أمنية فورية، مما يسمح للمحللين بطرح أسئلة معقدة للبحث عن التهديدات بلغة إنجليزية بسيطة والحصول على إجابات سريعة ودقيقة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يمكن للمحلل أن يكتب: "هل تواصلت أي نقاط نهاية مع النطاق badguy123[.]com خلال الشهر الماضي؟" ، وستقوم Purple AI بالبحث في السجلات للرد. هذا يوفر على المحلل عناء كتابة استعلامات قواعد البيانات أو البرامج النصية، حيث يقوم الذكاء الاصطناعي بذلك تلقائيًا. كما يعني هذا أن المحللين المبتدئين يمكنهم التعامل مع مهام كانت تتطلب سابقًا مهندسًا متمرسًا في لغات الاستعلام، مما يساهم في رفع مستوى مهارات الفريق من خلال مساعدة الذكاء الاصطناعي . في الواقع، أفاد المحللون أن التوجيه بالذكاء الاصطناعي التوليدي "يعزز مهاراتهم وكفاءتهم" ، حيث يمكن للموظفين المبتدئين الآن الحصول على دعم البرمجة عند الطلب أو نصائح التحليل من الذكاء الاصطناعي، مما يقلل الاعتماد على طلب المساعدة دائمًا من كبار أعضاء الفريق ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ).

من بين التحسينات الأخرى لمراكز عمليات الأمن السيبراني، أتمتة تلخيص الحوادث وتوثيقها . فبعد معالجة أي حادث، يجب على شخص ما كتابة التقرير، وهي مهمة يجدها الكثيرون شاقة. يمكن للذكاء الاصطناعي التوليدي تحليل البيانات الجنائية (سجلات النظام، وتحليل البرمجيات الخبيثة، والتسلسل الزمني للأحداث) وإنشاء مسودة أولية لتقرير الحادث. تعمل IBM على دمج هذه الميزة في QRadar بحيث بنقرة واحدة إنشاء ملخص للحادث لمختلف الجهات المعنية (المديرين التنفيذيين، وفرق تكنولوجيا المعلومات، إلخ) ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). لا يوفر هذا الوقت فحسب، بل يضمن أيضًا عدم إغفال أي تفاصيل في التقرير، حيث يمكن للذكاء الاصطناعي تضمين جميع التفاصيل ذات الصلة بشكل متسق. وبالمثل، لأغراض الامتثال والتدقيق، يمكن للذكاء الاصطناعي ملء النماذج أو جداول الأدلة بناءً على بيانات الحادث.

النتائج الواقعية مُقنعة. فقد أبلغت الشركات الرائدة في تبني حلول SOAR (تنسيق الأمن، والأتمتة، والاستجابة) المدعومة بالذكاء الاصطناعي من Swimlane عن مكاسب هائلة في الإنتاجية. فعلى سبيل المثال، شهدت شركة Global Data Systems فريق عمليات الأمن لديها يُدير حجمًا أكبر بكثير من الحالات؛ حيث قال أحد المدراء: "ما أقوم به اليوم مع 7 محللين كان سيتطلب على الأرجح 20 موظفًا لولا الأتمتة المدعومة بالذكاء الاصطناعي" ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). بعبارة أخرى، يُمكن للذكاء الاصطناعي في مركز عمليات الأمن أن يُضاعف القدرات . في مختلف القطاعات، سواءً كانت شركة تقنية تتعامل مع تنبيهات أمن الحوسبة السحابية أو مصنعًا يُراقب أنظمة التشغيل، يُمكن لفرق مركز عمليات الأمن أن تُحقق اكتشافًا واستجابة أسرع، وتقليلًا للحوادث التي لم يتم رصدها، وعمليات أكثر كفاءة من خلال تبني مساعدي الذكاء الاصطناعي التوليدي. الأمر يتعلق بالعمل بذكاء أكبر - السماح للآلات بالتعامل مع المهام المتكررة والكثيفة البيانات حتى يتمكن البشر من تطبيق حدسهم وخبراتهم حيثما تشتد الحاجة إليها.

إدارة الثغرات الأمنية ومحاكاة التهديدات

يُعدّ تحديد الثغرات الأمنية وإدارتها - أي نقاط الضعف في البرامج أو الأنظمة التي قد يستغلها المهاجمون - وظيفة أساسية في الأمن السيبراني. يُحسّن الذكاء الاصطناعي التوليدي إدارة الثغرات الأمنية من خلال تسريع عملية الاكتشاف، والمساعدة في تحديد أولويات التحديثات الأمنية، بل وحتى محاكاة الهجمات على هذه الثغرات لتعزيز الجاهزية. باختصار، يُساعد الذكاء الاصطناعي المؤسسات على إيجاد الثغرات الأمنية وإصلاحها بسرعة أكبر، بشكل استباقي قبل أن يقوم المهاجمون الحقيقيون بذلك.

يُعدّ استخدام الذكاء الاصطناعي التوليدي في مراجعة التعليمات البرمجية واكتشاف الثغرات الأمنية . فغالبًا ما تحتوي قواعد البيانات البرمجية الضخمة (وخاصةً الأنظمة القديمة) على ثغرات أمنية تمر دون أن يلاحظها أحد. ويمكن تدريب نماذج الذكاء الاصطناعي التوليدي على ممارسات البرمجة الآمنة وأنماط الأخطاء الشائعة، ثم تطبيقها على التعليمات البرمجية المصدرية أو الملفات الثنائية المُجمّعة لاكتشاف الثغرات الأمنية المحتملة. على سبيل المثال، طوّر باحثو NVIDIA خط أنابيب للذكاء الاصطناعي التوليدي قادر على تحليل حاويات البرامج القديمة وتحديد الثغرات الأمنية "بدقة عالية - أسرع بأربع مرات من الخبراء البشريين". ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). وقد تعلّم الذكاء الاصطناعي بشكل أساسي شكل التعليمات البرمجية غير الآمنة، وتمكّن من فحص البرامج القديمة التي يعود تاريخها إلى عقود لتحديد الوظائف والمكتبات الخطرة، مما سرّع بشكل كبير عملية التدقيق اليدوي للتعليمات البرمجية التي عادةً ما تكون بطيئة. ويمكن لهذا النوع من الأدوات أن يُحدث نقلة نوعية في قطاعات مثل التمويل أو الحكومة التي تعتمد على قواعد بيانات برمجية ضخمة وقديمة - إذ يُساعد الذكاء الاصطناعي في تحديث الأمن من خلال الكشف عن المشكلات التي قد يستغرق الموظفون شهورًا أو سنوات لاكتشافها (إن وُجدت أصلًا).

يُسهم الذكاء الاصطناعي التوليدي أيضًا في إدارة عمليات الثغرات الأمنية من خلال معالجة نتائج فحص الثغرات وتحديد أولوياتها. تستخدم أدوات مثل ExposureAI الذكاء الاصطناعي التوليدي لتمكين المحللين من الاستعلام عن بيانات الثغرات بلغة بسيطة والحصول على إجابات فورية ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يستطيع ExposureAI "تلخيص مسار الهجوم بالكامل في سرد" لثغرة أمنية حرجة مُحددة، موضحًا كيف يُمكن للمهاجم ربطها بنقاط ضعف أخرى لاختراق النظام. بل ويُوصي بإجراءات للمعالجة ويُجيب على أسئلة المتابعة حول المخاطر. هذا يعني أنه عند الإعلان عن ثغرة أمنية حرجة جديدة (CVE)، يُمكن للمحلل أن يسأل الذكاء الاصطناعي: "هل تأثرت أي من خوادمنا بهذه الثغرة؟ وما هو أسوأ سيناريو في حال عدم تحديث النظام؟" ويتلقى تقييمًا واضحًا مُستمدًا من بيانات الفحص الخاصة بالمؤسسة. من خلال وضع الثغرات الأمنية في سياقها (على سبيل المثال، هذه الثغرة معرضة للإنترنت وعلى خادم ذي قيمة عالية، لذا فهي ذات أولوية قصوى)، يساعد الذكاء الاصطناعي التوليدي الفرق على إجراء عمليات التصحيح بذكاء باستخدام موارد محدودة.

بالإضافة إلى اكتشاف الثغرات الأمنية المعروفة وإدارتها، يُسهم الذكاء الاصطناعي التوليدي في اختبار الاختراق ومحاكاة الهجمات ، ما يُساعد في اكتشاف غير المعروفة أو اختبار ضوابط الأمان. وقد استُخدمت الشبكات التوليدية التنافسية (GANs)، وهي نوع من الذكاء الاصطناعي التوليدي، لإنشاء بيانات اصطناعية تُحاكي حركة مرور الشبكة الحقيقية أو سلوك المستخدم، بما في ذلك أنماط الهجمات الخفية. وأشارت دراسة أُجريت عام 2023 إلى استخدام GANs لتوليد حركة مرور واقعية لهجمات اليوم الصفر لتدريب أنظمة كشف التسلل ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). ومن خلال تزويد نظام كشف التسلل بسيناريوهات هجوم مُصممة بالذكاء الاصطناعي (لا تُخاطر باستخدام برامج ضارة حقيقية على شبكات الإنتاج)، يُمكن للمؤسسات تدريب دفاعاتها على التعرّف على التهديدات الجديدة دون انتظار وقوعها في الواقع. وبالمثل، يُمكن للذكاء الاصطناعي محاكاة مُهاجم يُحاول فحص النظام، على سبيل المثال، تجربة تقنيات استغلال مُختلفة تلقائيًا في بيئة آمنة لمعرفة ما إذا كان أي منها سينجح. ترى وكالة مشاريع البحوث الدفاعية المتقدمة الأمريكية (DARPA) إمكانات واعدة في هذا المجال: إذ تستخدم مسابقة تحدي الذكاء الاصطناعي السيبراني لعام 2023 الذكاء الاصطناعي التوليدي (مثل نماذج اللغة الضخمة) بشكل صريح "لاكتشاف وإصلاح الثغرات الأمنية في البرمجيات مفتوحة المصدر تلقائيًا" كجزء من مسابقة ( DARPA تهدف إلى تطوير تطبيقات الذكاء الاصطناعي والاستقلالية التي يمكن للمقاتلين الوثوق بها > وزارة الدفاع الأمريكية > أخبار وزارة الدفاع ). تؤكد هذه المبادرة أن الذكاء الاصطناعي لا يقتصر دوره على سد الثغرات المعروفة فحسب، بل يكشف بنشاط عن ثغرات جديدة ويقترح حلولًا لها، وهي مهمة كانت تقتصر تقليديًا على باحثي الأمن المهرة (والمكلفين).

يمكن للذكاء الاصطناعي التوليدي إنشاء ذكية لخداع المتسللين وتوائم رقمية لأغراض الدفاع. تعمل الشركات الناشئة على تطوير أنظمة تمويه مدعومة بالذكاء الاصطناعي تحاكي الخوادم أو الأجهزة الحقيقية بدقة متناهية. وكما أوضح أحد الرؤساء التنفيذيين، يمكن للذكاء الاصطناعي التوليدي "استنساخ الأنظمة الرقمية لمحاكاة الأنظمة الحقيقية واستدراج المتسللين" ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). تتصرف أنظمة خداع المتسللين هذه، التي يُنشئها الذكاء الاصطناعي، تمامًا مثل البيئة الحقيقية (على سبيل المثال، جهاز إنترنت الأشياء وهمي يرسل بيانات قياس عن بُعد عادية)، ولكنها موجودة فقط لجذب المهاجمين. عندما يستهدف المهاجم النظام الوهمي، يكون الذكاء الاصطناعي قد خدعه فعليًا ليكشف عن أساليبه، والتي يمكن للمدافعين دراستها واستخدامها لتعزيز الأنظمة الحقيقية. يوفر هذا المفهوم، المدعوم بالنمذجة التوليدية، طريقة استباقية لقلب الطاولة على المهاجمين ، باستخدام الخداع المُعزز بالذكاء الاصطناعي.

في مختلف القطاعات، تعني إدارة الثغرات الأمنية بشكل أسرع وأكثر ذكاءً تقليل الاختراقات. ففي مجال تكنولوجيا المعلومات الصحية، على سبيل المثال، قد يكتشف الذكاء الاصطناعي بسرعة مكتبة برمجية قديمة معرضة للخطر في جهاز طبي، ويحث على تحديث البرامج الثابتة قبل أن يستغلها أي مهاجم. وفي القطاع المصرفي، يمكن للذكاء الاصطناعي محاكاة هجوم داخلي على تطبيق جديد لضمان سلامة بيانات العملاء في جميع السيناريوهات. وهكذا، يعمل الذكاء الاصطناعي التوليدي كأداة فحص واختبار لأمن المؤسسات: فهو يكشف عن الثغرات الخفية ويختبر الأنظمة بطرق مبتكرة لضمان مرونتها.

توليد أكواد آمنة وتطوير البرمجيات

لا تقتصر قدرات الذكاء الاصطناعي التوليدي على كشف الهجمات فحسب، بل تمتد لتشمل إنشاء أنظمة أكثر أمانًا منذ البداية . في مجال تطوير البرمجيات، يمكن لمولدات أكواد الذكاء الاصطناعي (مثل GitHub Copilot وOpenAI Codex وغيرها) مساعدة المطورين على كتابة الأكواد بشكل أسرع من خلال اقتراح أجزاء من الأكواد أو حتى وظائف كاملة. أما من منظور الأمن السيبراني، فيكمن الهدف في ضمان أمان أجزاء الأكواد المقترحة من الذكاء الاصطناعي، واستخدام الذكاء الاصطناعي لتحسين ممارسات البرمجة.

من جهة، يمكن للذكاء الاصطناعي التوليدي أن يعمل كمساعد برمجي يدمج أفضل ممارسات الأمان . يستطيع المطورون توجيه أداة الذكاء الاصطناعي، مثلاً: "أنشئ دالة لإعادة تعيين كلمة المرور بلغة بايثون"، والحصول في الوضع الأمثل على كود ليس فقط فعالاً، بل يلتزم أيضاً بإرشادات الأمان (مثل التحقق السليم من صحة المدخلات، وتسجيل الأخطاء، ومعالجة الأخطاء دون تسريب المعلومات، إلخ). هذا المساعد، المدرب على أمثلة واسعة من أكواد الأمان، يُسهم في تقليل الأخطاء البشرية التي تؤدي إلى ثغرات أمنية. على سبيل المثال، إذا نسي المطور تنظيف مدخلات المستخدم (مما يفتح المجال لهجمات حقن SQL أو ما شابهها)، يمكن للذكاء الاصطناعي تضمين ذلك افتراضياً أو تنبيهه. يجري حالياً تحسين بعض أدوات برمجة الذكاء الاصطناعي باستخدام بيانات تركز على الأمان لتحقيق هذا الغرض تحديداً - أي برمجة ثنائية للذكاء الاصطناعي مع مراعاة الأمان .

مع ذلك، ثمة جانب سلبي: فالذكاء الاصطناعي التوليدي قد يُدخل ثغرات أمنية بسهولة إذا لم يُدار بشكل سليم. وكما أشار خبير الأمن في شركة سوفوس، بن فيرشارن، فإن استخدام الذكاء الاصطناعي التوليدي في البرمجة "مناسب للبرامج القصيرة القابلة للتحقق، ولكنه محفوف بالمخاطر عند دمج برامج غير مُدققة" في أنظمة الإنتاج. يكمن الخطر في أن الذكاء الاصطناعي قد يُنتج برنامجًا صحيحًا منطقيًا ولكنه غير آمن بطرق قد لا يلاحظها غير المتخصصين. علاوة على ذلك، قد يُؤثر المُخترقون عمدًا على نماذج الذكاء الاصطناعي العامة عن طريق تزويدها بأنماط برمجية ضعيفة (نوع من تسميم البيانات) بحيث يُقترح الذكاء الاصطناعي برامج غير آمنة. معظم المطورين ليسوا خبراء أمن ، لذا إذا اقترح الذكاء الاصطناعي حلًا مناسبًا، فقد يستخدمونه دون وعي، دون إدراك وجود خلل فيه ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). هذا القلق حقيقي - في الواقع، توجد الآن قائمة OWASP لأهم 10 مخاطر لنماذج اللغة الكبيرة (LLMs) تُحدد المخاطر الشائعة من هذا القبيل في استخدام الذكاء الاصطناعي في البرمجة.

لمواجهة هذه المشكلات، يقترح الخبراء "مواجهة الذكاء الاصطناعي التوليدي بالذكاء الاصطناعي التوليدي" في مجال البرمجة. عمليًا، يعني ذلك استخدام الذكاء الاصطناعي لمراجعة واختبار التعليمات البرمجية التي كتبها ذكاء اصطناعي آخر (أو بشر). يستطيع الذكاء الاصطناعي فحص التغييرات الجديدة في التعليمات البرمجية بسرعة تفوق بكثير سرعة مراجع التعليمات البرمجية البشري، وتحديد الثغرات الأمنية المحتملة أو المشكلات المنطقية. نشهد بالفعل ظهور أدوات تتكامل مع دورة حياة تطوير البرمجيات: تُكتب التعليمات البرمجية (ربما بمساعدة الذكاء الاصطناعي)، ثم يقوم نموذج توليدي مُدرَّب على مبادئ التعليمات البرمجية الآمنة بمراجعتها، ويُنشئ تقريرًا بأي مخاوف (مثل استخدام وظائف مهملة، أو غياب عمليات التحقق من المصادقة، إلخ). يُعد بحث NVIDIA، المذكور سابقًا، والذي حقق اكتشافًا أسرع بأربع مرات للثغرات الأمنية في التعليمات البرمجية، مثالًا على تسخير الذكاء الاصطناعي لتحليل التعليمات البرمجية الآمنة ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ).

علاوة على ذلك، يمكن للذكاء الاصطناعي التوليدي المساعدة في إنشاء تكوينات وبرامج نصية آمنة . على سبيل المثال، إذا احتاجت شركة ما إلى نشر بنية تحتية سحابية آمنة، فيمكن للمهندس أن يطلب من الذكاء الاصطناعي إنشاء برامج نصية للتكوين (البنية التحتية كبرنامج) مع تضمين ضوابط أمنية (مثل تجزئة الشبكة المناسبة، وأدوار إدارة الهوية والوصول ذات الامتيازات الأقل). وبفضل تدريب الذكاء الاصطناعي على آلاف التكوينات المماثلة، يمكنه إنشاء أساس يقوم المهندس بتحسينه لاحقًا. هذا يُسرّع عملية الإعداد الآمن للأنظمة ويقلل من أخطاء التكوين الخاطئ - وهو مصدر شائع لحوادث أمن الحوسبة السحابية.

تستفيد بعض المؤسسات أيضًا من الذكاء الاصطناعي التوليدي للحفاظ على قاعدة معرفية لأنماط البرمجة الآمنة. فإذا لم يكن المطور متأكدًا من كيفية تنفيذ ميزة معينة بشكل آمن، يمكنه الاستعلام من نظام ذكاء اصطناعي داخلي تعلم من مشاريع الشركة السابقة وإرشاداتها الأمنية. وقد يُقدم هذا النظام نهجًا مُوصى به أو حتى جزءًا من التعليمات البرمجية يتوافق مع المتطلبات الوظيفية ومعايير الأمان الخاصة بالشركة. وقد استُخدم هذا النهج في أدوات مثل أداة أتمتة الاستبيانات من Secureframe ، التي تستخلص الإجابات من سياسات الشركة وحلولها السابقة لضمان استجابات متسقة ودقيقة (أي توليد وثائق آمنة) ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). وينطبق هذا المفهوم على البرمجة: نظام ذكاء اصطناعي "يتذكر" كيفية تنفيذك لشيء ما بشكل آمن سابقًا، ويرشدك إلى تنفيذه بالطريقة نفسها مرة أخرى.

باختصار، يُؤثر الذكاء الاصطناعي التوليدي على تطوير البرمجيات من خلال تسهيل الوصول إلى خدمات المساعدة في كتابة أكواد آمنة . تستفيد القطاعات التي تُطوّر الكثير من البرمجيات المُخصصة - كالتكنولوجيا والمالية والدفاع وغيرها - من وجود مساعدين من الذكاء الاصطناعي لا يُسرّعون عملية البرمجة فحسب، بل يعملون أيضًا كمراجعين أمنيين يقظين باستمرار. عند إدارتها بشكل سليم، يُمكن لهذه الأدوات أن تُقلل من ظهور ثغرات أمنية جديدة وتُساعد فرق التطوير على الالتزام بأفضل الممارسات، حتى في حال عدم وجود خبير أمني مُشارك في كل خطوة. والنتيجة هي برمجيات أكثر مقاومة للهجمات منذ البداية.

دعم الاستجابة للحوادث

عند وقوع حادثة أمن سيبراني - سواءً كانت تفشي برمجيات خبيثة، أو اختراق بيانات، أو تعطل نظام نتيجة هجوم - يُعدّ الوقت عاملاً حاسماً. ويُستخدم الذكاء الاصطناعي التوليدي بشكل متزايد لدعم فرق الاستجابة للحوادث في احتواء الحوادث ومعالجتها بسرعة أكبر وبمعلومات أكثر شمولاً. وتتلخص الفكرة في أن الذكاء الاصطناعي قادر على تخفيف بعض أعباء التحقيق والتوثيق أثناء وقوع الحادث، بل واقتراح بعض إجراءات الاستجابة أو أتمتتها.

يُعدّ تحليل وتلخيص الحوادث في الوقت الفعلي أحد الأدوار الرئيسية للذكاء الاصطناعي في الاستجابة للحوادث . ففي خضمّ الحادث، قد يحتاج المستجيبون إلى إجابات لأسئلة مثل: "كيف تمكّن المهاجم من الاختراق؟" ، و "ما هي الأنظمة المتأثرة؟" ، و "ما هي البيانات التي قد تكون مُعرّضة للاختراق؟" . يستطيع الذكاء الاصطناعي التوليدي تحليل السجلات والتنبيهات والبيانات الجنائية من الأنظمة المتأثرة، وتقديم رؤى سريعة. على سبيل المثال، يسمح برنامج Microsoft Security Copilot للمستجيب بإدخال أدلة متنوعة (ملفات، عناوين URL، سجلات الأحداث) وطلب جدول زمني أو ملخص ( Microsoft Security Copilot هو مساعد ذكاء اصطناعي جديد بتقنية GPT-4 للأمن السيبراني | The Verge ). قد يُجيب الذكاء الاصطناعي قائلًا: "من المُرجّح أن يكون الاختراق قد بدأ برسالة بريد إلكتروني تصيّد احتيالي إلى المستخدم JohnDoe في الساعة 10:53 بتوقيت غرينتش، تحتوي على برمجية خبيثة X. وبمجرد تنفيذها، أنشأت البرمجية الخبيثة بابًا خلفيًا استُخدم بعد يومين للانتقال جانبيًا إلى خادم الشؤون المالية، حيث جمعت البيانات." إن الحصول على هذه الصورة المتماسكة في دقائق بدلاً من ساعات يمكّن الفريق من اتخاذ قرارات مستنيرة (مثل تحديد الأنظمة التي يجب عزلها) بشكل أسرع بكثير.

يمكن للذكاء الاصطناعي التوليدي أيضًا اقتراح إجراءات احتواء ومعالجة . على سبيل المثال، إذا أصيب جهاز طرفي ببرنامج فدية، يمكن لأداة الذكاء الاصطناعي إنشاء نص برمجي أو مجموعة من التعليمات لعزل ذلك الجهاز، وتعطيل حسابات معينة، وحظر عناوين IP الخبيثة المعروفة على جدار الحماية - أي تنفيذ خطة عمل. تشير شركة بالو ألتو نتوركس إلى أن الذكاء الاصطناعي التوليدي قادر على "إنشاء إجراءات أو نصوص برمجية مناسبة بناءً على طبيعة الحادث" ، مما يؤدي إلى أتمتة الخطوات الأولية للاستجابة ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ). في حالة إرهاق فريق الأمن (كهجوم واسع النطاق على مئات الأجهزة مثلاً)، قد ينفذ الذكاء الاصطناعي بعض هذه الإجراءات مباشرةً وفقًا لشروط مُعتمدة مسبقًا، ليعمل كمساعد مبتدئ يعمل بلا كلل. على سبيل المثال، يمكن لوكيل الذكاء الاصطناعي إعادة تعيين بيانات الاعتماد التي يعتبرها مخترقة تلقائيًا، أو عزل الأجهزة المضيفة التي تُظهر نشاطًا خبيثًا يتطابق مع خصائص الحادث.

أثناء الاستجابة للحوادث، يُعدّ التواصل أمرًا بالغ الأهمية، سواء داخل الفريق أو مع أصحاب المصلحة. يمكن للذكاء الاصطناعي التوليدي المساعدة من خلال صياغة تقارير أو ملخصات تحديثات الحوادث بشكل فوري . فبدلاً من أن يتوقف المهندس عن عمله في استكشاف الأخطاء وإصلاحها لكتابة تحديث عبر البريد الإلكتروني، يمكنه أن يطلب من الذكاء الاصطناعي: "لخص ما حدث في هذا الحادث حتى الآن لإبلاغ الإدارة التنفيذية". بعد أن يستوعب الذكاء الاصطناعي بيانات الحادث، يمكنه إنتاج ملخص موجز: "حتى الساعة الثالثة مساءً، تمكن المهاجمون من الوصول إلى حسابي مستخدمين و5 خوادم. تشمل البيانات المتأثرة سجلات العملاء في قاعدة البيانات X. إجراءات الاحتواء: تم إلغاء الوصول إلى شبكة VPN للحسابات المخترقة وعزل الخوادم. الخطوات التالية: فحص أي آليات استمرارية". يمكن للمستجيب بعد ذلك التحقق من هذا الملخص أو تعديله بسرعة وإرساله، مما يضمن إطلاع أصحاب المصلحة على معلومات دقيقة ومحدثة باستمرار.

بعد انحسار العاصفة، عادةً ما يكون هناك تقرير مفصل عن الحادثة، بالإضافة إلى الدروس المستفادة التي يجب جمعها. وهنا يبرز دور الذكاء الاصطناعي، حيث يمكنه مراجعة جميع بيانات الحادثة وإنشاء تقرير شامل يغطي السبب الجذري، والتسلسل الزمني، والأثر، والتوصيات. على سبيل المثال، تُدمج شركة IBM الذكاء الاصطناعي التوليدي لإنشاء "ملخصات بسيطة لحالات وحوادث الأمن السيبراني، يمكن مشاركتها مع أصحاب المصلحة" بضغطة زر ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). ومن خلال تبسيط عملية إعداد التقارير اللاحقة، تستطيع المؤسسات تنفيذ التحسينات بشكل أسرع، بالإضافة إلى الحصول على وثائق أفضل لأغراض الامتثال.

من بين الاستخدامات المبتكرة والمستقبلية، محاكاة الحوادث المدعومة بالذكاء الاصطناعي . فكما هو الحال في تدريبات الإخلاء في حالات الحريق، تستخدم بعض الشركات الذكاء الاصطناعي التوليدي لمحاكاة سيناريوهات الحوادث المحتملة. قد يحاكي الذكاء الاصطناعي كيفية انتشار برامج الفدية الخبيثة بناءً على تصميم الشبكة، أو كيفية تمكن أحد الموظفين من تسريب البيانات، ثم يقيّم فعالية خطط الاستجابة الحالية. يساعد هذا الفرق على إعداد خطط الاستجابة وتحسينها قبل وقوع حادث حقيقي. إنه أشبه بوجود مستشار استجابة للحوادث دائم التطور يختبر جاهزيتك باستمرار.

في قطاعات بالغة الأهمية كقطاعي التمويل والرعاية الصحية، حيث يُعدّ توقف الأنظمة أو فقدان البيانات نتيجة الحوادث مكلفًا للغاية، تُصبح قدرات الاستجابة للحوادث المدعومة بالذكاء الاصطناعي جذابة للغاية. فالمستشفى الذي يتعرض لحادث إلكتروني لا يُمكنه تحمّل انقطاعات مطوّلة في أنظمته، وقد يكون الذكاء الاصطناعي الذي يُساعد بسرعة في احتواء الحادث منقذًا للأرواح. وبالمثل، يُمكن لمؤسسة مالية استخدام الذكاء الاصطناعي للتعامل مع الفرز الأولي لاختراق احتيالي مُشتبه به في الساعة الثالثة صباحًا، بحيث يكون جزء كبير من العمل التحضيري (مثل تسجيل الخروج من الحسابات المتأثرة، وحظر المعاملات، إلخ) قد أُنجز بالفعل قبل وصول فريق الاستجابة المُناوب. ومن خلال تعزيز فرق الاستجابة للحوادث بالذكاء الاصطناعي التوليدي ، يُمكن للمؤسسات تقليل أوقات الاستجابة بشكل كبير وتحسين دقة التعامل معها، مما يُساهم في نهاية المطاف في الحدّ من أضرار الحوادث الإلكترونية.

التحليلات السلوكية واكتشاف الحالات الشاذة

يمكن كشف العديد من الهجمات الإلكترونية من خلال ملاحظة أي انحراف عن السلوك "الطبيعي"، سواءً كان ذلك تحميل حساب مستخدم لكمية غير معتادة من البيانات أو اتصال جهاز شبكة فجأةً بمضيف غير مألوف. يوفر الذكاء الاصطناعي التوليدي تقنيات متقدمة لتحليل السلوك واكتشاف الحالات الشاذة ، حيث يتعلم الأنماط الطبيعية للمستخدمين والأنظمة، ثم يُشير إلى أي خلل.

تعتمد طرق الكشف التقليدية عن الحالات الشاذة غالبًا على عتبات إحصائية أو تقنيات تعلم آلي بسيطة تعتمد على مقاييس محددة (مثل ارتفاعات استخدام وحدة المعالجة المركزية، أو تسجيل الدخول في أوقات غير معتادة، إلخ). ويمكن للذكاء الاصطناعي التوليدي أن يرتقي بهذا الأمر إلى مستوى أعلى من خلال إنشاء ملفات تعريف سلوكية أكثر دقة. على سبيل المثال، يمكن لنموذج الذكاء الاصطناعي استيعاب بيانات تسجيل الدخول، وأنماط الوصول إلى الملفات، وعادات البريد الإلكتروني لموظف ما بمرور الوقت، وتكوين فهم متعدد الأبعاد لسلوكه "الطبيعي". إذا قام هذا الحساب لاحقًا بفعل شيء خارج عن المألوف بشكل جذري (مثل تسجيل الدخول من بلد جديد والوصول إلى مجموعة كبيرة من ملفات الموارد البشرية في منتصف الليل)، فسيكتشف الذكاء الاصطناعي انحرافًا ليس فقط في مقياس واحد، بل كنمط سلوكي كامل لا يتناسب مع ملف تعريف المستخدم. من الناحية التقنية، يمكن للنماذج التوليدية (مثل المشفرات التلقائية أو نماذج التسلسل) نمذجة ما يبدو عليه "السلوك الطبيعي"، ثم توليد نطاق متوقع للسلوك. عندما يقع الواقع خارج هذا النطاق، يتم تصنيفه على أنه حالة شاذة ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ).

رصد حركة مرور الشبكة أحد التطبيقات العملية للذكاء . فبحسب استطلاع أُجري عام 2024، أشارت 54% من المؤسسات الأمريكية إلى رصد حركة مرور الشبكة كأحد أبرز استخدامات الذكاء الاصطناعي في مجال الأمن السيبراني ( أمريكا الشمالية: أبرز استخدامات الذكاء الاصطناعي في الأمن السيبراني عالميًا 2024 ). يستطيع الذكاء الاصطناعي التوليدي تعلّم أنماط الاتصال الطبيعية لشبكة المؤسسة، مثل الخوادم التي تتواصل فيما بينها عادةً، وحجم البيانات المتداولة خلال ساعات العمل مقارنةً بالليل، وما إلى ذلك. فإذا بدأ مهاجم بتسريب البيانات من خادم ما، ولو ببطء لتجنب الكشف، فقد يلاحظ نظام قائم على الذكاء الاصطناعي أن "الخادم (أ) لا يرسل 500 ميجابايت من البيانات في الساعة الثانية صباحًا إلى عنوان IP خارجي"، فيُطلق تنبيهًا. ولأن الذكاء الاصطناعي لا يعتمد على قواعد ثابتة فحسب، بل على نموذج متطور لسلوك الشبكة، فإنه قادر على رصد الحالات الشاذة الدقيقة التي قد تغفلها القواعد الثابتة (مثل "التنبيه إذا كانت البيانات أكبر من س ميجابايت") أو قد تُشير إليها عن طريق الخطأ. إن هذه الطبيعة التكيفية هي ما يجعل اكتشاف الحالات الشاذة المدعوم بالذكاء الاصطناعي قويًا في بيئات مثل شبكات المعاملات المصرفية، أو البنية التحتية السحابية، أو أساطيل أجهزة إنترنت الأشياء، حيث يكون تحديد قواعد ثابتة للحالات الطبيعية مقابل الحالات غير الطبيعية أمرًا معقدًا للغاية.

يُساهم الذكاء الاصطناعي التوليدي أيضًا في تحليل سلوك المستخدم ، وهو أمرٌ بالغ الأهمية لكشف التهديدات الداخلية أو الحسابات المخترقة. فمن خلال إنشاء خط أساس لكل مستخدم أو كيان، يستطيع الذكاء الاصطناعي رصد حالات مثل إساءة استخدام بيانات الاعتماد. على سبيل المثال، إذا بدأ بوب، من قسم المحاسبة، فجأةً بالاستعلام عن قاعدة بيانات العملاء (وهو أمر لم يفعله من قبل)، فسيُصنّف نموذج الذكاء الاصطناعي سلوك بوب على أنه غير معتاد. قد لا يكون السبب برمجيات خبيثة، بل قد يكون سرقة بيانات اعتماد بوب واستخدامها من قِبل مُهاجم، أو قيام بوب بالبحث في أماكن غير مُصرّح له بالوصول إليها. في كلتا الحالتين، يتلقى فريق الأمن تنبيهًا مُسبقًا للتحقيق. توجد أنظمة تحليل سلوك المستخدم المدعومة بالذكاء الاصطناعي في العديد من منتجات الأمان، وتُساهم تقنيات النمذجة التوليدية في رفع دقتها وتقليل الإنذارات الكاذبة من خلال مراعاة السياق (كأن يكون بوب مُشاركًا في مشروع خاص، وهو ما يستطيع الذكاء الاصطناعي استنتاجه أحيانًا من بيانات أخرى).

في مجال إدارة الهوية والوصول، كشف التزييف العميق ضرورة متزايدة، إذ يُمكن للذكاء الاصطناعي التوليدي إنشاء أصوات ومقاطع فيديو اصطناعية تُضلل أنظمة الأمان البيومترية. ومن المثير للاهتمام، أن الذكاء الاصطناعي التوليدي يُمكنه أيضًا المساعدة في كشف هذه التزييفات العميقة من خلال تحليل التفاصيل الدقيقة في الصوت أو الفيديو التي يصعب على البشر ملاحظتها. وقد رأينا مثالًا على ذلك مع شركة أكسنتشر، التي استخدمت الذكاء الاصطناعي التوليدي لمحاكاة عدد لا يُحصى من تعابير الوجه والظروف لتدريب أنظمتها البيومترية على التمييز بين المستخدمين الحقيقيين والتزييفات العميقة المُولّدة بواسطة الذكاء الاصطناعي. وعلى مدار خمس سنوات، ساعد هذا النهج شركة أكسنتشر على الاستغناء عن كلمات المرور في 90% من أنظمتها (بالاعتماد على القياسات الحيوية وعوامل أخرى) وخفض الهجمات بنسبة 60% ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). باختصار، استخدمت الشركة الذكاء الاصطناعي التوليدي لتعزيز المصادقة البيومترية، مما جعلها مقاومة للهجمات التوليدية (مثال رائع على كيفية مواجهة الذكاء الاصطناعي للذكاء الاصطناعي). يُعد هذا النوع من النمذجة السلوكية - في هذه الحالة التعرف على الفرق بين وجه بشري حقيقي ووجه تم تركيبه بواسطة الذكاء الاصطناعي - أمرًا بالغ الأهمية مع ازدياد اعتمادنا على الذكاء الاصطناعي في المصادقة.

يُمكن تطبيق تقنيات الكشف عن الحالات الشاذة المدعومة بالذكاء الاصطناعي التوليدي في مختلف القطاعات: ففي مجال الرعاية الصحية، يُستخدم الذكاء الاصطناعي التوليدي لمراقبة سلوك الأجهزة الطبية بحثًا عن علامات الاختراق؛ وفي القطاع المالي، يُستخدم لمراقبة أنظمة التداول بحثًا عن أنماط غير منتظمة قد تُشير إلى الاحتيال أو التلاعب الخوارزمي؛ وفي قطاع الطاقة والمرافق، يُستخدم لمراقبة إشارات أنظمة التحكم بحثًا عن علامات الاختراق. إن الجمع بين الشمولية (النظر إلى جميع جوانب السلوك) والعمق (فهم الأنماط المعقدة) الذي يوفره الذكاء الاصطناعي التوليدي يجعله أداة فعّالة لاكتشاف المؤشرات الدقيقة للحوادث الإلكترونية. ومع ازدياد خفاء التهديدات واختبائها بين العمليات الاعتيادية، تُصبح هذه القدرة على تحديد "الوضع الطبيعي" بدقة والتنبيه عند حدوث أي انحراف أمرًا بالغ الأهمية. وهكذا، يعمل الذكاء الاصطناعي التوليدي كحارس لا يكلّ، يتعلم باستمرار ويُحدّث تعريفه للوضع الطبيعي لمواكبة التغيرات في البيئة، ويُنبه فرق الأمن إلى الحالات الشاذة التي تستدعي فحصًا دقيقًا.

فرص وفوائد الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

يُتيح تطبيق الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني فرصًا ومزايا للمؤسسات الراغبة في تبني هذه الأدوات. فيما يلي، نلخص المزايا الرئيسية التي تجعل الذكاء الاصطناعي التوليدي إضافةً قيّمة لبرامج الأمن السيبراني:

  • كشف التهديدات والاستجابة لها بشكل أسرع: تستطيع أنظمة الذكاء الاصطناعي التوليدي تحليل كميات هائلة من البيانات في الوقت الفعلي، والتعرف على التهديدات بسرعة تفوق بكثير سرعة التحليل البشري اليدوي. هذه الميزة تعني الكشف المبكر عن الهجمات واحتواء الحوادث بشكل أسرع. عمليًا، يمكن لأنظمة المراقبة الأمنية المدعومة بالذكاء الاصطناعي رصد التهديدات التي قد يستغرق البشر وقتًا أطول بكثير لربطها. من خلال الاستجابة الفورية للحوادث (أو حتى تنفيذ الاستجابات الأولية تلقائيًا)، تستطيع المؤسسات تقليل مدة بقاء المهاجمين في شبكاتها بشكل كبير، مما يقلل من الأضرار.

  • تحسين الدقة وتغطية التهديدات: بفضل قدرتها على التعلم المستمر من البيانات الجديدة، تستطيع النماذج التوليدية التكيف مع التهديدات المتطورة ورصد أدق مؤشرات النشاط الخبيث. ويؤدي ذلك إلى تحسين دقة الكشف (تقليل الإنذارات الكاذبة والنتائج الإيجابية الخاطئة) مقارنةً بالقواعد الثابتة. فعلى سبيل المثال، يمكن لنظام ذكاء اصطناعي تعلم سمات رسائل البريد الإلكتروني التصيدية أو سلوك البرامج الضارة تحديد أنواع لم يسبق رصدها. والنتيجة هي تغطية أوسع لأنواع التهديدات، بما في ذلك الهجمات الجديدة، مما يعزز الوضع الأمني ​​العام. كما تحصل فرق الأمن على رؤى تفصيلية من تحليلات الذكاء الاصطناعي (مثل تفسيرات سلوك البرامج الضارة)، مما يتيح دفاعات أكثر دقة واستهدافًا ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ).

  • أتمتة المهام المتكررة: يتفوق الذكاء الاصطناعي التوليدي في أتمتة مهام الأمن الروتينية التي تتطلب جهدًا بشريًا كبيرًا، بدءًا من مراجعة السجلات وإعداد التقارير وصولًا إلى كتابة سيناريوهات الاستجابة للحوادث. تُخفف هذه الأتمتة العبء عن المحللين البشريين ، مما يتيح لهم التركيز على الاستراتيجيات العليا واتخاذ القرارات المعقدة ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ). يمكن للذكاء الاصطناعي التعامل مع المهام الروتينية، ولكنها بالغة الأهمية، مثل فحص الثغرات الأمنية، ومراجعة التكوين، وتحليل نشاط المستخدم، وإعداد تقارير الامتثال (أو على الأقل صياغتها الأولية). من خلال معالجة هذه المهام بسرعة فائقة، لا يُحسّن الذكاء الاصطناعي الكفاءة فحسب، بل يُقلل أيضًا من الخطأ البشري (وهو عامل مهم في الاختراقات الأمنية).

  • الدفاع الاستباقي والمحاكاة: يُمكّن الذكاء الاصطناعي التوليدي المؤسسات من الانتقال من الأمن التفاعلي إلى الأمن الاستباقي. فمن خلال تقنيات مثل محاكاة الهجمات، وتوليد البيانات الاصطناعية، والتدريب القائم على السيناريوهات، يستطيع المدافعون توقع التهديدات والاستعداد لها قبل وقوعها على أرض الواقع. ويمكن لفرق الأمن محاكاة الهجمات الإلكترونية (حملات التصيد الاحتيالي، وانتشار البرامج الضارة، وهجمات الحرمان من الخدمة الموزعة، وغيرها) في بيئات آمنة لاختبار استجاباتهم ومعالجة أي نقاط ضعف. هذا التدريب المستمر، الذي يصعب تحقيقه بشكل كامل بالجهد البشري وحده، يُبقي الدفاعات فعّالة ومُحدّثة. إنه أشبه بتدريب على مواجهة الحرائق الإلكترونية - حيث يُمكن للذكاء الاصطناعي إطلاق العديد من التهديدات الافتراضية على دفاعاتك لتتمكن من التدرب والتحسين.

  • تعزيز الخبرة البشرية (الذكاء الاصطناعي كعامل مضاعف للقوة): يعمل الذكاء الاصطناعي التوليدي كمحلل مبتدئ لا يكلّ، ومستشار، ومساعد في آن واحد. فهو يزود أعضاء الفريق الأقل خبرة بالتوجيه والتوصيات التي يتوقعها عادةً الخبراء المخضرمون، مما يُسهم في إتاحة الخبرات للجميع في الفريق ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). ويكتسب هذا أهمية خاصة في ظل النقص الحاد في الكفاءات في مجال الأمن السيبراني، حيث يُساعد الذكاء الاصطناعي الفرق الصغيرة على إنجاز المزيد بموارد أقل. في المقابل، يستفيد المحللون ذوو الخبرة من قيام الذكاء الاصطناعي بالمهام الروتينية واستخلاص رؤى غير بديهية، والتي يمكنهم التحقق منها واتخاذ الإجراءات اللازمة بناءً عليها. والنتيجة النهائية هي فريق أمني أكثر إنتاجية وكفاءة، حيث يُعزز الذكاء الاصطناعي تأثير كل فرد من أفراده ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ؟).

  • دعم محسّن للقرارات وإعداد التقارير: من خلال ترجمة البيانات التقنية إلى رؤى بلغة طبيعية، يُحسّن الذكاء الاصطناعي التوليدي التواصل وعملية اتخاذ القرارات. يحصل قادة الأمن على رؤية أوضح للمشكلات عبر ملخصات يُنشئها الذكاء الاصطناعي، ويستطيعون اتخاذ قرارات استراتيجية مدروسة دون الحاجة إلى تحليل البيانات الخام. وبالمثل، يتحسن التواصل بين مختلف الأقسام (مع المديرين التنفيذيين، ومسؤولي الامتثال، وغيرهم) عندما يُعدّ الذكاء الاصطناعي تقارير سهلة الفهم حول الوضع الأمني ​​والحوادث ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). لا يُعزز هذا الثقة والتوافق بشأن المسائل الأمنية على مستوى القيادة فحسب، بل يُساعد أيضًا في تبرير الاستثمارات والتغييرات من خلال توضيح المخاطر والثغرات التي يكشفها الذكاء الاصطناعي.

مجتمعةً، تعني هذه المزايا أن المؤسسات التي تستفيد من الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني تستطيع تحقيق وضع أمني أقوى بتكاليف تشغيلية أقل. إذ يمكنها الاستجابة للتهديدات التي كانت في السابق هائلة، وسدّ الثغرات التي لم تُرصد، والتحسين المستمر من خلال حلقات التغذية الراجعة المدعومة بالذكاء الاصطناعي. في نهاية المطاف، يتيح الذكاء الاصطناعي التوليدي فرصةً للتفوق على الخصوم من خلال مواءمة سرعة ونطاقها وتعقيدها مع دفاعات متطورة بنفس القدر. وكما أظهر استطلاع رأي، يتوقع أكثر من نصف قادة الأعمال والأمن السيبراني اكتشافًا أسرع للتهديدات ودقةً أكبر باستخدام الذكاء الاصطناعي التوليدي (انظر: [PDF] التوقعات العالمية للأمن السيبراني 2025 | المنتدى الاقتصادي العالمي ) ( الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لـ LLM... )، ما يُعدّ دليلاً على التفاؤل بشأن فوائد هذه التقنيات.

مخاطر وتحديات استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني

رغم أهمية الفرص المتاحة، من الضروري التعامل مع الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني بوعي تام بالمخاطر والتحديات المصاحبة له. فالثقة العمياء بالذكاء الاصطناعي أو إساءة استخدامه قد تُؤدي إلى ظهور ثغرات أمنية جديدة. فيما يلي، نُحدد أبرز المخاوف والمخاطر، مع شرح سياق كل منها:

  • الاستخدام العدائي من قبل مجرمي الإنترنت: إن القدرات التوليدية نفسها التي تساعد المدافعين قد تُمكّن المهاجمين. يستخدم المهاجمون بالفعل الذكاء الاصطناعي التوليدي لصياغة رسائل بريد إلكتروني تصيدية أكثر إقناعًا، وإنشاء شخصيات وهمية ومقاطع فيديو مُفبركة بتقنية التزييف العميق لأغراض الهندسة الاجتماعية، وتطوير برامج خبيثة متعددة الأشكال تتغير باستمرار لتجنب الكشف، بل وحتى أتمتة جوانب من عمليات الاختراق ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ). يشعر ما يقرب من نصف قادة الأمن السيبراني (46%) بالقلق من أن يؤدي الذكاء الاصطناعي التوليدي إلى هجمات عدائية أكثر تطورًا ( أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيف ). تعني هذه "المنافسة الشرسة في مجال الذكاء الاصطناعي" أنه مع تبني المدافعين للذكاء الاصطناعي، لن يتخلف المهاجمون كثيرًا (بل قد يتقدمون في بعض المجالات، باستخدام أدوات الذكاء الاصطناعي غير الخاضعة للرقابة). يجب أن تكون المؤسسات مستعدة للتهديدات المُعززة بالذكاء الاصطناعي والتي تكون أكثر تواترًا وتعقيدًا وصعوبة في التتبع.

  • هلوسات الذكاء الاصطناعي وعدم دقته: قد تُنتج نماذج الذكاء الاصطناعي التوليدي مخرجات تبدو معقولة، لكنها غير صحيحة أو مُضللة ، وهي ظاهرة تُعرف بالهلوسة. في سياق الأمن السيبراني، قد يُحلل الذكاء الاصطناعي حادثةً ما ويستنتج خطأً أن ثغرةً أمنيةً مُعينةً هي السبب، أو قد يُنشئ برنامجًا نصيًا معيبًا للمعالجة يفشل في احتواء الهجوم. هذه الأخطاء قد تكون خطيرةً إذا أُخذت على ظاهرها. وكما تُحذر شركة NTT Data، "قد يُخرج الذكاء الاصطناعي التوليدي محتوىً غير صحيح، وتُسمى هذه الظاهرة بالهلوسة... ومن الصعب حاليًا القضاء عليها تمامًا" ( مخاطر أمن الذكاء الاصطناعي التوليدي والتدابير المضادة، وتأثيرها على الأمن السيبراني | مجموعة NTT DATA ). قد يؤدي الاعتماد المُفرط على الذكاء الاصطناعي دون التحقق منه إلى جهود مُضللة أو شعور زائف بالأمان. على سبيل المثال، قد يُصنف الذكاء الاصطناعي نظامًا حيويًا على أنه آمن بينما هو ليس كذلك، أو على العكس، قد يُثير الذعر من خلال "اكتشاف" اختراق لم يحدث أبدًا. يُعد التحقق الدقيق من مخرجات الذكاء الاصطناعي وإشراك البشر في عملية اتخاذ القرارات الحاسمة أمراً ضرورياً للتخفيف من هذا الخطر.

  • الإنذارات الكاذبة: ترتبط هذه المشكلة بالهلوسة، فإذا كان نموذج الذكاء الاصطناعي ضعيف التدريب أو التكوين، فقد يُبالغ في الإبلاغ عن أنشطة غير ضارة على أنها ضارة (إنذارات كاذبة)، أو الأسوأ من ذلك، قد يُغفل تهديدات حقيقية (إنذارات كاذبة) ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ؟). يُمكن أن تُرهق التنبيهات الكاذبة المفرطة فرق الأمن وتؤدي إلى إرهاق التنبيهات (مما يُبدد مكاسب الكفاءة التي وعد بها الذكاء الاصطناعي)، بينما تُعرّض حالات عدم الكشف المؤسسة للخطر. يُعدّ ضبط النماذج التوليدية لتحقيق التوازن الأمثل أمرًا صعبًا. فكل بيئة فريدة من نوعها، وقد لا يُؤدي الذكاء الاصطناعي أداءً مثاليًا فورًا. كما أن التعلّم المستمر سلاح ذو حدين أيضًا؛ فإذا تعلّم الذكاء الاصطناعي من ملاحظات غير دقيقة أو من بيئة متغيرة، فقد تتذبذب دقته. لذا، يجب على فرق الأمن مراقبة أداء الذكاء الاصطناعي وتعديل العتبات أو تقديم ملاحظات تصحيحية للنماذج. في السياقات عالية المخاطر (مثل اكتشاف الاختراقات للبنية التحتية الحيوية)، قد يكون من الحكمة تشغيل اقتراحات الذكاء الاصطناعي بالتوازي مع الأنظمة الحالية لفترة من الزمن، لضمان توافقها وتكاملها بدلاً من تعارضها.

  • خصوصية البيانات وتسريبها: غالبًا ما تتطلب أنظمة الذكاء الاصطناعي التوليدي كميات هائلة من البيانات للتدريب والتشغيل. إذا كانت هذه النماذج قائمة على الحوسبة السحابية أو غير معزولة بشكل صحيح، فهناك خطر تسريب المعلومات الحساسة. قد يُدخل المستخدمون عن غير قصد بيانات خاصة أو بيانات شخصية في خدمة الذكاء الاصطناعي (على سبيل المثال، طلب تلخيص تقرير حادث سري من ChatGPT)، وقد تُصبح هذه البيانات جزءًا من معرفة النموذج. في الواقع، وجدت دراسة حديثة أن 55% من مدخلات أدوات الذكاء الاصطناعي التوليدي تحتوي على معلومات حساسة أو معلومات تعريف شخصية ، مما يُثير مخاوف جدية بشأن تسريب البيانات ( أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيف ). بالإضافة إلى ذلك، إذا تم تدريب الذكاء الاصطناعي على بيانات داخلية وتم الاستعلام عنه بطرق معينة، فقد يُخرج أجزاءً من تلك البيانات الحساسة إلى جهة أخرى. يجب على المؤسسات تطبيق سياسات صارمة للتعامل مع البيانات (مثل استخدام نسخ ذكاء اصطناعي محلية أو خاصة للمواد الحساسة) وتوعية الموظفين بعدم نسخ المعلومات السرية ولصقها في أدوات الذكاء الاصطناعي العامة. كما تدخل لوائح الخصوصية (مثل اللائحة العامة لحماية البيانات) حيز التنفيذ - فاستخدام البيانات الشخصية لتدريب الذكاء الاصطناعي دون موافقة أو حماية مناسبة قد يتعارض مع القوانين.

  • أمن النماذج والتلاعب بها: قد تصبح نماذج الذكاء الاصطناعي التوليدي نفسها أهدافًا للهجمات. قد يحاول المهاجمون تسميم النموذج ، بتغذيته ببيانات خبيثة أو مضللة خلال مرحلة التدريب أو إعادة التدريب، ما يدفع الذكاء الاصطناعي إلى تعلم أنماط خاطئة ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ؟). على سبيل المثال، قد يقوم المهاجم بتسميم بيانات استخبارات التهديدات بشكل خفي، بحيث يفشل الذكاء الاصطناعي في التعرف على برامجه الخبيثة. ومن التكتيكات الأخرى حقن التعليمات البرمجية أو التلاعب بالمخرجات ، حيث يجد المهاجم طريقة لإدخال بيانات إلى الذكاء الاصطناعي تجعله يتصرف بطرق غير مقصودة، كأن يتجاهل ضوابط الأمان الخاصة به أو يكشف معلومات لا ينبغي له كشفها (مثل التعليمات أو البيانات الداخلية). إضافةً إلى ذلك، هناك خطر التهرب من النموذج : حيث يقوم المهاجمون بصياغة مدخلات مصممة خصيصًا لخداع الذكاء الاصطناعي. نرى هذا في أمثلة الخصوم - بيانات مُشوَّشة قليلاً يراها الإنسان طبيعية، لكن الذكاء الاصطناعي يُصنِّفها بشكل خاطئ. إن ضمان أمن سلسلة توريد الذكاء الاصطناعي (سلامة البيانات، والتحكم في الوصول إلى النموذج، واختبار المتانة ضد الهجمات) هو جزء جديد ولكنه ضروري من الأمن السيبراني عند نشر هذه الأدوات ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - Palo Alto Networks ).

  • الاعتماد المفرط وتراجع المهارات: ثمة خطر أقل وضوحًا يتمثل في احتمال اعتماد المؤسسات المفرط على الذكاء الاصطناعي، مما يؤدي إلى تراجع المهارات البشرية. فإذا ما وثق المحللون المبتدئون بمخرجات الذكاء الاصطناعي ثقة عمياء، فقد لا يطورون التفكير النقدي والحدس اللازمين للتعامل مع حالات تعطل الذكاء الاصطناعي أو خطئه. ومن السيناريوهات التي يجب تجنبها وجود فريق أمني يمتلك أدوات متطورة ولكنه يجهل كيفية التصرف في حال تعطل هذه الأدوات (كما هو الحال مع الطيارين الذين يعتمدون بشكل مفرط على نظام الطيار الآلي). لذا، من الضروري إجراء تدريبات منتظمة دون مساعدة الذكاء الاصطناعي، وترسيخ فكرة أن الذكاء الاصطناعي مجرد مساعد وليس مرجعًا معصومًا، للحفاظ على كفاءة المحللين البشريين. يجب أن يبقى الإنسان هو صاحب القرار النهائي، لا سيما في القرارات المصيرية.

  • التحديات الأخلاقية وتحديات الامتثال: يثير استخدام الذكاء الاصطناعي في الأمن السيبراني تساؤلات أخلاقية، وقد يؤدي إلى مشاكل تتعلق بالامتثال التنظيمي. على سبيل المثال، إذا اتهم نظام ذكاء اصطناعي موظفًا ما زورًا بأنه عميل داخلي خبيث بسبب خلل ما، فقد يلحق ذلك ضررًا غير مبرر بسمعته أو مسيرته المهنية. قد تكون قرارات الذكاء الاصطناعي مبهمة (مشكلة "الصندوق الأسود")، مما يصعب معه شرح أسباب اتخاذ إجراءات معينة للمدققين أو الجهات التنظيمية. ومع تزايد انتشار المحتوى المُولّد بواسطة الذكاء الاصطناعي، يصبح ضمان الشفافية والحفاظ على المساءلة أمرًا بالغ الأهمية. بدأت الجهات التنظيمية في التدقيق في الذكاء الاصطناعي - فعلى سبيل المثال، سيفرض قانون الذكاء الاصطناعي في الاتحاد الأوروبي متطلبات على أنظمة الذكاء الاصطناعي "عالية المخاطر"، وقد يندرج الذكاء الاصطناعي المستخدم في الأمن السيبراني ضمن هذه الفئة. ستحتاج الشركات إلى التعامل مع هذه اللوائح، وربما الالتزام بمعايير مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) لاستخدام الذكاء الاصطناعي التوليدي بمسؤولية ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يمتد الامتثال إلى الترخيص أيضًا: قد تتضمن نماذج المصادر المفتوحة أو نماذج الطرف الثالث شروطًا تقيد استخدامات معينة أو تتطلب مشاركة التحسينات.

باختصار، لا يُعدّ الذكاء الاصطناعي التوليدي حلاً سحرياً ، فإذا لم يُطبّق بعناية، فقد يُسبّب ثغرات جديدة حتى مع معالجته لثغرات أخرى. وقد أبرزت دراسة أجراها المنتدى الاقتصادي العالمي عام 2024 أن نحو 47% من المؤسسات تُشير إلى تقدّم المهاجمين في مجال الذكاء الاصطناعي التوليدي كأحد أهمّ مخاوفها، ما يجعله "الأثر الأكثر إثارة للقلق للذكاء الاصطناعي التوليدي" في مجال الأمن السيبراني ( [PDF] التوقعات العالمية للأمن السيبراني 2025 | المنتدى الاقتصادي العالمي ) ( الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لـ LLM... ). لذا، يجب على المؤسسات تبنّي نهج متوازن: الاستفادة من مزايا الذكاء الاصطناعي مع إدارة هذه المخاطر بدقة من خلال الحوكمة والاختبار والإشراف البشري. وسنتناول لاحقاً كيفية تحقيق هذا التوازن عملياً.

نظرة مستقبلية: الدور المتطور للذكاء الاصطناعي التوليدي في الأمن السيبراني

بالنظر إلى المستقبل، يُتوقع أن يصبح الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من استراتيجية الأمن السيبراني، وأداةً سيستمر المهاجمون الإلكترونيون في استغلالها. وتيرة هذه المواجهة، حيث سيستخدم الذكاء الاصطناعي من كلا الجانبين. إليكم بعض الرؤى المستقبلية حول كيفية تأثير الذكاء الاصطناعي التوليدي على الأمن السيبراني في السنوات القادمة:

  • الدفاع السيبراني المعزز بالذكاء الاصطناعي يصبح معيارًا: بحلول عام 2025 وما بعده، يُتوقع أن تكون معظم المؤسسات المتوسطة والكبيرة قد دمجت أدوات الذكاء الاصطناعي في عملياتها الأمنية. وكما هو الحال مع برامج مكافحة الفيروسات وجدران الحماية التي أصبحت معيارًا اليوم، فمن المرجح أن تصبح أنظمة الذكاء الاصطناعي المساعدة وأنظمة كشف الشذوذ مكونات أساسية في البنى الأمنية. ومن المحتمل أن تصبح هذه الأدوات أكثر تخصصًا، على سبيل المثال، نماذج ذكاء اصطناعي متميزة مُحسّنة لأمن الحوسبة السحابية، ومراقبة أجهزة إنترنت الأشياء، وأمن أكواد التطبيقات، وما إلى ذلك، تعمل جميعها بتناغم. وكما تشير إحدى التوقعات، "في عام 2025، سيصبح الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من الأمن السيبراني، مما يُمكّن المؤسسات من الدفاع بشكل استباقي ضد التهديدات المتطورة والمتغيرة" ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). سيعزز الذكاء الاصطناعي الكشف عن التهديدات في الوقت الفعلي، ويُؤتمت العديد من إجراءات الاستجابة، ويُساعد فرق الأمن على إدارة كميات هائلة من البيانات تفوق بكثير ما يُمكنهم إدارته يدويًا.

  • التعلم والتكيف المستمران: ستتحسن أنظمة الذكاء الاصطناعي التوليدية المستقبلية في مجال الأمن السيبراني في قدرتها على التعلم الفوري من الحوادث الجديدة ومعلومات التهديدات، وتحديث قاعدة معارفها بشكل شبه فوري. قد يؤدي هذا إلى دفاعات تكيفية حقيقية - تخيل نظام ذكاء اصطناعي يتعلم عن حملة تصيد احتيالي جديدة تستهدف شركة أخرى في الصباح، وبحلول الظهيرة يكون قد عدّل بالفعل فلاتر البريد الإلكتروني لشركتك استجابةً لذلك. قد تُسهّل خدمات أمن الذكاء الاصطناعي السحابية هذا النوع من التعلم الجماعي، حيث تستفيد جميع المشتركين من رؤى مجهولة المصدر من مؤسسة واحدة (على غرار مشاركة معلومات التهديدات، ولكن بشكل آلي). مع ذلك، سيتطلب هذا معالجة دقيقة لتجنب مشاركة المعلومات الحساسة ومنع المهاجمين من إدخال بيانات خاطئة في النماذج المشتركة.

  • تقارب مهارات الذكاء الاصطناعي والأمن السيبراني: ستتطور مهارات متخصصي الأمن السيبراني لتشمل إتقان الذكاء الاصطناعي وعلوم البيانات. فكما يتعلم محللو اليوم لغات الاستعلام والبرمجة النصية، قد يقوم محللو الغد بتحسين نماذج الذكاء الاصطناعي أو كتابة "خطط عمل" لتنفيذها. وقد نشهد ظهور أدوار جديدة مثل "مدرب أمن الذكاء الاصطناعي" أو "مهندس ذكاء اصطناعي للأمن السيبراني" - وهم متخصصون في تكييف أدوات الذكاء الاصطناعي مع احتياجات المؤسسات، والتحقق من أدائها، وضمان تشغيلها بشكل آمن. من جهة أخرى، ستؤثر اعتبارات الأمن السيبراني بشكل متزايد على تطوير الذكاء الاصطناعي. سيتم بناء أنظمة الذكاء الاصطناعي بميزات أمنية منذ البداية (بنية آمنة، كشف التلاعب، سجلات تدقيق لقرارات الذكاء الاصطناعي، إلخ)، وستوجه أطر عمل الذكاء الاصطناعي الموثوق (العادل، القابل للتفسير، القوي، والآمن) نشرها في سياقات بالغة الأهمية للأمن.

  • هجمات أكثر تطوراً مدعومة بالذكاء الاصطناعي: لسوء الحظ، سيتطور مشهد التهديدات بالتزامن مع تطور الذكاء الاصطناعي. نتوقع استخداماً متزايداً للذكاء الاصطناعي لاكتشاف الثغرات الأمنية غير المعروفة، وصياغة هجمات تصيد احتيالي دقيقة الاستهداف (مثل قيام الذكاء الاصطناعي باستخراج البيانات من وسائل التواصل الاجتماعي لإنشاء طُعم مُصمم خصيصاً)، وتوليد أصوات أو مقاطع فيديو مُزيفة بتقنية التزييف العميق لتجاوز المصادقة البيومترية أو ارتكاب عمليات احتيال. قد تظهر برامج اختراق آلية قادرة على تنفيذ هجمات متعددة المراحل (الاستطلاع، والاستغلال، والتنقل الجانبي، إلخ) بشكل مستقل وبأقل قدر من الإشراف البشري. سيُجبر هذا المدافعين على الاعتماد أيضاً على الذكاء الاصطناعي - أي الأتمتة ضد الأتمتة . قد تحدث بعض الهجمات بسرعة فائقة، مثل روبوتات الذكاء الاصطناعي التي تُجرب آلاف التباديل لرسائل البريد الإلكتروني التصيدية لمعرفة أيها يتجاوز المرشحات. ستحتاج الدفاعات السيبرانية إلى العمل بسرعة ومرونة مماثلتين لمواكبة هذا التطور ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ).

  • التنظيم والذكاء الاصطناعي الأخلاقي في مجال الأمن: مع ازدياد اندماج الذكاء الاصطناعي في وظائف الأمن السيبراني، سيزداد التدقيق، وربما التنظيم، لضمان استخدام هذه الأنظمة بمسؤولية. ومن المتوقع وضع أطر ومعايير خاصة بالذكاء الاصطناعي في مجال الأمن. وقد تضع الحكومات مبادئ توجيهية للشفافية، كاشتراط عدم اتخاذ قرارات أمنية هامة (مثل إنهاء وصول موظف للاشتباه في قيامه بنشاط ضار) بواسطة الذكاء الاصطناعي وحده دون مراجعة بشرية. كما قد تُمنح شهادات اعتماد لمنتجات أمن الذكاء الاصطناعي، لطمأنة المشترين بأن الذكاء الاصطناعي قد خضع للتقييم من حيث التحيز والمتانة والسلامة. علاوة على ذلك، قد ينمو التعاون الدولي في مجال التهديدات السيبرانية المتعلقة بالذكاء الاصطناعي؛ على سبيل المثال، اتفاقيات بشأن التعامل مع المعلومات المضللة التي يُنشئها الذكاء الاصطناعي، أو معايير لمكافحة بعض الأسلحة السيبرانية التي يقودها الذكاء الاصطناعي.

  • التكامل مع أنظمة الذكاء الاصطناعي وتكنولوجيا المعلومات الأوسع نطاقًا: من المرجح أن يتكامل الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مع أنظمة الذكاء الاصطناعي الأخرى وأدوات إدارة تكنولوجيا المعلومات. على سبيل المثال، يمكن لنظام ذكاء اصطناعي يُعنى بتحسين الشبكة أن يعمل جنبًا إلى جنب مع نظام ذكاء اصطناعي أمني لضمان عدم تسبب التغييرات في ثغرات أمنية. كما يمكن لتحليلات الأعمال المدعومة بالذكاء الاصطناعي مشاركة البيانات مع أنظمة الذكاء الاصطناعي الأمنية لربط الحالات الشاذة (مثل الانخفاض المفاجئ في المبيعات بمشكلة محتملة في الموقع الإلكتروني نتيجة لهجوم إلكتروني). باختصار، لن يعمل الذكاء الاصطناعي بمعزل عن الأنظمة الأخرى، بل سيصبح جزءًا لا يتجزأ من منظومة ذكية أوسع لعمليات المؤسسة. وهذا يتيح فرصًا لإدارة شاملة للمخاطر، حيث يمكن للذكاء الاصطناعي دمج البيانات التشغيلية وبيانات التهديدات، وحتى بيانات الأمن المادي، لتقديم رؤية شاملة لوضع الأمن المؤسسي.

على المدى البعيد، يُؤمل أن يُسهم الذكاء الاصطناعي التوليدي في ترجيح كفة المدافعين. فمن خلال التعامل مع حجم وتعقيد بيئات تكنولوجيا المعلومات الحديثة، يُمكن للذكاء الاصطناعي أن يجعل الفضاء الإلكتروني أكثر قابلية للدفاع. مع ذلك، فهي رحلة طويلة، وسنواجه تحديات في البداية بينما نُحسّن هذه التقنيات ونتعلم كيفية الوثوق بها بشكل صحيح. من المرجح أن تكون المؤسسات التي تُتابع التطورات وتستثمر في تبني الذكاء الاصطناعي بشكل مسؤول لأغراض الأمن هي الأفضل استعدادًا لمواجهة تهديدات المستقبل.

كما أشار تقرير غارتنر الأخير حول اتجاهات الأمن السيبراني، فإن "ظهور حالات استخدام الذكاء الاصطناعي التوليدي (ومخاطره) يُولّد ضغطًا نحو التحول" ( اتجاهات الأمن السيبراني: المرونة من خلال التحول - غارتنر ). سيستفيد من يتكيفون من الذكاء الاصطناعي كحليف قوي، بينما قد يجد المتأخرون أنفسهم متخلفين عن خصومهم المُدعّمين بالذكاء الاصطناعي. ستكون السنوات القليلة المقبلة حاسمة في تحديد كيفية إعادة تشكيل الذكاء الاصطناعي لساحة المعركة السيبرانية.

أهم النقاط العملية لتبني الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني

بالنسبة للشركات التي تقيّم كيفية الاستفادة من الذكاء الاصطناعي التوليدي في استراتيجية الأمن السيبراني الخاصة بها، إليكم بعض النقاط العملية والتوصيات لتوجيه عملية تبني مسؤولة وفعالة:

  1. ابدأ بالتعليم والتدريب: تأكد من أن فريق الأمن لديك (وجميع موظفي تقنية المعلومات) يفهمون إمكانيات الذكاء الاصطناعي التوليدي وحدوده. قدّم تدريبًا على أساسيات أدوات الأمن المدعومة بالذكاء الاصطناعي، وحدّث برامج التوعية الأمنية لجميع الموظفين لتشمل التهديدات التي يُمكّنها الذكاء الاصطناعي. على سبيل المثال، درّب الموظفين على كيفية توليد الذكاء الاصطناعي لرسائل تصيّد إلكتروني ومكالمات مزيفة مُقنعة للغاية. في الوقت نفسه، درّب الموظفين على الاستخدام الآمن والمُعتمد لأدوات الذكاء الاصطناعي في عملهم. المستخدمون المُطّلعون أقل عرضةً لسوء استخدام الذكاء الاصطناعي أو الوقوع ضحيةً للهجمات المُعززة به ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).

  2. حدد سياسات واضحة لاستخدام الذكاء الاصطناعي: تعامل مع الذكاء الاصطناعي التوليدي كأي تقنية متطورة أخرى، مع وضع ضوابط صارمة. ضع سياسات تحدد من يمكنه استخدام أدوات الذكاء الاصطناعي، وما هي الأدوات المعتمدة، ولأي أغراض. أدرج إرشادات حول التعامل مع البيانات الحساسة (مثل عدم إدخال بيانات سرية إلى خدمات الذكاء الاصطناعي الخارجية) لمنع التسريبات. على سبيل المثال، يمكنك السماح لأعضاء فريق الأمن فقط باستخدام مساعد ذكاء اصطناعي داخلي للاستجابة للحوادث، ويمكن لفريق التسويق استخدام ذكاء اصطناعي معتمد للمحتوى، بينما يُحظر على الآخرين استخدامه. تتناول العديد من المؤسسات الآن الذكاء الاصطناعي التوليدي بشكل صريح في سياسات تقنية المعلومات الخاصة بها، وتشجع هيئات المعايير الرائدة على سياسات الاستخدام الآمن بدلاً من الحظر التام ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). تأكد من إبلاغ جميع الموظفين بهذه القواعد وأسبابها.

  3. الحد من استخدام الذكاء الاصطناعي غير المصرح به ومراقبة استخدامه: على غرار تقنية المعلومات غير الرسمية، ينشأ استخدام الذكاء الاصطناعي غير المصرح به عندما يبدأ الموظفون باستخدام أدوات أو خدمات الذكاء الاصطناعي دون علم قسم تقنية المعلومات (مثل استخدام مطور برامج مساعدًا برمجيًا غير مصرح به يعمل بالذكاء الاصطناعي). قد يؤدي ذلك إلى مخاطر خفية. لذا، يجب تطبيق إجراءات للكشف عن استخدام الذكاء الاصطناعي غير المصرح به والتحكم فيه . يمكن لمراقبة الشبكة رصد الاتصالات بواجهات برمجة تطبيقات الذكاء الاصطناعي الشائعة، كما يمكن للاستبيانات أو عمليات تدقيق الأدوات الكشف عما يستخدمه الموظفون. يُنصح بتوفير بدائل معتمدة حتى لا يميل الموظفون ذوو النوايا الحسنة إلى استخدام الذكاء الاصطناعي بشكل غير مصرح به (على سبيل المثال، توفير حساب ChatGPT Enterprise رسمي إذا وجده الموظفون مفيدًا). ​​من خلال الكشف عن استخدام الذكاء الاصطناعي، يمكن لفرق الأمن تقييم المخاطر وإدارتها. تُعد المراقبة أيضًا أمرًا بالغ الأهمية - يجب تسجيل أنشطة ومخرجات أدوات الذكاء الاصطناعي قدر الإمكان، بحيث يكون هناك سجل تدقيق للقرارات التي أثر فيها الذكاء الاصطناعي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).

  4. استغل الذكاء الاصطناعي دفاعيًا - لا تتخلف عن الركب: أدرك أن المهاجمين سيستخدمون الذكاء الاصطناعي، لذا يجب أن تستخدمه دفاعاتك أيضًا. حدد بعض المجالات ذات التأثير الكبير حيث يمكن للذكاء الاصطناعي التوليدي أن يُساعد عملياتك الأمنية بشكل فوري (مثل فرز التنبيهات، أو تحليل السجلات الآلي) ونفّذ مشاريع تجريبية. عزّز دفاعاتك بسرعة الذكاء الاصطناعي ونطاقه لمواجهة التهديدات سريعة التطور ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). حتى عمليات التكامل البسيطة، مثل استخدام الذكاء الاصطناعي لتلخيص تقارير البرامج الضارة أو إنشاء استعلامات البحث عن التهديدات، يُمكن أن توفر ساعات من وقت المحللين. ابدأ على نطاق صغير، وقيم النتائج، وكرر العملية. ستُعزز النجاحات الحاجة إلى تبني الذكاء الاصطناعي على نطاق أوسع. الهدف هو استخدام الذكاء الاصطناعي كعامل مُضاعف للقوة - على سبيل المثال، إذا كانت هجمات التصيد الاحتيالي تُرهق مكتب المساعدة لديك، فقم بنشر مُصنف بريد إلكتروني يعمل بالذكاء الاصطناعي لتقليل هذا الحجم بشكل استباقي.

  5. استثمر في ممارسات الذكاء الاصطناعي الآمنة والأخلاقية: عند تطبيق الذكاء الاصطناعي التوليدي، اتبع ممارسات التطوير والنشر الآمنة. استخدم نماذج خاصة أو مستضافة ذاتيًا للمهام الحساسة للحفاظ على التحكم في البيانات. في حال استخدام خدمات ذكاء اصطناعي خارجية، راجع إجراءات الأمان والخصوصية الخاصة بها (التشفير، سياسات الاحتفاظ بالبيانات، إلخ). أدمج أطر إدارة مخاطر الذكاء الاصطناعي (مثل إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا أو إرشادات المنظمة الدولية للمعايير/اللجنة الكهروتقنية الدولية) لمعالجة أمور مثل التحيز، وقابلية التفسير، والمتانة في أدوات الذكاء الاصطناعي الخاصة بك بشكل منهجي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). خطط أيضًا لتحديثات/تصحيحات النماذج كجزء من الصيانة - يمكن أن تحتوي نماذج الذكاء الاصطناعي على "ثغرات" أيضًا (على سبيل المثال، قد تحتاج إلى إعادة تدريب إذا بدأت في الانحراف أو إذا تم اكتشاف نوع جديد من الهجمات المعادية على النموذج). من خلال دمج الأمان والأخلاق في استخدامك للذكاء الاصطناعي، فإنك تبني الثقة في النتائج وتضمن الامتثال للوائح الناشئة.

  6. أبقِ العنصر البشري حاضرًا: استخدم الذكاء الاصطناعي للمساعدة، لا لاستبدال الحكم البشري تمامًا، في مجال الأمن السيبراني. حدد نقاط اتخاذ القرار التي تتطلب موافقة بشرية (على سبيل المثال، قد يُعدّ الذكاء الاصطناعي تقريرًا عن حادثة، لكن يراجعه محلل قبل توزيعه؛ أو قد يقترح الذكاء الاصطناعي حظر حساب مستخدم، لكن يوافق عليه شخص). هذا لا يمنع أخطاء الذكاء الاصطناعي من المرور دون تصحيح فحسب، بل يساعد فريقك أيضًا على التعلم من الذكاء الاصطناعي والعكس صحيح. شجع سير العمل التعاوني: يجب أن يشعر المحللون بالراحة عند التساؤل عن مخرجات الذكاء الاصطناعي وإجراء فحوصات التحقق. بمرور الوقت، يمكن لهذا الحوار تحسين كل من الذكاء الاصطناعي (من خلال التغذية الراجعة) ومهارات المحللين. باختصار، صمم عملياتك بحيث تُكمل نقاط قوة الذكاء الاصطناعي والبشر بعضها بعضًا - يتعامل الذكاء الاصطناعي مع الكم والسرعة، ويتعامل البشر مع الغموض والقرارات النهائية.

  7. القياس والمراقبة والتعديل: أخيرًا، تعامل مع أدوات الذكاء الاصطناعي التوليدي كعناصر حيوية في منظومة أمنك. قِس أداءها - هل تُقلل من أوقات الاستجابة للحوادث؟ هل تكشف التهديدات مبكرًا؟ ما هو معدل الإنذارات الكاذبة؟ اطلب آراء الفريق: هل توصيات الذكاء الاصطناعي مفيدة، أم أنها تُسبب تشويشًا؟ استخدم هذه المقاييس لتحسين النماذج، وتحديث بيانات التدريب، أو تعديل كيفية دمج الذكاء الاصطناعي. تتطور التهديدات السيبرانية واحتياجات العمل، ويجب تحديث نماذج الذكاء الاصطناعي أو إعادة تدريبها دوريًا للحفاظ على فعاليتها. ضع خطة لإدارة النماذج، بما في ذلك تحديد المسؤول عن صيانتها وعدد مرات مراجعتها. من خلال الإدارة الفعّالة لدورة حياة الذكاء الاصطناعي، تضمن بقاءه إضافة قيّمة، لا عبئًا.

في الختام، يُمكن للذكاء الاصطناعي التوليدي أن يُعزز قدرات الأمن السيبراني بشكلٍ كبير، ولكن اعتماده بنجاح يتطلب تخطيطًا دقيقًا ومتابعة مستمرة. الشركات التي تُدرّب موظفيها، وتضع مبادئ توجيهية واضحة، وتُدمج الذكاء الاصطناعي بطريقة متوازنة وآمنة، ستجني ثمار إدارة أسرع وأكثر ذكاءً للتهديدات. تُقدّم هذه النتائج خارطة طريق: الجمع بين الخبرة البشرية وأتمتة الذكاء الاصطناعي، وتغطية أساسيات الحوكمة، والحفاظ على المرونة مع التطور الحتمي لتقنية الذكاء الاصطناعي وبيئة التهديدات.

باتخاذ هذه الخطوات العملية، تستطيع المؤسسات الإجابة بثقة على السؤال: "كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟" - ليس نظرياً فحسب، بل عملياً أيضاً - وبالتالي تعزيز دفاعاتها في عالمنا الرقمي المتزايد الاعتماد على الذكاء الاصطناعي. ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ؟)

أوراق بحثية قد ترغب في قراءتها بعد هذه الورقة:

🔗 وظائف لا يمكن للذكاء الاصطناعي أن يحل محلها، وما هي الوظائف التي سيحل الذكاء الاصطناعي محلها؟
استكشف النظرة العالمية حول الأدوار التي ستكون في مأمن من الأتمتة وتلك التي لن تكون كذلك.

🔗 هل ​​يمكن للذكاء الاصطناعي التنبؤ بسوق الأسهم؟
نظرة فاحصة على القيود والاختراقات والخرافات المحيطة بقدرة الذكاء الاصطناعي على التنبؤ بتحركات السوق.

🔗 ما الذي يمكن الاعتماد عليه في الذكاء الاصطناعي التوليدي دون تدخل بشري؟
فهم المجالات التي يمكن للذكاء الاصطناعي أن يعمل فيها بشكل مستقل، والمجالات التي لا تزال فيها الرقابة البشرية ضرورية.

العودة إلى المدونة