مقدمة
يبرز الذكاء الاصطناعي التوليدي - أنظمة الذكاء الاصطناعي القادرة على إنشاء محتوى أو تنبؤات جديدة - كقوة دافعة في مجال الأمن السيبراني. وقد أثبتت أدوات مثل GPT-4 من OpenAI قدرتها على تحليل البيانات المعقدة وإنشاء نصوص شبيهة بالنصوص البشرية، مما يتيح مناهج جديدة للدفاع ضد التهديدات السيبرانية. ويستكشف متخصصو الأمن السيبراني وصناع القرار في مختلف القطاعات كيف يمكن للذكاء الاصطناعي التوليدي تعزيز دفاعاتهم ضد الهجمات المتطورة. فمن القطاع المالي والرعاية الصحية إلى قطاع التجزئة والقطاع الحكومي، تواجه المؤسسات في جميع القطاعات محاولات تصيد احتيالي متطورة وبرامج ضارة وتهديدات أخرى قد يساعد الذكاء الاصطناعي التوليدي في مواجهتها. في هذه الورقة البيضاء، ندرس كيفية استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ، مسلطين الضوء على تطبيقات واقعية، وإمكانيات مستقبلية، واعتبارات مهمة للتبني.
يختلف الذكاء الاصطناعي التوليدي عن الذكاء الاصطناعي التحليلي التقليدي ليس فقط في اكتشاف الأنماط، بل أيضًا في إنشاء المحتوى - سواءً بمحاكاة الهجمات لتدريب الدفاعات أو إنتاج تفسيرات باللغة الطبيعية لبيانات أمنية معقدة. هذه القدرة المزدوجة تجعله سلاحًا ذا حدين: فهو يوفر أدوات دفاعية جديدة فعّالة، ولكن يمكن للجهات الفاعلة في مجال التهديدات استغلاله أيضًا. تستكشف الأقسام التالية مجموعة واسعة من حالات استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني، بدءًا من أتمتة اكتشاف التصيد الاحتيالي وصولًا إلى تحسين الاستجابة للحوادث. كما نناقش الفوائد التي تُبشر بها ابتكارات الذكاء الاصطناعي هذه، إلى جانب المخاطر (مثل "هلوسة" الذكاء الاصطناعي أو إساءة استخدامه بشكل عدائي) التي يجب على المؤسسات إدارتها. وأخيرًا، نقدم نصائح عملية لمساعدة الشركات على تقييم الذكاء الاصطناعي التوليدي ودمجه بمسؤولية في استراتيجياتها للأمن السيبراني.
الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني: نظرة عامة
يشير الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني إلى نماذج الذكاء الاصطناعي - غالبًا ما تكون نماذج لغوية كبيرة أو شبكات عصبية أخرى - القادرة على توليد رؤى وتوصيات وأكواد برمجية، أو حتى بيانات تركيبية، للمساعدة في مهام الأمن. بخلاف النماذج التنبؤية البحتة، يُمكن للذكاء الاصطناعي التوليدي محاكاة السيناريوهات وإنتاج مخرجات سهلة القراءة (مثل التقارير والتنبيهات أو حتى عينات أكواد ضارة) بناءً على بيانات التدريب. تُستغل هذه القدرة للتنبؤ بالتهديدات واكتشافها والاستجابة لها بطرق أكثر ديناميكية من ذي قبل ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس ). على سبيل المثال، يُمكن للنماذج التوليدية تحليل السجلات الضخمة أو مستودعات معلومات التهديدات، وإنتاج ملخص موجز أو إجراء مُوصى به، بحيث تعمل تقريبًا كـ "مساعد" ذكاء اصطناعي لفرق الأمن.
أظهرت التطبيقات المبكرة للذكاء الاصطناعي التوليدي للدفاع السيبراني نتائج واعدة. في عام 2023، قدمت مايكروسوفت Security Copilot ، وهو مساعد مدعوم بـ GPT-4 لمحللي الأمن، للمساعدة في تحديد الاختراقات والتدقيق في 65 تريليون إشارة تعالجها مايكروسوفت يوميًا ( Microsoft Security Copilot هو مساعد ذكاء اصطناعي جديد لـ GPT-4 للأمن السيبراني | The Verge ). يمكن للمحللين مطالبة هذا النظام باللغة الطبيعية (على سبيل المثال "تلخيص جميع الحوادث الأمنية في آخر 24 ساعة" )، وسينتج المساعد ملخصًا سرديًا مفيدًا. وبالمثل، Threat Intelligence AI نموذجًا توليديًا يسمى Gemini لتمكين البحث التحادثي من خلال قاعدة بيانات التهديدات الضخمة من Google، وتحليل التعليمات البرمجية المشبوهة بسرعة وتلخيص النتائج لمساعدة صائدي البرامج الضارة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة من العالم الحقيقي ). توضح هذه الأمثلة الإمكانات: يمكن للذكاء الاصطناعي التوليدي استيعاب بيانات الأمن السيبراني المعقدة وواسعة النطاق وتقديم رؤى في شكل يسهل الوصول إليه، مما يسرع عملية اتخاذ القرار.
في الوقت نفسه، يُمكن للذكاء الاصطناعي التوليدي إنشاء محتوى مُزيّف واقعي للغاية، وهو أمرٌ مُفيدٌ للمحاكاة والتدريب (وللأسف، للمُهاجمين الذين يُصممون الهندسة الاجتماعية). مع انتقالنا إلى حالات استخدام مُحددة، سنرى أن قدرة الذكاء الاصطناعي التوليدي على تجميع وتحليلها في مجال الأمن السيبراني. سنتناول أدناه حالات استخدام رئيسية، بدءًا من منع التصيد الاحتيالي ووصولًا إلى تطوير البرمجيات الآمنة، مع أمثلة على كيفية تطبيق كل منها في مختلف القطاعات.
التطبيقات الرئيسية للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني
الشكل: تشمل حالات الاستخدام الرئيسية للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مساعدي الذكاء الاصطناعي لفرق الأمن، وتحليل نقاط ضعف التعليمات البرمجية، واكتشاف التهديدات التكيفية، ومحاكاة هجوم اليوم صفر، والأمان البيومتري المعزز، واكتشاف التصيد الاحتيالي ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في مجال الأمن السيبراني [+ أمثلة] ).
اكتشاف التصيد الاحتيالي والوقاية منه
لا يزال التصيد الاحتيالي أحد أكثر التهديدات الإلكترونية انتشارًا، إذ يخدع المستخدمين للنقر على روابط ضارة أو الكشف عن بيانات الاعتماد. ويتم نشر الذكاء الاصطناعي التوليدي للكشف عن محاولات التصيد الاحتيالي وتعزيز تدريب المستخدمين لمنع الهجمات الناجحة. ومن الناحية الدفاعية، يمكن لنماذج الذكاء الاصطناعي تحليل محتوى البريد الإلكتروني وسلوكيات المرسل للكشف عن العلامات الدقيقة للتصيد الاحتيالي التي قد تفوتها المرشحات القائمة على القواعد. ومن خلال التعلم من مجموعات البيانات الضخمة لرسائل البريد الإلكتروني المشروعة مقابل الاحتيالية، يمكن للنموذج التوليدي تحديد أي شذوذ في اللهجة أو الصياغة أو السياق يشير إلى عملية احتيال - حتى عندما لا تكشف القواعد النحوية والإملائية عنها. في الواقع، يشير باحثو Palo Alto Networks إلى أن الذكاء الاصطناعي التوليدي يمكنه تحديد "العلامات الدقيقة لرسائل البريد الإلكتروني التصيدية التي قد تمر دون اكتشافها"، مما يساعد المؤسسات على البقاء متقدمة بخطوة واحدة على المحتالين ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - Palo Alto Networks ).
تستخدم فرق الأمن أيضًا الذكاء الاصطناعي التوليدي لمحاكاة هجمات التصيد الاحتيالي لأغراض التدريب والتحليل. على سبيل المثال، قدمت شركة Ironscales أداة محاكاة تصيد احتيالي مدعومة بتقنية GPT، تُولّد تلقائيًا رسائل بريد إلكتروني مزيفة مصممة خصيصًا لموظفي المؤسسة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). تعكس رسائل البريد الإلكتروني المُصممة بالذكاء الاصطناعي أحدث أساليب المهاجمين، مما يمنح الموظفين تدريبًا عمليًا على اكتشاف محتوى التصيد الاحتيالي. يُعد هذا التدريب المُخصص أمرًا بالغ الأهمية، حيث يعتمد المهاجمون أنفسهم على الذكاء الاصطناعي لإنشاء إغراءات أكثر إقناعًا. والجدير بالذكر أنه في حين أن الذكاء الاصطناعي التوليدي قادر على إنتاج رسائل تصيد احتيالي مصقولة للغاية (ولّت أيام اللغة الإنجليزية المكسورة بسهولة)، فقد وجد المدافعون أن الذكاء الاصطناعي ليس منيعًا. في عام ٢٠٢٤، أجرى باحثو أمن IBM تجربةً قارنوا فيها رسائل التصيد الاحتيالي المكتوبة بشريًا برسائل مُولّدة بالذكاء الاصطناعي، و "المثير للدهشة أن رسائل البريد الإلكتروني المُولّدة بالذكاء الاصطناعي لا تزال سهلة الاكتشاف على الرغم من قواعدها النحوية الصحيحة" ( ٦ حالات استخدام للذكاء الاصطناعي المُولّد في الأمن السيبراني [+ أمثلة] ). يشير هذا إلى أن الحدس البشري، إلى جانب الكشف بمساعدة الذكاء الاصطناعي، لا يزال قادرًا على تمييز التناقضات الدقيقة أو إشارات البيانات الوصفية في عمليات الاحتيال المكتوبة بالذكاء الاصطناعي.
يساعد الذكاء الاصطناعي التوليدي في الدفاع ضد التصيد الاحتيالي بطرق أخرى أيضًا. يمكن استخدام النماذج لإنشاء ردود آلية أو مرشحات لاختبار رسائل البريد الإلكتروني المشبوهة. على سبيل المثال، يمكن لنظام الذكاء الاصطناعي الرد على بريد إلكتروني باستفسارات معينة للتحقق من شرعية المرسل أو استخدام ماجستير في القانون لتحليل روابط البريد الإلكتروني ومرفقاته في صندوق رمل، ثم تلخيص أي نية خبيثة. تُظهر منصة مورفيوس قوة الذكاء الاصطناعي في هذا المجال - فهي تستخدم نماذج معالجة اللغة الطبيعية التوليدية لتحليل رسائل البريد الإلكتروني وتصنيفها بسرعة، وقد وُجد أنها تُحسّن اكتشاف رسائل التصيد الاحتيالي الموجه بنسبة 21% مقارنةً بأدوات الأمان التقليدية ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). حتى أن مورفيوس تُحدد أنماط اتصال المستخدم للكشف عن السلوك غير المعتاد (مثل قيام المستخدم فجأة بإرسال بريد إلكتروني إلى العديد من العناوين الخارجية)، مما قد يشير إلى حساب مخترق يرسل رسائل تصيد احتيالي.
عمليًا، بدأت الشركات في مختلف القطاعات تثق بالذكاء الاصطناعي لتصفية رسائل البريد الإلكتروني وحركة مرور الويب من هجمات الهندسة الاجتماعية. على سبيل المثال، تستخدم شركات التمويل الذكاء الاصطناعي التوليدي لمسح الاتصالات بحثًا عن محاولات انتحال الهوية التي قد تؤدي إلى الاحتيال الإلكتروني، بينما ينشر مقدمو الرعاية الصحية الذكاء الاصطناعي لحماية بيانات المرضى من الاختراقات المتعلقة بالتصيد الاحتيالي. من خلال توليد سيناريوهات واقعية للتصيد الاحتيالي وتحديد السمات المميزة للرسائل الضارة، يُضيف الذكاء الاصطناعي التوليدي طبقة قوية لاستراتيجيات منع التصيد الاحتيالي. خلاصة القول: يمكن للذكاء الاصطناعي المساعدة في الكشف عن هجمات التصيد الاحتيالي وتعطيلها بشكل أسرع وأكثر دقة، حتى مع استخدام المهاجمين لنفس التقنية لتحسين أدائهم.
اكتشاف البرامج الضارة وتحليل التهديدات
تتطور البرمجيات الخبيثة الحديثة باستمرار - حيث يُنشئ المهاجمون متغيرات جديدة أو يُشوشون التعليمات البرمجية لتجاوز توقيعات مكافحة الفيروسات. يوفر الذكاء الاصطناعي التوليدي تقنيات جديدة للكشف عن البرمجيات الخبيثة وفهم سلوكها. أحد الأساليب هو استخدام الذكاء الاصطناعي لتوليد "التوائم الشريرة" للبرمجيات الخبيثة : يمكن لباحثي الأمن تغذية عينة معروفة من البرامج الخبيثة في نموذج توليدي لإنشاء العديد من المتغيرات المتحولة لتلك البرمجيات الخبيثة. ومن خلال القيام بذلك، فإنهم يتوقعون بفعالية التعديلات التي قد يقوم بها المهاجم. يمكن بعد ذلك استخدام هذه المتغيرات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتدريب أنظمة مكافحة الفيروسات وكشف التسلل، بحيث يتم التعرف حتى على الإصدارات المعدلة من البرمجيات الخبيثة في البرية ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). تساعد هذه الاستراتيجية الاستباقية في كسر الدورة حيث يُغير المتسللون برامجهم الخبيثة قليلاً للتهرب من الكشف ويجب على المدافعين التسرع في كتابة توقيعات جديدة في كل مرة. كما ذُكر في إحدى حلقات البودكاست المتخصصة، يستخدم خبراء الأمن الآن الذكاء الاصطناعي التوليدي "لمحاكاة حركة مرور الشبكة وتوليد حمولات خبيثة تحاكي الهجمات المتطورة"، مما يُخضع دفاعاتهم لاختبارات ضغط ضد مجموعة كاملة من التهديدات بدلاً من حالة واحدة. هذا الكشف التكيفي عن التهديدات يعني أن أدوات الأمن أصبحت أكثر قدرة على الصمود في وجه البرمجيات الخبيثة متعددة الأشكال التي قد تتسلل لولا ذلك.
بالإضافة إلى الكشف، يساعد الذكاء الاصطناعي التوليدي في تحليل البرامج الضارة والهندسة العكسية ، والتي تعد تقليديًا مهامًا كثيفة العمالة لمحللي التهديدات. يمكن تكليف نماذج اللغة الكبيرة بفحص التعليمات البرمجية أو البرامج النصية المشبوهة وشرح ما يهدف إليه الكود بلغة بسيطة. ومن الأمثلة الواقعية على ذلك VirusTotal Code Insight ، وهي ميزة من VirusTotal من Google تستفيد من نموذج الذكاء الاصطناعي التوليدي (Sec-PaLM من Google) لإنتاج ملخصات باللغة الطبيعية للرموز الضارة المحتملة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة من العالم الحقيقي ). إنه في الأساس "نوع من ChatGPT مخصص للترميز الأمني"، حيث يعمل كمحلل برامج ضارة بالذكاء الاصطناعي يعمل على مدار الساعة طوال أيام الأسبوع لمساعدة المحللين البشريين على فهم التهديدات ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). بدلاً من التدقيق في نص برمجي أو شيفرة ثنائية غير مألوفة، يمكن لعضو فريق الأمن الحصول على تفسير فوري من الذكاء الاصطناعي - على سبيل المثال، "يحاول هذا النص تنزيل ملف من خادم XYZ ثم تعديل إعدادات النظام، مما يدل على سلوك برمجي ضار". هذا يُسرّع الاستجابة للحوادث بشكل كبير، حيث يُمكن للمحللين فرز البرمجيات الخبيثة الجديدة وفهمها بشكل أسرع من أي وقت مضى.
يُستخدم الذكاء الاصطناعي التوليدي أيضًا لتحديد البرامج الضارة في مجموعات البيانات الضخمة . تفحص محركات مكافحة الفيروسات التقليدية الملفات بحثًا عن التوقيعات المعروفة، ولكن يمكن للنموذج التوليدي تقييم خصائص الملف وحتى التنبؤ بما إذا كان ضارًا بناءً على الأنماط المكتسبة. من خلال تحليل سمات مليارات الملفات (الخبيثة والحميدة)، قد يكتشف الذكاء الاصطناعي النية الخبيثة حيث لا يوجد توقيع صريح. على سبيل المثال، يمكن للنموذج التوليدي وضع علامة على ملف قابل للتنفيذ على أنه مشبوه لأن ملف تعريف سلوكه "يبدو" وكأنه اختلاف طفيف في برنامج الفدية الذي شاهده أثناء التدريب، على الرغم من أن الملف الثنائي جديد. يساعد هذا الكشف القائم على السلوك في مكافحة البرامج الضارة الجديدة أو التي لم يتم اكتشافها بعد. تفيد التقارير أن Threat Intelligence AI من Google (جزء من Chronicle / Mandiant) يستخدم نموذجه التوليدي لتحليل التعليمات البرمجية الضارة المحتملة و "مساعدة متخصصي الأمن بشكل أكثر كفاءة وفعالية في مكافحة البرامج الضارة وأنواع أخرى من التهديدات". ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).
من ناحية أخرى، يجب أن ندرك أن المهاجمين يمكنهم استخدام الذكاء الاصطناعي التوليدي هنا أيضًا - لإنشاء برامج ضارة تلقائيًا تتكيف مع نفسها. في الواقع، يحذر خبراء الأمن من أن الذكاء الاصطناعي التوليدي يمكن أن يساعد مجرمي الإنترنت على تطوير برامج ضارة يصعب اكتشافها ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - Palo Alto Networks ). يمكن توجيه نموذج الذكاء الاصطناعي لتحويل قطعة من البرامج الضارة بشكل متكرر (تغيير بنية ملفاتها وطرق تشفيرها وما إلى ذلك) حتى تتجنب جميع فحوصات مكافحة الفيروسات المعروفة. يمثل هذا الاستخدام العدائي مصدر قلق متزايد (يشار إليه أحيانًا باسم "البرامج الضارة المدعومة بالذكاء الاصطناعي" أو البرامج الضارة متعددة الأشكال كخدمة). سنناقش هذه المخاطر لاحقًا، لكنها تؤكد أن الذكاء الاصطناعي التوليدي هو أداة في لعبة القط والفأر هذه التي يستخدمها كل من المدافعين والمهاجمين.
بشكل عام، يُعزز الذكاء الاصطناعي التوليدي الدفاع ضد البرمجيات الخبيثة من خلال تمكين فرق الأمن من التفكير كالمهاجمين ، ما يُنتج تهديدات وحلولاً جديدة داخلياً. سواءً كان ذلك إنتاج برمجيات خبيثة مصطنعة لتحسين معدلات الكشف، أو استخدام الذكاء الاصطناعي لشرح واحتواء البرمجيات الخبيثة الحقيقية الموجودة في الشبكات، فإن هذه التقنيات تُطبق في مختلف القطاعات. قد يستخدم البنك تحليل البرمجيات الخبيثة المُدار بالذكاء الاصطناعي لتحليل ماكرو مُريب بسرعة في جدول بيانات، بينما قد تعتمد شركة تصنيع على الذكاء الاصطناعي للكشف عن البرمجيات الخبيثة التي تستهدف أنظمة التحكم الصناعية. من خلال تعزيز تحليل البرمجيات الخبيثة التقليدي باستخدام الذكاء الاصطناعي التوليدي، يُمكن للمؤسسات الاستجابة لحملات البرمجيات الخبيثة بشكل أسرع وأكثر استباقية من ذي قبل.
استخبارات التهديدات وتحليلها تلقائيًا
تُغرق المؤسسات يوميًا بوابل من بيانات استخبارات التهديدات، بدءًا من مؤشرات الاختراق المُكتشفة حديثًا ووصولًا إلى تقارير المحللين حول أساليب القرصنة الناشئة. ويتمثل التحدي الذي تواجهه فرق الأمن في غربلة هذا الكم الهائل من المعلومات واستخلاص رؤى عملية. ويُثبت الذكاء الاصطناعي التوليدي أهميته البالغة في أتمتة تحليل معلومات التهديدات واستهلاكها . فبدلًا من قراءة عشرات التقارير أو مدخلات قواعد البيانات يدويًا، يمكن للمحللين استخدام الذكاء الاصطناعي لتلخيص معلومات التهديدات ووضعها في سياقها بسرعة فائقة.
أحد الأمثلة الملموسة هو Threat Intelligence ، والتي تدمج الذكاء الاصطناعي التوليدي (نموذج Gemini) مع كنوز Google من بيانات التهديدات من Mandiant و VirusTotal. يوفر هذا الذكاء الاصطناعي "بحثًا محادثة عبر مستودع Google الضخم لمعلومات التهديدات" ، مما يسمح للمستخدمين بطرح أسئلة طبيعية حول التهديدات والحصول على إجابات مختصرة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). على سبيل المثال، يمكن للمحلل أن يسأل، "هل رأينا أي برامج ضارة مرتبطة بمجموعة التهديدات X التي تستهدف صناعتنا؟" وسيقوم الذكاء الاصطناعي بسحب المعلومات الاستخباراتية ذات الصلة، ربما مع ملاحظة "نعم، تم ربط مجموعة التهديدات X بحملة تصيد احتيالي الشهر الماضي باستخدام البرامج الضارة Y" ، إلى جانب ملخص لسلوك هذه البرامج الضارة. وهذا يقلل بشكل كبير من الوقت اللازم لجمع الرؤى التي تتطلب بخلاف ذلك الاستعلام عن أدوات متعددة أو قراءة تقارير طويلة.
يمكن للذكاء الاصطناعي التوليدي أيضًا ربط اتجاهات التهديدات وتلخيصها . قد يقوم بفحص آلاف منشورات مدونة الأمان وأخبار الاختراق والدردشة على الويب المظلم ثم إنشاء ملخص تنفيذي "لأهم التهديدات الإلكترونية هذا الأسبوع" لإحاطة مسؤول أمن المعلومات. تقليديًا، كان هذا المستوى من التحليل والإبلاغ يتطلب جهدًا بشريًا كبيرًا؛ الآن يمكن للنموذج المضبوط جيدًا صياغته في ثوانٍ، حيث يقوم البشر فقط بتحسين الناتج. طورت شركات مثل ZeroFox FoxGPT ، وهي أداة ذكاء اصطناعي توليدي مصممة خصيصًا "لتسريع تحليل وتلخيص المعلومات الاستخباراتية عبر مجموعات البيانات الكبيرة"، بما في ذلك المحتوى الضار وبيانات التصيد الاحتيالي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة من العالم الحقيقي ). من خلال أتمتة العمل الشاق المتمثل في قراءة البيانات والرجوع إليها، يمكّن الذكاء الاصطناعي فرق الاستخبارات المتعلقة بالتهديدات من التركيز على صنع القرار والاستجابة.
حالة استخدام أخرى هي البحث عن التهديدات التحادثية . تخيل أن محللًا أمنيًا يتفاعل مع مساعد الذكاء الاصطناعي: "أرني أي علامات على تسريب البيانات في آخر 48 ساعة" أو "ما هي أهم الثغرات الجديدة التي يستغلها المهاجمون هذا الأسبوع؟" يمكن للذكاء الاصطناعي تفسير الاستعلام والبحث في السجلات الداخلية أو مصادر المعلومات الخارجية والرد بإجابة واضحة أو حتى قائمة بالحوادث ذات الصلة. هذا ليس بعيد المنال - فقد بدأت أنظمة إدارة المعلومات الأمنية والأحداث (SIEM) الحديثة في دمج استعلامات اللغة الطبيعية. على سبيل المثال، تضيف مجموعة أمان QRadar من IBM ميزات الذكاء الاصطناعي التوليدي في عام 2024 للسماح للمحللين "بطرح [...] أسئلة محددة حول مسار الهجوم الملخص" لحادث والحصول على إجابات مفصلة. يمكنه أيضًا "تفسير وتلخيص معلومات التهديد ذات الصلة للغاية" تلقائيًا ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة من العالم الحقيقي ). في الأساس، يحول الذكاء الاصطناعي التوليدي كميات كبيرة من البيانات التقنية إلى رؤى بحجم الدردشة عند الطلب.
في مختلف القطاعات، لهذا الأمر آثارٌ بالغة. إذ يُمكن لمُقدّمي الرعاية الصحية استخدام الذكاء الاصطناعي للبقاء على اطلاعٍ بأحدث مجموعات برامج الفدية التي تستهدف المستشفيات، دون الحاجة إلى مُحلّلٍ مُتفرّغٍ للبحث. كما يُمكن لمركز العمليات الأمنية (SOC) في شركة بيع بالتجزئة تلخيص أساليب البرامج الضارة الجديدة في نقاط البيع بسرعة عند تقديم إحاطاتٍ لموظفي تكنولوجيا المعلومات في المتاجر. وفي القطاع الحكومي، حيث يجب تجميع بيانات التهديدات من جهاتٍ مُختلفة، يُمكن للذكاء الاصطناعي إعداد تقارير مُوحّدة تُسلّط الضوء على التحذيرات الرئيسية. ومن خلال أتمتة جمع معلومات التهديدات وتفسيرها ، يُساعد الذكاء الاصطناعي المُولّد المؤسسات على الاستجابة بشكلٍ أسرع للتهديدات الناشئة، ويُقلّل من خطر تفويت التحذيرات الحاسمة المُختبئة في ضوضاء المعلومات.
تحسين مركز عمليات الأمان (SOC)
تشتهر مراكز عمليات الأمن بإرهاق التنبيهات وحجم البيانات الهائل. قد يخوض محلل مركز عمليات الأمن (SOC) العادي في آلاف التنبيهات والأحداث يوميًا، محققًا في الحوادث المحتملة. يعمل الذكاء الاصطناعي التوليدي كعامل مضاعف للقوة في مراكز عمليات الأمن من خلال أتمتة الأعمال الروتينية، وتوفير ملخصات ذكية، وحتى تنظيم بعض الاستجابات. الهدف هو تحسين سير عمل مركز عمليات الأمن (SOC) بحيث يتمكن المحللون البشريون من التركيز على القضايا الأكثر أهمية، بينما يتولى مساعد الذكاء الاصطناعي التعامل مع الباقي.
أحد التطبيقات الرئيسية هو استخدام الذكاء الاصطناعي التوليدي كـ "مساعد محلل" . يوضح Security Copilot من Microsoft، المذكور سابقًا، هذا: فهو "مصمم لمساعدة عمل محلل الأمان بدلاً من استبداله"، مما يساعد في التحقيقات في الحوادث وإعداد التقارير عنها ( Microsoft Security Copilot هو مساعد ذكاء اصطناعي جديد من GPT-4 للأمن السيبراني | The Verge ). عمليًا، يعني هذا أنه يمكن للمحلل إدخال البيانات الخام - سجلات جدار الحماية أو الجدول الزمني للحدث أو وصف الحادث - وطلب من الذكاء الاصطناعي تحليلها أو تلخيصها. قد يخرج المساعد سردًا مثل، "يبدو أنه في الساعة 2:35 صباحًا، نجح تسجيل دخول مشبوه من IP X على الخادم Y، متبوعًا بعمليات نقل بيانات غير عادية، مما يشير إلى خرق محتمل لهذا الخادم". هذا النوع من السياق الفوري لا يقدر بثمن عندما يكون الوقت هو الجوهر.
يُساعد مساعدو الذكاء الاصطناعي أيضًا في تخفيف عبء فرز المستوى الأول. ووفقًا لبيانات القطاع، يُمكن لفريق الأمن قضاء 15 ساعة أسبوعيًا في فرز حوالي 22,000 تنبيه وإيجابية خاطئة ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). باستخدام الذكاء الاصطناعي التوليدي، يُمكن فرز العديد من هذه التنبيهات تلقائيًا - حيث يُمكن للذكاء الاصطناعي رفض التنبيهات التي تبدو حميدة بوضوح (مع تقديم الأسباب) وتسليط الضوء على التنبيهات التي تحتاج إلى اهتمام حقيقي، بل واقتراح الأولوية أحيانًا. في الواقع، تُتيح قوة الذكاء الاصطناعي التوليدي في فهم السياق إمكانية ربط التنبيهات التي قد تبدو غير ضارة بمعزل عن غيرها، ولكنها تُشير معًا إلى هجوم متعدد المراحل. وهذا يُقلل من احتمالية تفويت أي هجوم بسبب "إرهاق التنبيهات".
يستخدم محللو مركز العمليات الأمنية أيضًا اللغة الطبيعية مع الذكاء الاصطناعي لتسريع البحث والتحقيقات. الذكاء الاصطناعي الأرجوانية بين واجهة تعتمد على LLM وبيانات الأمان في الوقت الفعلي، مما يسمح للمحللين "بطرح أسئلة معقدة للبحث عن التهديدات باللغة الإنجليزية البسيطة والحصول على إجابات سريعة ودقيقة" ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يمكن للمحلل أن يكتب، "هل تواصلت أي نقاط نهاية مع النطاق badguy123[.]com في الشهر الماضي؟" ، وسيبحث الذكاء الاصطناعي الأرجواني في السجلات للرد. هذا يوفر على المحلل عناء كتابة استعلامات أو نصوص برمجية لقاعدة البيانات - حيث يقوم الذكاء الاصطناعي بذلك تحت الغطاء. وهذا يعني أيضًا أن المحللين المبتدئين يمكنهم التعامل مع المهام التي كانت تتطلب في السابق مهندسًا متمرسًا ماهرًا في لغات الاستعلام، مما يؤدي إلى رفع مهارات الفريق بشكل فعال من خلال مساعدة الذكاء الاصطناعي . في الواقع، أفاد المحللون أن التوجيه التوليدي للذكاء الاصطناعي "يعزز مهاراتهم وكفاءتهم" ، حيث يمكن للموظفين المبتدئين الآن الحصول على دعم الترميز عند الطلب أو نصائح التحليل من الذكاء الاصطناعي، مما يقلل الاعتماد على طلب المساعدة دائمًا من أعضاء الفريق الأعلى مرتبة ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ).
من تحسينات مركز العمليات الأمنية الأخرى تلخيص الحوادث وتوثيقها تلقائيًا . بعد معالجة الحادث، يجب على شخص ما كتابة التقرير - وهي مهمة يجدها الكثيرون مملة. يمكن للذكاء الاصطناعي التوليدي أخذ البيانات الجنائية (سجلات النظام، وتحليل البرامج الضارة، والجدول الزمني للإجراءات) وإنشاء تقرير أولي عن الحادث. تعمل IBM على دمج هذه الإمكانية في QRadar بحيث "بنقرة واحدة" إنتاج ملخص للحادث لمختلف الجهات المعنية (المديرين التنفيذيين، وفرق تكنولوجيا المعلومات، وما إلى ذلك) ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). هذا لا يوفر الوقت فحسب، بل يضمن أيضًا عدم إغفال أي شيء في التقرير، حيث يمكن للذكاء الاصطناعي تضمين جميع التفاصيل ذات الصلة باستمرار. وبالمثل، بالنسبة للامتثال والتدقيق، يمكن للذكاء الاصطناعي ملء النماذج أو جداول الأدلة بناءً على بيانات الحادث.
النتائج الواقعية مقنعة. أبلغ المتبنون الأوائل لنظام SOAR (تنسيق الأمن والأتمتة والاستجابة) الذي تعتمد عليه Swimlane والذي يعتمد على الذكاء الاصطناعي عن مكاسب هائلة في الإنتاجية - على سبيل المثال، شهدت Global Data Systems فريق SecOps الخاص بها يدير عددًا أكبر بكثير من الحالات؛ قال أحد المديرين "ما أفعله اليوم مع 7 محللين من المحتمل أن يستغرق 20 موظفًا بدون" الأتمتة المدعومة بالذكاء الاصطناعي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). بمعنى آخر، يمكن للذكاء الاصطناعي في مركز العمليات الأمنية مضاعفة السعة . عبر الصناعات، سواء كانت شركة تقنية تتعامل مع تنبيهات أمان السحابة أو مصنع تصنيع يراقب أنظمة تكنولوجيا التشغيل، فإن فرق مركز العمليات الأمنية على استعداد للحصول على اكتشاف واستجابة أسرع، وعدد أقل من الحوادث الفائتة، وعمليات أكثر كفاءة من خلال تبني مساعدي الذكاء الاصطناعي التوليدي. يتعلق الأمر بالعمل بذكاء أكبر - مما يسمح للآلات بالتعامل مع المهام المتكررة والمليئة بالبيانات حتى يتمكن البشر من تطبيق حدسهم وخبرتهم حيث يكون ذلك أكثر أهمية.
إدارة الثغرات الأمنية ومحاكاة التهديدات
يُعدّ تحديد وإدارة الثغرات الأمنية - نقاط الضعف في البرامج أو الأنظمة التي يُمكن للمهاجمين استغلالها - وظيفةً أساسيةً في مجال الأمن السيبراني. يُحسّن الذكاء الاصطناعي التوليدي إدارة الثغرات الأمنية من خلال تسريع عملية اكتشافها، والمساعدة في تحديد أولويات التصحيحات، وحتى محاكاة الهجمات على تلك الثغرات لتحسين الجاهزية. باختصار، يُساعد الذكاء الاصطناعي المؤسسات على اكتشاف ثغراتها الأمنية وإصلاحها بسرعة أكبر، بشكل استباقي قبل أن يفعلها المهاجمون الحقيقيون.
أحد التطبيقات المهمة هو استخدام الذكاء الاصطناعي التوليدي لمراجعة الكود الآلي واكتشاف الثغرات الأمنية . غالبًا ما تحتوي قواعد الكود الكبيرة (خاصةً الأنظمة القديمة) على ثغرات أمنية تمر دون أن يلاحظها أحد. يمكن تدريب نماذج الذكاء الاصطناعي التوليدي على ممارسات الترميز الآمنة وأنماط الأخطاء الشائعة، ثم إطلاق العنان لها على الكود المصدري أو الثنائيات المترجمة للعثور على الثغرات المحتملة. على سبيل المثال، طور باحثو NVIDIA خط أنابيب ذكاء اصطناعي توليدي يمكنه تحليل حاويات البرامج القديمة وتحديد الثغرات الأمنية "بدقة عالية - أسرع بما يصل إلى 4 مرات من الخبراء البشريين". ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). تعلم الذكاء الاصطناعي بشكل أساسي شكل الكود غير الآمن وكان قادرًا على المسح من خلال البرامج التي مضى عليها عقود من الزمن للإشارة إلى الوظائف والمكتبات الخطرة، مما أدى إلى تسريع عملية التدقيق اليدوي للكود البطيئة بشكل كبير. يمكن أن يكون هذا النوع من الأدوات بمثابة تغيير جذري للصناعات مثل التمويل أو الحكومة التي تعتمد على قواعد كود كبيرة وقديمة - يساعد الذكاء الاصطناعي في تحديث الأمان من خلال اكتشاف المشكلات التي قد يستغرق الموظفون شهورًا أو سنوات للعثور عليها (إن وجدت).
يساعد الذكاء الاصطناعي التوليدي أيضًا في سير عمل إدارة الثغرات الأمنية من خلال معالجة نتائج فحص الثغرات الأمنية وتحديد أولوياتها. تستخدم أدوات مثل ExposureAI الذكاء الاصطناعي التوليدي للسماح للمحللين بالاستعلام عن بيانات الثغرات الأمنية بلغة بسيطة والحصول على إجابات فورية ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يمكن لـ ExposureAI "تلخيص مسار الهجوم الكامل في سرد" لثغرة أمنية حرجة معينة، موضحًا كيف يمكن للمهاجم ربطها بنقاط ضعف أخرى لاختراق النظام. حتى أنه يوصي بإجراءات للإصلاح ويجيب على أسئلة المتابعة حول المخاطر. هذا يعني أنه عندما يتم الإعلان عن CVE (الثغرات الأمنية والتعرضات الشائعة) الحرجة الجديدة، يمكن للمحلل أن يسأل الذكاء الاصطناعي، "هل تأثر أي من خوادمنا بهذه CVE وما هو أسوأ سيناريو إذا لم نقم بالتصحيح؟" وتلقي تقييم واضح مستمد من بيانات المسح الخاصة بالمؤسسة. من خلال وضع الثغرات الأمنية في سياقها (على سبيل المثال، هذه الثغرات معروضة على الإنترنت وعلى خادم عالي القيمة، لذا فهي ذات أولوية قصوى)، تساعد الذكاء الاصطناعي التوليدي الفرق على تصحيح الثغرات بذكاء باستخدام موارد محدودة.
بالإضافة إلى العثور على الثغرات الأمنية المعروفة وإدارتها، يساهم الذكاء الاصطناعي التوليدي في اختبار الاختراق ومحاكاة الهجوم - اكتشاف غير المعروفة أو اختبار ضوابط الأمان. تم استخدام الشبكات التوليدية المعادية (GANs)، وهي نوع من الذكاء الاصطناعي التوليدي، لإنشاء بيانات اصطناعية تحاكي حركة مرور الشبكة الحقيقية أو سلوك المستخدم، والتي يمكن أن تتضمن أنماط هجوم مخفية. اقترحت دراسة أجريت عام 2023 استخدام شبكات GANs لتوليد حركة مرور هجومية واقعية لليوم صفر لتدريب أنظمة اكتشاف التسلل ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). من خلال تغذية نظام الكشف عن التسلل بسيناريوهات هجوم من صنع الذكاء الاصطناعي (لا تخاطر باستخدام برامج ضارة فعلية على شبكات الإنتاج)، يمكن للمؤسسات تدريب دفاعاتها على التعرف على التهديدات الجديدة دون انتظار التعرض لها في الواقع. وبالمثل، يمكن للذكاء الاصطناعي محاكاة مهاجم يستكشف نظامًا - على سبيل المثال، تجربة تقنيات استغلال مختلفة تلقائيًا في بيئة آمنة لمعرفة ما إذا كان أي منها ينجح. ترى وكالة مشاريع الأبحاث الدفاعية المتقدمة الأمريكية (داربا) أن هذا الأمر واعد: إذ يستخدم تحدي الذكاء الاصطناعي السيبراني لعام 2023 الذكاء الاصطناعي التوليدي (مثل نماذج اللغة الكبيرة) بشكل صريح "للعثور على نقاط الضعف في البرامج مفتوحة المصدر وإصلاحها تلقائيًا" كجزء من مسابقة ( تهدف داربا إلى تطوير تطبيقات الذكاء الاصطناعي والاستقلالية التي يمكن للمقاتلين الوثوق بها > وزارة الدفاع الأمريكية > أخبار وزارة الدفاع ). تؤكد هذه المبادرة أن الذكاء الاصطناعي لا يساعد فقط في سد الثغرات المعروفة؛ بل إنه يكشف بنشاط عن ثغرات جديدة ويقترح حلولاً لها، وهي مهمة كانت تقتصر تقليديًا على باحثي الأمن المهرة (والمكلفين).
يمكن للذكاء الاصطناعي التوليدي إنشاء مصائد عسل ذكية وتوائم رقمية للدفاع. تعمل الشركات الناشئة على تطوير أنظمة وهمية مدفوعة بالذكاء الاصطناعي تحاكي الخوادم أو الأجهزة الحقيقية بشكل مقنع. وكما أوضح أحد الرؤساء التنفيذيين، يمكن للذكاء الاصطناعي التوليدي "استنساخ الأنظمة الرقمية لتقليد الأنظمة الحقيقية وجذب المتسللين" ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). تتصرف مصائد العسل التي يولدها الذكاء الاصطناعي مثل البيئة الحقيقية (على سبيل المثال، جهاز إنترنت الأشياء المزيف الذي يرسل بيانات قياس عن بعد عادية) ولكنها موجودة فقط لجذب المهاجمين. عندما يستهدف المهاجم الطعم، فإن الذكاء الاصطناعي قد خدعهم بشكل أساسي للكشف عن أساليبهم، والتي يمكن للمدافعين بعد ذلك دراستها واستخدامها لتعزيز الأنظمة الحقيقية. يوفر هذا المفهوم، المدعوم بالنمذجة التوليدية، طريقة استشرافية لقلب الطاولة على المهاجمين ، باستخدام الخداع المعزز بالذكاء الاصطناعي.
في مختلف القطاعات، تُقلل إدارة الثغرات الأمنية بشكل أسرع وأكثر ذكاءً من الاختراقات. ففي مجال تكنولوجيا المعلومات في مجال الرعاية الصحية، على سبيل المثال، قد يكتشف الذكاء الاصطناعي بسرعة وجود مكتبة قديمة معرضة للخطر في جهاز طبي، ويطالب بإصلاح البرامج الثابتة قبل أن يستغلها أي مهاجم. وفي مجال الخدمات المصرفية، يمكن للذكاء الاصطناعي محاكاة هجوم داخلي على تطبيق جديد لضمان سلامة بيانات العملاء في جميع السيناريوهات. وهكذا، يعمل الذكاء الاصطناعي التوليدي كأداة فحص واختبار للوضع الأمني للمؤسسات: فهو يُسلط الضوء على العيوب الخفية ويضغط على الأنظمة بطرق مبتكرة لضمان مرونتها.
إنشاء الكود الآمن وتطوير البرمجيات
لا تقتصر مواهب الذكاء الاصطناعي التوليدي على اكتشاف الهجمات، بل تمتد أيضًا إلى إنشاء أنظمة أكثر أمانًا منذ البداية . في مجال تطوير البرمجيات، تُساعد مُولِّدات أكواد الذكاء الاصطناعي (مثل GitHub Copilot وOpenAI Codex، وغيرهما) المطورين على كتابة أكواد أسرع من خلال اقتراح مقتطفات أكواد أو حتى وظائف كاملة. ويكمن جانب الأمن السيبراني في ضمان أمان هذه الأجزاء من الأكواد التي يقترحها الذكاء الاصطناعي، واستخدام الذكاء الاصطناعي لتحسين ممارسات البرمجة.
من ناحية أخرى، يمكن للذكاء الاصطناعي التوليدي أن يعمل كمساعد ترميز يدمج أفضل ممارسات الأمان . يمكن للمطورين مطالبة أداة الذكاء الاصطناعي، "إنشاء وظيفة إعادة تعيين كلمة المرور في بايثون"، ومن الناحية المثالية استعادة الكود الذي لا يعمل فحسب، بل يتبع أيضًا إرشادات الأمان (مثل التحقق من صحة الإدخال بشكل صحيح، والتسجيل، ومعالجة الأخطاء دون تسريب المعلومات، وما إلى ذلك). يمكن لمثل هذا المساعد، المدرب على أمثلة أكواد آمنة شاملة، أن يساعد في تقليل الأخطاء البشرية التي تؤدي إلى الثغرات الأمنية. على سبيل المثال، إذا نسي أحد المطورين تطهير إدخال المستخدم (مما يفتح الباب أمام حقن SQL أو مشكلات مماثلة)، فيمكن للذكاء الاصطناعي إما تضمين ذلك افتراضيًا أو تحذيره. يتم الآن ضبط بعض أدوات ترميز الذكاء الاصطناعي بدقة باستخدام بيانات تركز على الأمان لخدمة هذا الغرض بالضبط - وهو في الأساس، يقترن الذكاء الاصطناعي بالبرمجة مع ضمير الأمان .
ومع ذلك، هناك جانب آخر: يمكن للذكاء الاصطناعي التوليدي أن يُدخل نقاط ضعف بسهولة إذا لم تتم إدارته بشكل صحيح. وكما أشار خبير أمن سوفوس بن فيرشايرين، فإن استخدام الذكاء الاصطناعي التوليدي للترميز "جيد للترميز القصير الذي يمكن التحقق منه، ولكنه محفوف بالمخاطر عند دمج الكود غير المدقق" في أنظمة الإنتاج. يكمن الخطر في أن الذكاء الاصطناعي قد ينتج كودًا صحيحًا منطقيًا غير آمن بطرق قد لا يلاحظها غير الخبير. علاوة على ذلك، يمكن للجهات الفاعلة الخبيثة التأثير عمدًا على نماذج الذكاء الاصطناعي العامة عن طريق زرع أنماط كود ضعيفة (شكل من أشكال تسميم البيانات) بحيث يقترح الذكاء الاصطناعي كودًا غير آمن. معظم المطورين ليسوا خبراء أمنيين ، لذلك إذا اقترح الذكاء الاصطناعي حلاً مناسبًا، فقد يستخدمونه بشكل أعمى، دون أن يدركوا أنه يحتوي على عيب ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). هذا القلق حقيقي - في الواقع، توجد قائمة OWASP Top 10 الآن لـ LLM (نماذج اللغة الكبيرة) التي تحدد المخاطر الشائعة مثل هذه في استخدام الذكاء الاصطناعي للترميز.
لمواجهة هذه المشكلات، يقترح الخبراء "مواجهة الذكاء الاصطناعي التوليدي بالذكاء الاصطناعي التوليدي" في عالم البرمجة. عمليًا، يعني ذلك استخدام الذكاء الاصطناعي لمراجعة واختبار التعليمات البرمجية التي كتبها ذكاء اصطناعي آخر (أو بشر). يمكن للذكاء الاصطناعي فحص عمليات الالتزام بالرمز الجديدة بشكل أسرع بكثير من مراجع الرمز البشري والإبلاغ عن الثغرات الأمنية المحتملة أو المشكلات المنطقية. نشهد بالفعل ظهور أدوات تندمج في دورة حياة تطوير البرمجيات: تتم كتابة التعليمات البرمجية (ربما بمساعدة الذكاء الاصطناعي)، ثم يقوم نموذج توليدي مُدرَّب على مبادئ الكود الآمن بمراجعتها وإنشاء تقرير عن أي مخاوف (على سبيل المثال، استخدام الوظائف القديمة، أو عمليات التحقق من المصادقة المفقودة، وما إلى ذلك). يُعد بحث NVIDIA، المذكور سابقًا، والذي حقق اكتشافًا أسرع للثغرات الأمنية في الكود بمقدار 4 مرات مثالًا على تسخير الذكاء الاصطناعي لتحليل الكود الآمن ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ).
علاوة على ذلك، يُمكن للذكاء الاصطناعي التوليدي المساعدة في إنشاء تكوينات ونصوص برمجية آمنة . على سبيل المثال، إذا احتاجت شركة ما إلى نشر بنية تحتية سحابية آمنة، يُمكن للمهندس أن يطلب من الذكاء الاصطناعي إنشاء نصوص برمجية للتكوين (البنية التحتية كرمز) مع تضمين ضوابط أمنية (مثل تجزئة الشبكة بشكل صحيح، وأدوار إدارة الهوية والوصول (IAM) ذات الامتيازات الأقل). يستطيع الذكاء الاصطناعي، بعد تدريبه على آلاف هذه التكوينات، إنتاج خط أساس يُجري المهندس ضبطه بدقة. يُسرّع هذا الإعداد الآمن للأنظمة ويُقلل من أخطاء التكوين الخاطئ، وهي مصدر شائع لحوادث أمن السحابة.
تستفيد بعض المؤسسات أيضًا من الذكاء الاصطناعي التوليدي للحفاظ على قاعدة معرفية لأنماط الترميز الآمنة. إذا لم يكن المطور متأكدًا من كيفية تنفيذ ميزة معينة بشكل آمن، فيمكنه الاستعلام عن الذكاء الاصطناعي الداخلي الذي تعلم من مشاريع الشركة السابقة وإرشادات الأمان. قد يعيد الذكاء الاصطناعي نهجًا موصى به أو حتى مقتطفًا من التعليمات البرمجية يتوافق مع كل من المتطلبات الوظيفية ومعايير أمان الشركة. تم استخدام هذا النهج بواسطة أدوات مثل Secureframe's Questionnaire Automation ، والتي تسحب الإجابات من سياسات الشركة والحلول السابقة لضمان استجابات متسقة ودقيقة (إنشاء وثائق آمنة بشكل أساسي) ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة من العالم الحقيقي ). يترجم المفهوم إلى الترميز: الذكاء الاصطناعي الذي "يتذكر" كيف قمت بتنفيذ شيء ما بشكل آمن من قبل ويرشدك للقيام بذلك بهذه الطريقة مرة أخرى.
باختصار، يؤثر الذكاء الاصطناعي التوليدي على تطوير البرمجيات من خلال تسهيل الحصول على مساعدة آمنة في البرمجة . ستستفيد القطاعات التي تُطوّر الكثير من البرمجيات المُخصصة - كالتكنولوجيا، والمالية، والدفاع، وغيرها - من وجود مساعدي ذكاء اصطناعي، لا يُسرّعون عملية البرمجة فحسب، بل يعملون أيضًا كمراقب أمني دائم اليقظة. عند إدارتها بشكل صحيح، يُمكن لأدوات الذكاء الاصطناعي هذه أن تُقلل من ظهور ثغرات أمنية جديدة، وتُساعد فرق التطوير على الالتزام بأفضل الممارسات، حتى لو لم يكن لدى الفريق خبير أمني مُشارك في كل خطوة. والنتيجة هي برمجيات أكثر مقاومة للهجمات من اليوم الأول.
دعم الاستجابة للحوادث
عند وقوع حادثة أمن سيبراني - سواءً كانت تفشي برمجيات خبيثة، أو خرقًا للبيانات، أو انقطاعًا في النظام نتيجة هجوم - يكون الوقت بالغ الأهمية. ويتزايد استخدام الذكاء الاصطناعي التوليدي لدعم فرق الاستجابة للحوادث في احتواء الحوادث ومعالجتها بشكل أسرع وبمعلومات أكثر توفرًا. وتتمثل الفكرة في قدرة الذكاء الاصطناعي على تحمل بعض أعباء التحقيق والتوثيق أثناء وقوع الحادثة، بل واقتراح أو أتمتة بعض إجراءات الاستجابة.
أحد الأدوار الرئيسية للذكاء الاصطناعي في الاستجابة للحوادث هو تحليل الحوادث في الوقت الفعلي وتلخيصها . في خضم الحادث، قد يحتاج المستجيبون إلى إجابات لأسئلة مثل "كيف دخل المهاجم؟" و "ما هي الأنظمة المتأثرة؟" و "ما هي البيانات التي قد تكون معرضة للخطر؟" . يمكن للذكاء الاصطناعي التوليدي تحليل السجلات والتنبيهات والبيانات الجنائية من الأنظمة المتأثرة وتقديم رؤى سريعة. على سبيل المثال، يسمح Microsoft Security Copilot للمستجيب للحادث بإدخال أجزاء مختلفة من الأدلة (الملفات وعناوين URL وسجلات الأحداث) وطلب جدول زمني أو ملخص ( Microsoft Security Copilot هو مساعد ذكاء اصطناعي جديد من GPT-4 للأمن السيبراني | The Verge ). قد يستجيب الذكاء الاصطناعي بما يلي: "من المحتمل أن الاختراق بدأ برسالة بريد إلكتروني تصيدية للمستخدم JohnDoe في الساعة 10:53 بتوقيت جرينتش تحتوي على البرامج الضارة X. بمجرد تنفيذها، أنشأت البرامج الضارة بابًا خلفيًا تم استخدامه بعد يومين للانتقال أفقيًا إلى خادم المالية، حيث جمعت البيانات." إن الحصول على هذه الصورة المتماسكة في دقائق بدلاً من ساعات يمكّن الفريق من اتخاذ قرارات مستنيرة (مثل الأنظمة التي يجب عزلها) بشكل أسرع بكثير.
يمكن للذكاء الاصطناعي التوليدي أيضًا اقتراح إجراءات الاحتواء والمعالجة . على سبيل المثال، إذا أصيبت نقطة نهاية ببرنامج فدية، فيمكن لأداة الذكاء الاصطناعي إنشاء نص برمجي أو مجموعة من التعليمات لعزل هذا الجهاز وتعطيل حسابات معينة وحظر عناوين IP الضارة المعروفة على جدار الحماية - وهو في الأساس تنفيذ لدليل التشغيل. تشير Palo Alto Networks إلى أن الذكاء الاصطناعي التوليدي قادر على "إنشاء إجراءات أو نصوص برمجية مناسبة بناءً على طبيعة الحادث" ، مما يؤدي إلى أتمتة الخطوات الأولية للاستجابة ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - Palo Alto Networks ). في سيناريو يكون فيه فريق الأمان غارقًا (على سبيل المثال هجوم واسع النطاق عبر مئات الأجهزة)، قد ينفذ الذكاء الاصطناعي بعض هذه الإجراءات بشكل مباشر في ظل ظروف معتمدة مسبقًا، ويتصرف مثل المستجيب المبتدئ الذي يعمل بلا كلل. على سبيل المثال، يمكن لوكيل الذكاء الاصطناعي إعادة تعيين بيانات الاعتماد التي يعتبرها معرضة للخطر تلقائيًا أو عزل المضيفين الذين يظهرون نشاطًا ضارًا يطابق ملف تعريف الحادث.
أثناء الاستجابة للحوادث، يكون التواصل أمرًا حيويًا - سواء داخل الفريق أو لأصحاب المصلحة. يمكن للذكاء الاصطناعي التوليدي المساعدة من خلال صياغة تقارير تحديث الحوادث أو ملخصاتها أثناء التنقل . بدلاً من أن يتوقف المهندس عن استكشاف الأخطاء وإصلاحها لكتابة تحديث عبر البريد الإلكتروني، يمكنه أن يطلب من الذكاء الاصطناعي، "تلخيص ما حدث في هذا الحادث حتى الآن لإبلاغ المديرين التنفيذيين". يمكن للذكاء الاصطناعي، بعد استيعاب بيانات الحادث، إنتاج ملخص موجز: "اعتبارًا من الساعة 3 مساءً، وصل المهاجمون إلى حسابي مستخدم و5 خوادم. تتضمن البيانات المتأثرة سجلات العملاء في قاعدة البيانات X. تدابير الاحتواء: تم إلغاء وصول VPN للحسابات المخترقة وعزل الخوادم. الخطوات التالية: البحث عن أي آليات استمرارية". يمكن للمستجيب بعد ذلك التحقق من ذلك أو تعديله بسرعة وإرساله، مما يضمن إبقاء أصحاب المصلحة على اطلاع بمعلومات دقيقة وحديثة.
بعد أن تهدأ الأمور، عادةً ما يكون هناك تقرير مفصل عن الحادثة يجب إعداده وتجميع الدروس المستفادة. وهذا مجال آخر يبرز فيه دعم الذكاء الاصطناعي، إذ يمكنه مراجعة جميع بيانات الحادثة وإنشاء تقرير ما بعد الحادثة يشمل السبب الجذري والتسلسل الزمني والتأثير والتوصيات. على سبيل المثال، تُدمج شركة IBM الذكاء الاصطناعي التوليدي لإنشاء "ملخصات بسيطة لحالات وحوادث الأمن يمكن مشاركتها مع الجهات المعنية" بضغطة زر ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). من خلال تبسيط إعداد التقارير اللاحقة، يمكن للمؤسسات تنفيذ التحسينات بشكل أسرع والحصول على توثيق أفضل لأغراض الامتثال.
من الاستخدامات المبتكرة والواعدة محاكاة الحوادث المدعومة بالذكاء الاصطناعي . فكما هو الحال في تدريبات إخماد الحرائق، تستخدم بعض الشركات الذكاء الاصطناعي التوليدي لدراسة سيناريوهات الحوادث المحتملة. قد يحاكي الذكاء الاصطناعي كيفية انتشار برنامج الفدية بناءً على تصميم الشبكة، أو كيفية قيام شخص من الداخل باستخراج البيانات، ثم يُقيّم فعالية خطط الاستجابة الحالية. يساعد هذا الفرق على إعداد وتحسين خطط الاستجابة قبل وقوع حادث حقيقي. يشبه الأمر وجود مستشار استجابة للحوادث في تطور مستمر، يختبر جاهزيتك باستمرار.
في القطاعات عالية المخاطر مثل التمويل أو الرعاية الصحية، حيث يكون التوقف أو فقدان البيانات بسبب الحوادث مكلفًا للغاية، فإن قدرات الاستجابة للحوادث المدعومة بالذكاء الاصطناعي جذابة للغاية. لا يمكن للمستشفى الذي يعاني من حادث إلكتروني تحمل انقطاعات طويلة في النظام - فالذكاء الاصطناعي الذي يساعد بسرعة في الاحتواء قد يكون منقذًا للحياة حرفيًا. وبالمثل، يمكن للمؤسسات المالية استخدام الذكاء الاصطناعي للتعامل مع الفرز الأولي لاختراق احتيال مشتبه به في الساعة 3 صباحًا، بحيث يكون الكثير من العمل الأساسي (تسجيل خروج الحسابات المتأثرة، وحظر المعاملات، وما إلى ذلك) قد تم بالفعل بحلول الوقت الذي يكون فيه البشر المناوبون متصلين بالإنترنت. من خلال تعزيز فرق الاستجابة للحوادث بالذكاء الاصطناعي التوليدي ، يمكن للمؤسسات تقليل أوقات الاستجابة بشكل كبير وتحسين شمولية تعاملهم، مما يخفف في النهاية من الأضرار الناجمة عن الحوادث الإلكترونية.
التحليلات السلوكية واكتشاف الشذوذ
يمكن كشف العديد من الهجمات الإلكترونية من خلال ملاحظة أي انحراف عن السلوك "الطبيعي" - سواءً كان حساب مستخدم يُنزّل كمية غير عادية من البيانات، أو جهاز شبكة يتصل فجأةً بمضيف غير مألوف. يوفر الذكاء الاصطناعي التوليدي تقنيات متقدمة لتحليل السلوك واكتشاف الشذوذ ، وتعلم الأنماط الطبيعية للمستخدمين والأنظمة، ثم التنبيه عند وجود أي شيء غير طبيعي.
غالبًا ما يستخدم الكشف التقليدي عن الشذوذ عتبات إحصائية أو تعلمًا آليًا بسيطًا على مقاييس محددة (ارتفاعات استخدام وحدة المعالجة المركزية، وتسجيل الدخول في ساعات غريبة، وما إلى ذلك). يمكن للذكاء الاصطناعي التوليدي أن يأخذ هذا إلى أبعد من ذلك من خلال إنشاء ملفات تعريف أكثر دقة للسلوك. على سبيل المثال، يمكن لنموذج الذكاء الاصطناعي استيعاب عمليات تسجيل الدخول وأنماط الوصول إلى الملفات وعادات البريد الإلكتروني لموظف بمرور الوقت وتشكيل فهم متعدد الأبعاد لـ "الوضع الطبيعي" لهذا المستخدم. إذا قام هذا الحساب لاحقًا بشيء خارج عن نطاقه بشكل كبير (مثل تسجيل الدخول من بلد جديد والوصول إلى مجموعة كبيرة من ملفات الموارد البشرية في منتصف الليل)، فسيكتشف الذكاء الاصطناعي انحرافًا ليس فقط في مقياس واحد ولكن كنمط سلوكي كامل لا يتناسب مع ملف تعريف المستخدم. من الناحية الفنية، يمكن للنماذج التوليدية (مثل أجهزة التشفير التلقائي أو نماذج التسلسل) نمذجة ما يبدو عليه "الوضع الطبيعي" ثم إنشاء نطاق متوقع من السلوك. عندما يقع الواقع خارج هذا النطاق، يتم وضع علامة عليه على أنه شذوذ ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - Palo Alto Networks ).
أحد التطبيقات العملية هو مراقبة حركة مرور الشبكة . ووفقًا لمسح أجري عام 2024، ذكرت 54% من المؤسسات الأمريكية أن مراقبة حركة مرور الشبكة هي أفضل حالة استخدام للذكاء الاصطناعي في مجال الأمن السيبراني ( أمريكا الشمالية: أفضل حالات استخدام الذكاء الاصطناعي في مجال الأمن السيبراني في جميع أنحاء العالم 2024 ). يمكن للذكاء الاصطناعي التوليدي تعلم أنماط الاتصال العادية لشبكة المؤسسة - أي الخوادم تتحدث عادةً مع بعضها البعض، وما هي أحجام البيانات التي تنتقل خلال ساعات العمل مقابل الليل، وما إلى ذلك. إذا بدأ المهاجم في استخراج البيانات من الخادم، حتى ببطء لتجنب الاكتشاف، فقد يلاحظ النظام القائم على الذكاء الاصطناعي أن "الخادم أ لا يرسل أبدًا 500 ميجابايت من البيانات في الساعة 2 صباحًا إلى عنوان IP خارجي" ويرفع تنبيهًا. نظرًا لأن الذكاء الاصطناعي لا يستخدم قواعد ثابتة فحسب، بل يستخدم نموذجًا متطورًا لسلوك الشبكة، فيمكنه اكتشاف الشذوذ الدقيق الذي قد تفوته القواعد الثابتة (مثل "تنبيه إذا كانت البيانات> X ميجابايت") أو تشير إليه عن طريق الخطأ. إن هذه الطبيعة التكيفية هي ما يجعل اكتشاف الشذوذ المدعوم بالذكاء الاصطناعي قويًا في بيئات مثل شبكات المعاملات المصرفية أو البنية التحتية السحابية أو أساطيل أجهزة إنترنت الأشياء، حيث يكون تحديد قواعد ثابتة للطبيعي مقابل غير الطبيعي معقدًا للغاية.
يساعد الذكاء الاصطناعي التوليدي أيضًا في تحليلات سلوك المستخدم (UBA) ، وهو أمر أساسي لاكتشاف التهديدات الداخلية أو الحسابات المخترقة. من خلال إنشاء خط أساس لكل مستخدم أو كيان، يمكن للذكاء الاصطناعي اكتشاف أشياء مثل إساءة استخدام بيانات الاعتماد. على سبيل المثال، إذا بدأ بوب من قسم المحاسبة فجأة في الاستعلام عن قاعدة بيانات العملاء (وهو أمر لم يفعله من قبل)، فإن نموذج الذكاء الاصطناعي لسلوك بوب سيصنف هذا على أنه غير عادي. قد لا يكون برنامجًا ضارًا - فقد تكون حالة سرقة بيانات اعتماد بوب واستخدامها من قبل مهاجم، أو أن بوب يستكشف حيث لا ينبغي له ذلك. وفي كلتا الحالتين، يحصل فريق الأمان على إشعار مسبق للتحقيق. توجد أنظمة UBA التي يقودها الذكاء الاصطناعي في العديد من منتجات الأمان، وتعمل تقنيات النمذجة التوليدية على زيادة دقتها وتقليل الإنذارات الكاذبة من خلال مراعاة السياق (ربما يكون بوب في مشروع خاص، وما إلى ذلك، والذي يمكن للذكاء الاصطناعي أحيانًا استنتاجه من بيانات أخرى).
في مجال إدارة الهوية والوصول، اكتشاف التزييف العميق حاجة متزايدة - حيث يمكن للذكاء الاصطناعي التوليدي إنشاء أصوات ومقاطع فيديو اصطناعية تخدع الأمان البيومتري. ومن المثير للاهتمام أن الذكاء الاصطناعي التوليدي يمكن أن يساعد أيضًا في اكتشاف هذه التزييفات العميقة من خلال تحليل القطع الأثرية الدقيقة في الصوت أو الفيديو التي يصعب على البشر ملاحظتها. لقد رأينا مثالاً مع شركة أكسنتشر، التي استخدمت الذكاء الاصطناعي التوليدي لمحاكاة عدد لا يحصى من تعبيرات الوجه والظروف لتدريب أنظمتها البيومترية على التمييز بين المستخدمين الحقيقيين والتزييفات العميقة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. على مدار خمس سنوات، ساعد هذا النهج شركة أكسنتشر في التخلص من كلمات المرور لـ 90٪ من أنظمتها (الانتقال إلى القياسات الحيوية وعوامل أخرى) وتقليل الهجمات بنسبة 60٪ ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). في الأساس، استخدموا الذكاء الاصطناعي التوليدي لتعزيز المصادقة البيومترية، مما يجعلها مرنة ضد الهجمات التوليدية (مثال رائع على أن الذكاء الاصطناعي يحارب الذكاء الاصطناعي). هذا النوع من النمذجة السلوكية - في هذه الحالة التعرف على الفرق بين وجه بشري حي وآخر تم تصنيعه بواسطة الذكاء الاصطناعي - أمر بالغ الأهمية لأننا نعتمد بشكل أكبر على الذكاء الاصطناعي في المصادقة.
يُمكن تطبيق الكشف عن الشذوذ المُدعّم بالذكاء الاصطناعي التوليدي في مختلف القطاعات: في مجال الرعاية الصحية، يُراقب سلوك الأجهزة الطبية بحثًا عن أي علامات اختراق؛ وفي قطاع المالية، يُراقب أنظمة التداول بحثًا عن أي أنماط شاذة قد تُشير إلى احتيال أو تلاعب خوارزمي؛ وفي قطاع الطاقة/المرافق، يُراقب إشارات أنظمة التحكم بحثًا عن أي ثغرات. إن الجمع بين الاتساع (النظر في جميع جوانب السلوك) والعمق (فهم الأنماط المُعقدة) الذي يُوفره الذكاء الاصطناعي التوليدي يجعله أداة فعّالة لرصد مؤشرات الحوادث السيبرانية. ومع تزايد تسلل التهديدات، واختفائها بين العمليات الاعتيادية، تُصبح هذه القدرة على تحديد "الوضع الطبيعي" بدقة والصراخ عند حدوث أي انحراف أمرًا بالغ الأهمية. وهكذا، يعمل الذكاء الاصطناعي التوليدي كحارس لا يكل، يتعلم ويُحدّث تعريفه للوضع الطبيعي باستمرار لمواكبة التغيرات في البيئة، ويُنبه فرق الأمن إلى أي شذوذات تستحق فحصًا أدق.
فرص وفوائد الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني
يُتيح تطبيق الذكاء الاصطناعي المُولِّد في مجال الأمن السيبراني فرصًا وفوائد للمؤسسات الراغبة في تبني هذه الأدوات. نلخص فيما يلي المزايا الرئيسية التي تجعل الذكاء الاصطناعي المُولِّد إضافةً قيّمةً لبرامج الأمن السيبراني:
-
كشف واستجابة أسرع للتهديدات: تستطيع أنظمة الذكاء الاصطناعي التوليدي تحليل كميات هائلة من البيانات آنيًا، والتعرف على التهديدات أسرع بكثير من التحليل البشري اليدوي. هذه الميزة في السرعة تعني الكشف المبكر عن الهجمات واحتواء الحوادث بشكل أسرع. عمليًا، يمكن للمراقبة الأمنية المدعومة بالذكاء الاصطناعي اكتشاف التهديدات التي يستغرق ربطها بالبشر وقتًا أطول بكثير. من خلال الاستجابة السريعة للحوادث (أو حتى تنفيذ الاستجابات الأولية بشكل مستقل)، يمكن للمؤسسات تقليل وقت بقاء المهاجمين في شبكاتها بشكل كبير، مما يقلل الضرر إلى أدنى حد.
-
تحسين الدقة وتغطية التهديدات: بفضل التعلم المستمر من البيانات الجديدة، تستطيع النماذج التوليدية التكيف مع التهديدات المتطورة ورصد مؤشرات أكثر دقة للنشاط الخبيث. يؤدي هذا إلى تحسين دقة الكشف (انخفاض عدد النتائج السلبية والإيجابية الخاطئة) مقارنةً بالقواعد الثابتة. على سبيل المثال، يستطيع الذكاء الاصطناعي الذي تعلّم السمات المميزة لرسائل التصيد الاحتيالي أو سلوك البرامج الضارة تحديد متغيرات لم تُرصد من قبل. والنتيجة هي تغطية أوسع لأنواع التهديدات - بما في ذلك الهجمات الجديدة - مما يعزز الوضع الأمني العام. كما تكتسب فرق الأمن رؤى تفصيلية من تحليلات الذكاء الاصطناعي (مثل تفسيرات سلوك البرامج الضارة)، مما يتيح دفاعات أكثر دقة واستهدافًا ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - بالو ألتو نتوركس ).
-
أتمتة المهام المتكررة: يتفوق الذكاء الاصطناعي التوليدي في أتمتة مهام الأمن الروتينية كثيفة العمالة، بدءًا من فحص السجلات وتجميع التقارير وصولًا إلى كتابة نصوص الاستجابة للحوادث. تُخفف هذه الأتمتة العبء على المحللين البشريين ، مما يُتيح لهم التركيز على الاستراتيجيات رفيعة المستوى واتخاذ القرارات المعقدة ( ما هو الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني؟ - بالو ألتو نتوركس ). يمكن للذكاء الاصطناعي التعامل مع المهام الروتينية والمهمة، مثل فحص الثغرات الأمنية، وتدقيق التكوين، وتحليل نشاط المستخدم، وإعداد تقارير الامتثال (أو على الأقل صياغتها أوليًا). ومن خلال معالجة هذه المهام بسرعة الآلة، لا يُحسّن الذكاء الاصطناعي الكفاءة فحسب، بل يُقلل أيضًا من الخطأ البشري (الذي يُعد عاملًا مهمًا في حدوث الخروقات).
-
الدفاع الاستباقي والمحاكاة: يُمكّن الذكاء الاصطناعي المُولّد المؤسسات من الانتقال من الأمن التفاعلي إلى الأمن الاستباقي. فمن خلال تقنيات مثل محاكاة الهجمات، وتوليد البيانات الاصطناعية، والتدريب القائم على السيناريوهات، يُمكن للمدافعين توقع التهديدات والاستعداد لها قبل وقوعها في العالم الحقيقي. وتستطيع فرق الأمن محاكاة الهجمات الإلكترونية (مثل حملات التصيد الاحتيالي، وانتشار البرمجيات الخبيثة، وهجمات الحرمان من الخدمة الموزعة، وغيرها) في بيئات آمنة لاختبار استجاباتهم وسد أي نقاط ضعف. هذا التدريب المستمر، الذي غالبًا ما يستحيل إجراؤه بدقة بالجهد البشري وحده، يُحافظ على فعالية الدفاعات وتحديثها. يشبه الأمر "تدريبًا على مواجهة الحرائق" السيبرانية - حيث يُمكن للذكاء الاصطناعي إلقاء العديد من التهديدات الافتراضية على دفاعاتك حتى تتمكن من التدرب عليها وتحسينها.
-
تعزيز الخبرة البشرية (الذكاء الاصطناعي كقوة مضاعفة): يعمل الذكاء الاصطناعي التوليدي كمحلل مبتدئ ومستشار ومساعد لا يعرف الكلل في واحد. ويمكنه تزويد أعضاء الفريق الأقل خبرة بالتوجيه والتوصيات المتوقعة عادةً من الخبراء المخضرمين، مما يُوسّع نطاق الخبرة في جميع أنحاء الفريق ( 6 حالات استخدام للذكاء الاصطناعي التوليدي في الأمن السيبراني [+ أمثلة] ). وهذا أمر بالغ الأهمية نظرًا لنقص المواهب في مجال الأمن السيبراني - حيث يساعد الذكاء الاصطناعي الفرق الصغيرة على إنجاز المزيد بموارد أقل. من ناحية أخرى، يستفيد المحللون ذوو الخبرة من تعامل الذكاء الاصطناعي مع العمل الشاق وإبراز رؤى غير واضحة، والتي يمكنهم بعد ذلك التحقق من صحتها والعمل عليها. والنتيجة الإجمالية هي فريق أمني أكثر إنتاجية وكفاءة، حيث يُعزز الذكاء الاصطناعي تأثير كل عضو بشري ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ).
-
تحسين دعم القرارات وإعداد التقارير: من خلال ترجمة البيانات التقنية إلى رؤى باللغة الطبيعية، يُحسّن الذكاء الاصطناعي التوليدي التواصل واتخاذ القرارات. يحصل قادة الأمن على رؤية أوضح للمشاكل من خلال الملخصات المُولّدة بواسطة الذكاء الاصطناعي، ويمكنهم اتخاذ قرارات استراتيجية مدروسة دون الحاجة إلى تحليل البيانات الخام. وبالمثل، يتحسن التواصل بين مختلف الوظائف (مع المديرين التنفيذيين، ومسؤولي الامتثال، وغيرهم) عندما يُعدّ الذكاء الاصطناعي تقارير سهلة الفهم حول الوضع الأمني والحوادث ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). هذا لا يبني الثقة والتوافق بشأن المسائل الأمنية على مستوى القيادة فحسب، بل يُساعد أيضًا على تبرير الاستثمارات والتغييرات من خلال توضيح المخاطر والثغرات التي يكتشفها الذكاء الاصطناعي بوضوح.
تعني هذه الفوائد مجتمعةً أن المؤسسات التي تستفيد من الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني يمكنها تحقيق وضع أمني أقوى مع تكاليف تشغيلية أقل محتملة. يمكنهم الاستجابة للتهديدات التي كانت ساحقة في السابق، وسد الثغرات التي لم تتم مراقبتها، والتحسين المستمر من خلال حلقات التغذية الراجعة التي يقودها الذكاء الاصطناعي. في نهاية المطاف، يوفر الذكاء الاصطناعي التوليدي فرصة للتقدم على الخصوم من خلال مطابقة سرعة وحجم وتعقيد الهجمات الحديثة مع دفاعات متطورة بنفس القدر. وكما وجد أحد الاستطلاعات، يتوقع أكثر من نصف قادة الأعمال والإنترنت اكتشاف التهديدات بشكل أسرع وزيادة الدقة من خلال استخدام الذكاء الاصطناعي التوليدي ( [PDF] توقعات الأمن السيبراني العالمي 2025 | المنتدى الاقتصادي العالمي ) ( الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لـ LLM ... ) - وهو دليل على التفاؤل بشأن فوائد هذه التقنيات.
مخاطر وتحديات استخدام الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني
رغم ضخامة الفرص المتاحة، من الضروري التعامل مع الذكاء الاصطناعي المُولِّد في مجال الأمن السيبراني بنظرة ثاقبة للمخاطر والتحديات التي ينطوي عليها. فالثقة العمياء بالذكاء الاصطناعي أو إساءة استخدامه قد تُؤدي إلى ثغرات أمنية جديدة. نستعرض أدناه المخاوف والمخاطر الرئيسية، مع توضيح سياق كل منها:
-
الاستخدام العدائي من قبل مجرمي الإنترنت: يمكن للقدرات التوليدية نفسها التي تساعد المدافعين أن تمكن المهاجمين. يستخدم الجهات الفاعلة في التهديد بالفعل الذكاء الاصطناعي التوليدي لصياغة رسائل بريد إلكتروني تصيدية أكثر إقناعًا، وإنشاء شخصيات مزيفة ومقاطع فيديو عميقة للهندسة الاجتماعية، وتطوير برامج ضارة متعددة الأشكال تتغير باستمرار للتهرب من الكشف، وحتى أتمتة جوانب القرصنة ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - Palo Alto Networks ). يشعر ما يقرب من نصف (46٪) قادة الأمن السيبراني بالقلق من أن الذكاء الاصطناعي التوليدي سيؤدي إلى هجمات عدائية أكثر تقدمًا ( أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيف ). يعني "سباق التسلح بالذكاء الاصطناعي" هذا أنه مع تبني المدافعين للذكاء الاصطناعي، لن يتخلف المهاجمون كثيرًا (في الواقع، قد يكونون متقدمين في بعض المجالات، باستخدام أدوات الذكاء الاصطناعي غير المنظمة). يجب أن تكون المؤسسات مستعدة للتهديدات المعززة بالذكاء الاصطناعي والتي تكون أكثر تواترًا وتطورًا ويصعب تتبعها.
-
هلوسات الذكاء الاصطناعي وعدم دقته: يمكن أن تُنتج نماذج الذكاء الاصطناعي التوليدي مخرجات معقولة ولكنها غير صحيحة أو مضللة - وهي ظاهرة تُعرف باسم الهلوسة. في سياق أمني، قد يُحلل الذكاء الاصطناعي حادثًا ويستنتج خطأً أن ثغرة أمنية معينة كانت السبب، أو قد يُنشئ نصًا برمجيًا معيبًا يفشل في احتواء هجوم. يمكن أن تكون هذه الأخطاء خطيرة إذا أُخذت على محمل الجد. وكما تُحذر شركة NTT Data، "قد يُخرج الذكاء الاصطناعي التوليدي محتوى غير صحيح بشكل معقول، وتُسمى هذه الظاهرة بالهلوسة... من الصعب حاليًا القضاء عليها تمامًا" ( المخاطر الأمنية للذكاء الاصطناعي التوليدي والتدابير المضادة، وتأثيرها على الأمن السيبراني | مجموعة NTT DATA ). قد يؤدي الاعتماد المفرط على الذكاء الاصطناعي دون التحقق إلى جهود مضللة أو شعور زائف بالأمان. على سبيل المثال، قد يُشير الذكاء الاصطناعي بشكل خاطئ إلى نظام بالغ الأهمية على أنه آمن في حين أنه ليس كذلك، أو على العكس من ذلك، يُثير الذعر من خلال "اكتشاف" خرق لم يحدث أبدًا. إن التحقق الدقيق من مخرجات الذكاء الاصطناعي وإشراك البشر في اتخاذ القرارات الحاسمة أمر ضروري للتخفيف من هذا الخطر.
-
الإيجابيات والسلبيات الكاذبة: فيما يتعلق بالهلوسة، إذا كان نموذج الذكاء الاصطناعي مدربًا أو مهيأ بشكل سيئ، فقد يبالغ في الإبلاغ عن نشاط حميد على أنه ضار (إيجابيات كاذبة) أو الأسوأ من ذلك، يفوت التهديدات الحقيقية (سلبيات كاذبة) ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). يمكن أن تؤدي التنبيهات الكاذبة المفرطة إلى إرهاق فرق الأمن وتؤدي إلى إجهاد التنبيهات (مما يؤدي إلى التراجع عن مكاسب الكفاءة التي وعد بها الذكاء الاصطناعي)، بينما تترك عمليات الاكتشاف الفائتة المؤسسة معرضة للخطر. يعد ضبط النماذج التوليدية لتحقيق التوازن الصحيح أمرًا صعبًا. كل بيئة فريدة من نوعها، وقد لا يعمل الذكاء الاصطناعي على النحو الأمثل فورًا خارج الصندوق. التعلم المستمر هو سلاح ذو حدين أيضًا - إذا تعلم الذكاء الاصطناعي من ردود الفعل المنحرفة أو من بيئة متغيرة، فقد تتقلب دقته. يجب على فرق الأمن مراقبة أداء الذكاء الاصطناعي وضبط العتبات أو تقديم ردود فعل تصحيحية للنماذج. في السياقات ذات المخاطر العالية (مثل اكتشاف التطفل للبنية التحتية الحيوية)، قد يكون من الحكمة تشغيل اقتراحات الذكاء الاصطناعي بالتوازي مع الأنظمة الحالية لفترة من الوقت، لضمان توافقها وتكاملها بدلاً من تعارضها.
-
خصوصية البيانات والتسرب: غالبًا ما تتطلب أنظمة الذكاء الاصطناعي التوليدي كميات كبيرة من البيانات للتدريب والتشغيل. إذا كانت هذه النماذج قائمة على السحابة أو غير معزولة بشكل صحيح، فهناك خطر تسرب المعلومات الحساسة. قد يقوم المستخدمون عن غير قصد بتغذية بيانات خاصة أو بيانات شخصية في خدمة الذكاء الاصطناعي (فكر في مطالبة ChatGPT بتلخيص تقرير حادث سري)، وقد تصبح هذه البيانات جزءًا من معرفة النموذج. في الواقع، وجدت دراسة حديثة أن 55٪ من المدخلات لأدوات الذكاء الاصطناعي التوليدي تحتوي على معلومات حساسة أو معلومات شخصية قابلة للتعريف ، مما يثير مخاوف جدية بشأن تسرب البيانات ( أمن الذكاء الاصطناعي التوليدي: الاتجاهات والتهديدات واستراتيجيات التخفيف ). بالإضافة إلى ذلك، إذا تم تدريب الذكاء الاصطناعي على بيانات داخلية وتم الاستعلام عنها بطرق معينة، فقد يقوم بإخراج أجزاء من تلك البيانات الحساسة لشخص آخر. يجب على المؤسسات تنفيذ سياسات صارمة للتعامل مع البيانات (مثل استخدام مثيلات الذكاء الاصطناعي المحلية أو الخاصة للمواد الحساسة) وتثقيف الموظفين حول عدم لصق المعلومات السرية في أدوات الذكاء الاصطناعي العامة. تلعب لوائح الخصوصية (GDPR، وما إلى ذلك) دورًا أيضًا - حيث إن استخدام البيانات الشخصية لتدريب الذكاء الاصطناعي دون موافقة أو حماية مناسبة قد يتعارض مع القوانين.
-
أمن النموذج والتلاعب به: يمكن أن تصبح نماذج الذكاء الاصطناعي التوليدي نفسها أهدافًا. قد يحاول الخصوم تسميم النموذج ، وتغذية بيانات ضارة أو مضللة أثناء مرحلة التدريب أو إعادة التدريب بحيث يتعلم الذكاء الاصطناعي أنماطًا غير صحيحة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). على سبيل المثال، قد يقوم المهاجم بتسميم بيانات استخبارات التهديد بمهارة بحيث يفشل الذكاء الاصطناعي في التعرف على البرامج الضارة الخاصة بالمهاجم على أنها ضارة. هناك تكتيك آخر وهو الحقن الفوري أو التلاعب بالإخراج ، حيث يجد المهاجم طريقة لإصدار مدخلات إلى الذكاء الاصطناعي تتسبب في تصرفه بطرق غير مقصودة - ربما لتجاهل حواجز الأمان الخاصة به أو الكشف عن معلومات لا ينبغي له الكشف عنها (مثل المطالبات الداخلية أو البيانات). بالإضافة إلى ذلك، هناك خطر التهرب من النموذج : حيث يقوم المهاجمون بصياغة مدخلات مصممة خصيصًا لخداع الذكاء الاصطناعي. نرى هذا في الأمثلة العدائية - بيانات مضطربة قليلاً يراها الإنسان طبيعية ولكن الذكاء الاصطناعي يصنفها بشكل خاطئ. إن ضمان تأمين سلسلة توريد الذكاء الاصطناعي (سلامة البيانات، والتحكم في الوصول إلى النموذج، واختبار المتانة التنافسية) هو جزء جديد ولكنه ضروري من الأمن السيبراني عند نشر هذه الأدوات ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - Palo Alto Networks ).
-
الإفراط في الاعتماد وتآكل المهارات: هناك خطرٌ أقل حدة يتمثل في أن تُفرط المؤسسات في الاعتماد على الذكاء الاصطناعي، مما يؤدي إلى ضمور المهارات البشرية. إذا وثق المحللون المبتدئون بمخرجات الذكاء الاصطناعي ثقةً عمياء، فقد لا يطورون التفكير النقدي والحدس اللازمين عند عدم توفره أو تعطله. أحد السيناريوهات التي يجب تجنبها هو فريق أمني يمتلك أدواتٍ ممتازة، لكنه يفتقر إلى المعرفة اللازمة للعمل في حال تعطل هذه الأدوات (كما هو الحال مع الطيارين الذين يعتمدون بشكل مفرط على نظام القيادة الآلية). إن التدريبات المنتظمة دون مساعدة الذكاء الاصطناعي، وتعزيز عقلية أن الذكاء الاصطناعي مساعد، وليس وسيطًا معصومًا من الخطأ، أمرٌ مهم للحفاظ على يقظة المحللين البشريين. يجب أن يظل البشر هم صانعو القرار النهائيون، وخاصةً في الأحكام عالية التأثير.
-
التحديات الأخلاقية والامتثالية: يثير استخدام الذكاء الاصطناعي في الأمن السيبراني تساؤلات أخلاقية وقد يُثير قضايا تتعلق بالامتثال التنظيمي. على سبيل المثال، إذا اتهم نظام ذكاء اصطناعي موظفًا بشكل خاطئ بأنه مُطلع خبيث بسبب شذوذ، فقد يُلحق الضرر بسمعة ذلك الشخص أو مسيرته المهنية ظلماً. قد تكون القرارات التي يتخذها الذكاء الاصطناعي غامضة (مشكلة "الصندوق الأسود")، مما يُصعّب شرح سبب اتخاذ إجراءات مُعينة للمُدققين أو الجهات التنظيمية. مع ازدياد انتشار المحتوى المُولّد بواسطة الذكاء الاصطناعي، أصبح ضمان الشفافية والحفاظ على المساءلة أمرًا بالغ الأهمية. بدأت الجهات التنظيمية في التدقيق في الذكاء الاصطناعي - على سبيل المثال، سيفرض قانون الذكاء الاصطناعي للاتحاد الأوروبي متطلبات على أنظمة الذكاء الاصطناعي "عالية المخاطر"، وقد يندرج الذكاء الاصطناعي في مجال الأمن السيبراني ضمن هذه الفئة. ستحتاج الشركات إلى التعامل مع هذه اللوائح وربما الالتزام بمعايير مثل إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) لاستخدام الذكاء الاصطناعي التوليدي بمسؤولية ( كيف يُمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). يمتد الامتثال إلى الترخيص أيضًا: قد يكون استخدام النماذج مفتوحة المصدر أو النماذج التابعة لجهات خارجية له شروط تقيد استخدامات معينة أو تتطلب تحسينات المشاركة.
باختصار، الذكاء الاصطناعي التوليدي ليس حلاً سحريًا - إذا لم يُطبّق بعناية، فقد يُنشئ نقاط ضعف جديدة حتى مع حلّه لمشاكل أخرى. أشارت دراسة أجراها المنتدى الاقتصادي العالمي عام ٢٠٢٤ إلى أن حوالي ٤٧٪ من المؤسسات تُشير إلى التقدم الذي يُحدثه المهاجمون في الذكاء الاصطناعي التوليدي كقلق رئيسي، مما يجعله "التأثير الأكثر إثارة للقلق للذكاء الاصطناعي التوليدي" في مجال الأمن السيبراني ( [PDF] توقعات الأمن السيبراني العالمي ٢٠٢٥ | المنتدى الاقتصادي العالمي ) ( الذكاء الاصطناعي التوليدي في الأمن السيبراني: مراجعة شاملة لشهادة الماجستير في القانون ... ). لذلك، يجب على المؤسسات اتباع نهج متوازن: الاستفادة من مزايا الذكاء الاصطناعي مع إدارة هذه المخاطر بدقة من خلال الحوكمة والاختبار والإشراف البشري. سنناقش لاحقًا كيفية تحقيق هذا التوازن عمليًا.
التوقعات المستقبلية: الدور المتطور للذكاء الاصطناعي التوليدي في الأمن السيبراني
بالنظر إلى المستقبل، من المتوقع أن يصبح الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من استراتيجية الأمن السيبراني، وأداةً سيواصل خصوم الأمن السيبراني استغلالها. وتيرة الصراع بين الطرفين ، مع وجود الذكاء الاصطناعي في كلا الجانبين. إليكم بعض الرؤى المستقبلية حول كيفية تأثير الذكاء الاصطناعي التوليدي على الأمن السيبراني في السنوات القادمة:
-
الدفاع السيبراني المعزز بالذكاء الاصطناعي يصبح معيارًا: بحلول عام 2025 وما بعده، يمكننا أن نتوقع أن معظم المؤسسات المتوسطة والكبيرة ستدمج أدوات تعتمد على الذكاء الاصطناعي في عملياتها الأمنية. وكما هو الحال مع برامج مكافحة الفيروسات وجدران الحماية القياسية اليوم، قد تصبح برامج مساعدة الذكاء الاصطناعي وأنظمة الكشف عن الشذوذ مكونات أساسية لهياكل الأمن. ومن المرجح أن تصبح هذه الأدوات أكثر تخصصًا - على سبيل المثال، نماذج ذكاء اصطناعي مميزة مُحسّنة لأمان السحابة، ولمراقبة أجهزة إنترنت الأشياء، ولأمان أكواد التطبيقات، وما إلى ذلك، وكلها تعمل بتناغم. وكما يشير أحد التوقعات، "في عام 2025، سيكون الذكاء الاصطناعي التوليدي جزءًا لا يتجزأ من الأمن السيبراني، مما يُمكّن المؤسسات من الدفاع ضد التهديدات المعقدة والمتطورة بشكل استباقي" ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني ). سيعزز الذكاء الاصطناعي الكشف عن التهديدات في الوقت الفعلي، وأتمتة العديد من إجراءات الاستجابة، ومساعدة فرق الأمن على إدارة كميات أكبر بكثير من البيانات مما يمكنهم إدارته يدويًا.
-
التعلم والتكيف المستمران: ستتحسن قدرة أنظمة الذكاء الاصطناعي التوليدية المستقبلية في مجال الأمن السيبراني على التعلم الفوري من الحوادث الجديدة ومعلومات التهديدات، وتحديث قاعدة معارفها في الوقت الفعلي تقريبًا. قد يؤدي هذا إلى دفاعات تكيفية حقيقية - تخيل أن ذكاءً اصطناعيًا يتعرف على حملة تصيد احتيالي جديدة تستهدف شركة أخرى صباحًا، وبحلول الظهر يكون قد عدّل مرشحات البريد الإلكتروني لشركتك استجابةً لذلك. قد تُسهّل خدمات أمن الذكاء الاصطناعي السحابية هذا النوع من التعلم الجماعي، حيث تُفيد الرؤى المجهولة المصدر من مؤسسة واحدة جميع المشتركين (على غرار مشاركة معلومات التهديدات، ولكن بشكل آلي). ومع ذلك، سيتطلب هذا معالجة دقيقة لتجنب مشاركة المعلومات الحساسة ومنع المهاجمين من تغذية النماذج المشتركة ببيانات خاطئة.
-
تقارب مواهب الذكاء الاصطناعي والأمن السيبراني: ستتطور مهارات متخصصي الأمن السيبراني لتشمل الكفاءة في الذكاء الاصطناعي وعلوم البيانات. وكما يتعلم محللو اليوم لغات الاستعلام والبرمجة النصية، قد يُجري محللو الغد بانتظام تحسينات على نماذج الذكاء الاصطناعي أو يضعون "أدلة تشغيل" لينفذها الذكاء الاصطناعي. قد نشهد أدوارًا جديدة مثل "مدرب أمن الذكاء الاصطناعي" أو "مهندس ذكاء اصطناعي للأمن السيبراني" - أشخاص متخصصون في تكييف أدوات الذكاء الاصطناعي مع احتياجات المؤسسة، والتحقق من أدائها، وضمان عملها بأمان. من ناحية أخرى، ستؤثر اعتبارات الأمن السيبراني بشكل متزايد على تطوير الذكاء الاصطناعي. سيتم بناء أنظمة الذكاء الاصطناعي بميزات أمنية من البداية (البنية التحتية الآمنة، وكشف العبث، وسجلات التدقيق لقرارات الذكاء الاصطناعي، وما إلى ذلك)، وستُوجه أطر عمل الذكاء الاصطناعي الموثوق (العادل، والقابل للتفسير، والمتين، والآمن) نشرها في السياقات الحساسة أمنيًا.
-
هجمات أكثر تطوراً مدعومة بالذكاء الاصطناعي: لسوء الحظ، سيتطور مشهد التهديدات أيضاً مع الذكاء الاصطناعي. نتوقع استخداماً أكثر تواتراً للذكاء الاصطناعي لاكتشاف ثغرات اليوم صفر، ولصياغة عمليات تصيد احتيالي موجهة بدقة (مثل استخلاص الذكاء الاصطناعي لبيانات وسائل التواصل الاجتماعي لإنشاء طُعم مُصمم بدقة)، ولإنشاء أصوات أو مقاطع فيديو مُزيفة بعمق لتجاوز المصادقة البيومترية أو ارتكاب عمليات احتيال. قد تظهر برامج اختراق آلية يمكنها تنفيذ هجمات متعددة المراحل بشكل مستقل (استطلاع، استغلال، حركة جانبية، إلخ) مع الحد الأدنى من الإشراف البشري. سيدفع هذا المدافعين إلى الاعتماد أيضاً على الذكاء الاصطناعي - أي الأتمتة مقابل الأتمتة . قد تحدث بعض الهجمات بسرعة الآلة، مثل روبوتات الذكاء الاصطناعي التي تحاول آلاف عمليات التصيد الاحتيالي عبر البريد الإلكتروني لمعرفة أي منها يتخطى المرشحات. ستحتاج الدفاعات السيبرانية إلى العمل بسرعة ومرونة مماثلتين لمواكبة ذلك ( ما هو الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ - Palo Alto Networks ).
-
التنظيم والذكاء الاصطناعي الأخلاقي في مجال الأمن: مع تعمق دور الذكاء الاصطناعي في وظائف الأمن السيبراني، سيزداد التدقيق، وربما يُنظّم، لضمان استخدام أنظمة الذكاء الاصطناعي هذه بمسؤولية. يمكننا توقع أطر ومعايير خاصة بالذكاء الاصطناعي في مجال الأمن. قد تضع الحكومات مبادئ توجيهية للشفافية، مثل اشتراط عدم اتخاذ قرارات أمنية مهمة (مثل إنهاء وصول موظف للاشتباه بنشاط ضار) من قِبل الذكاء الاصطناعي وحده دون مراجعة بشرية. قد تُمنح أيضًا شهادات لمنتجات أمن الذكاء الاصطناعي، لضمان تقييمها من حيث التحيز والمتانة والسلامة للمشترين. علاوة على ذلك، قد ينمو التعاون الدولي بشأن التهديدات السيبرانية المتعلقة بالذكاء الاصطناعي؛ على سبيل المثال، اتفاقيات للتعامل مع المعلومات المضللة الناتجة عن الذكاء الاصطناعي، أو معايير ضد بعض الأسلحة السيبرانية التي يُحركها الذكاء الاصطناعي.
-
التكامل مع أنظمة الذكاء الاصطناعي وتكنولوجيا المعلومات الأوسع: من المرجح أن يتكامل الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني مع أنظمة الذكاء الاصطناعي الأخرى وأدوات إدارة تكنولوجيا المعلومات. على سبيل المثال، يمكن للذكاء الاصطناعي الذي يُدير تحسين الشبكة أن يعمل مع الذكاء الاصطناعي الأمني لضمان عدم فتح التغييرات لثغرات أمنية. قد تُشارك تحليلات الأعمال المُدارة بالذكاء الاصطناعي البيانات مع أنظمة الذكاء الاصطناعي الأمني لربط الحالات الشاذة (مثل انخفاض مفاجئ في المبيعات مع احتمال حدوث مشكلة في موقع إلكتروني بسبب هجوم). باختصار، لن يعمل الذكاء الاصطناعي بمعزل عن الآخرين، بل سيكون جزءًا من بنية ذكية أوسع لعمليات المؤسسة. وهذا يتيح فرصًا لإدارة المخاطر الشاملة، حيث يُمكن للذكاء الاصطناعي دمج البيانات التشغيلية وبيانات التهديدات، وحتى بيانات الأمن المادي، لتوفير رؤية شاملة للوضع الأمني للمؤسسة.
على المدى البعيد، يُؤمل أن يُساعد الذكاء الاصطناعي المُولِّد على ترجيح كفة الدفاع. فمن خلال التعامل مع حجم وتعقيد بيئات تكنولوجيا المعلومات الحديثة، يُمكن للذكاء الاصطناعي أن يجعل الفضاء الإلكتروني أكثر قابلية للدفاع. ومع ذلك، فهي رحلة طويلة، وستكون هناك صعوبات متزايدة في تطوير هذه التقنيات وتعلم الثقة بها على النحو الأمثل. ومن المرجح أن تكون المؤسسات التي تُتابع التطورات وتستثمر في تبني الذكاء الاصطناعي المسؤول للأمن هي الأقدر على مواجهة تهديدات المستقبل.
كما أشار تقرير جارتنر الأخير حول اتجاهات الأمن السيبراني، فإن "ظهور حالات استخدام الذكاء الاصطناعي التوليدي (ومخاطره) يُشكّل ضغطًا على التحول" ( اتجاهات الأمن السيبراني: المرونة من خلال التحول - جارتنر ). من يتكيفون سيستغلون الذكاء الاصطناعي كحليف قوي؛ ومن يتخلفون قد يجدون أنفسهم متخلفين عن الركب أمام خصوم مُدعّمين بالذكاء الاصطناعي. ستكون السنوات القليلة القادمة فترة محورية في تحديد كيفية إعادة الذكاء الاصطناعي تشكيل ساحة المعركة السيبرانية.
نصائح عملية لتبني الذكاء الاصطناعي التوليدي في مجال الأمن السيبراني
بالنسبة للشركات التي تقوم بتقييم كيفية الاستفادة من الذكاء الاصطناعي التوليدي في استراتيجية الأمن السيبراني الخاصة بها، إليك بعض النقاط والتوصيات العملية لتوجيه التبني المسؤول والفعال:
-
ابدأ بالتعليم والتدريب: تأكد من فهم فريق الأمن لديك (وموظفي تكنولوجيا المعلومات بشكل عام) لما يمكن للذكاء الاصطناعي التوليدي فعله وما لا يمكنه فعله. قدّم تدريبًا على أساسيات أدوات الأمن المدعومة بالذكاء الاصطناعي، وحدّث برامج التوعية الأمنية لجميع الموظفين لتغطية التهديدات التي يدعمها. على سبيل المثال، درّب الموظفين على كيفية توليد الذكاء الاصطناعي لعمليات احتيال تصيد احتيالي ومكالمات مزيفة للغاية. في الوقت نفسه، درّب الموظفين على الاستخدام الآمن والمعتمد لأدوات الذكاء الاصطناعي في عملهم. المستخدمون المطلعون أقل عرضة لسوء استخدام الذكاء الاصطناعي أو الوقوع ضحية لهجمات مُعزّزة بالذكاء الاصطناعي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).
-
تحديد سياسات واضحة لاستخدام الذكاء الاصطناعي: تعامل مع الذكاء الاصطناعي التوليدي كأي تقنية قوية - مع مراعاة الحوكمة. ضع سياسات تحدد من يمكنه استخدام أدوات الذكاء الاصطناعي، والأدوات المسموح بها، ولأي غرض. أضف إرشادات حول التعامل مع البيانات الحساسة (مثل عدم إدخال بيانات سرية إلى خدمات الذكاء الاصطناعي الخارجية) لمنع التسريبات. على سبيل المثال، قد تسمح فقط لأعضاء فريق الأمن باستخدام مساعد ذكاء اصطناعي داخلي للاستجابة للحوادث، ويمكن لقسم التسويق استخدام ذكاء اصطناعي معتمد للمحتوى - بينما يُقيّد استخدام أي شخص آخر. تتناول العديد من المؤسسات الآن الذكاء الاصطناعي التوليدي صراحةً في سياسات تكنولوجيا المعلومات الخاصة بها، وتشجع هيئات المعايير الرائدة على سياسات الاستخدام الآمن بدلاً من الحظر التام ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). تأكد من إيصال هذه القواعد والأساس المنطقي وراءها إلى جميع الموظفين.
-
التخفيف من "الذكاء الاصطناعي الخفي" ومراقبة الاستخدام: على غرار تكنولوجيا المعلومات الخفية، ينشأ "الذكاء الاصطناعي الخفي" عندما يبدأ الموظفون في استخدام أدوات أو خدمات الذكاء الاصطناعي دون علم تكنولوجيا المعلومات (على سبيل المثال، مطور يستخدم مساعد برمجة ذكاء اصطناعي غير مصرح به). يمكن أن يؤدي هذا إلى مخاطر غير مرئية. قم بتنفيذ تدابير للكشف عن استخدام الذكاء الاصطناعي غير المصرح به والتحكم فيه . يمكن لمراقبة الشبكة أن تشير إلى الاتصالات بواجهات برمجة تطبيقات الذكاء الاصطناعي الشائعة، ويمكن أن تكشف الاستطلاعات أو عمليات تدقيق الأدوات عن ما يستخدمه الموظفون. قدم بدائل معتمدة حتى لا يُغري الموظفون ذوو النية الحسنة بالتصرف بشكل غير قانوني (على سبيل المثال، قدم حساب ChatGPT Enterprise رسميًا إذا وجد الناس أنه مفيد). من خلال تسليط الضوء على استخدام الذكاء الاصطناعي، يمكن لفرق الأمن تقييم المخاطر وإدارتها. المراقبة هي أيضًا مفتاح - سجل أنشطة ومخرجات أداة الذكاء الاصطناعي قدر الإمكان، بحيث يكون هناك مسار تدقيق للقرارات التي أثر عليها الذكاء الاصطناعي ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ).
-
استفد من الذكاء الاصطناعي دفاعيًا - لا تتخلف عن الركب: أدرك أن المهاجمين سيستخدمون الذكاء الاصطناعي، لذا يجب أن يستخدم دفاعك أيضًا. حدد بعض المجالات ذات التأثير العالي حيث يمكن للذكاء الاصطناعي التوليدي أن يساعد عمليات الأمان الخاصة بك على الفور (ربما فرز التنبيهات أو تحليل السجلات الآلي) وقم بتشغيل مشاريع تجريبية. عزز دفاعاتك بسرعة الذكاء الاصطناعي ونطاقه لمواجهة التهديدات سريعة الحركة ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). حتى التكاملات البسيطة، مثل استخدام الذكاء الاصطناعي لتلخيص تقارير البرامج الضارة أو إنشاء استعلامات البحث عن التهديدات، يمكن أن توفر ساعات للمحللين. ابدأ صغيرًا، وقيم النتائج، وكرر. ستبني النجاحات القضية لتبني الذكاء الاصطناعي على نطاق أوسع. الهدف هو استخدام الذكاء الاصطناعي كمضاعف للقوة - على سبيل المثال، إذا كانت هجمات التصيد الاحتيالي تطغى على مركز المساعدة الخاص بك، فقم بنشر مصنف بريد إلكتروني للذكاء الاصطناعي لتقليل هذا الحجم بشكل استباقي.
-
استثمر في ممارسات الذكاء الاصطناعي الآمنة والأخلاقية: عند تطبيق الذكاء الاصطناعي التوليدي، اتبع ممارسات التطوير والنشر الآمنة. استخدم نماذج خاصة أو ذاتية الاستضافة للمهام الحساسة للاحتفاظ بالتحكم في البيانات. إذا كنت تستخدم خدمات الذكاء الاصطناعي التابعة لجهات خارجية، فراجع إجراءات الأمان والخصوصية الخاصة بها (التشفير، وسياسات الاحتفاظ بالبيانات، وما إلى ذلك). قم بدمج أطر إدارة مخاطر الذكاء الاصطناعي (مثل إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا أو إرشادات ISO/IEC) لمعالجة أمور مثل التحيز والقدرة على التفسير والمتانة بشكل منهجي في أدوات الذكاء الاصطناعي الخاصة بك ( كيف يمكن استخدام الذكاء الاصطناعي التوليدي في الأمن السيبراني؟ 10 أمثلة واقعية ). خطط أيضًا لتحديثات/تصحيحات النموذج كجزء من الصيانة - فقد تحتوي نماذج الذكاء الاصطناعي على "نقاط ضعف" أيضًا (على سبيل المثال، قد تحتاج إلى إعادة تدريب إذا بدأت في الانحراف أو إذا تم اكتشاف نوع جديد من الهجوم العدائي على النموذج). من خلال دمج الأمان والأخلاقيات في استخدامك للذكاء الاصطناعي، فإنك تبني الثقة في النتائج وتضمن الامتثال للوائح الناشئة.
-
أبقِ البشر على اطلاع: استخدم الذكاء الاصطناعي لمساعدة الحكم البشري في مجال الأمن السيبراني، لا أن يحل محله تمامًا. حدد نقاط القرار التي تتطلب التحقق البشري (على سبيل المثال، قد يُعِدّ الذكاء الاصطناعي تقرير حادث، لكن يُراجعه محلل قبل توزيعه؛ أو قد يقترح حظر حساب مستخدم، لكن يُوافق عليه إنسان). هذا لا يمنع أخطاء الذكاء الاصطناعي من التسرب فحسب، بل يساعد فريقك أيضًا على التعلم منه والعكس صحيح. شجع سير العمل التعاوني: يجب أن يشعر المحللون بالراحة في التشكيك في مخرجات الذكاء الاصطناعي وإجراء فحوصات السلامة. بمرور الوقت، يمكن أن يُحسّن هذا الحوار كلاً من الذكاء الاصطناعي (من خلال الملاحظات) ومهارات المحللين. باختصار، صمم عملياتك بحيث يتكامل الذكاء الاصطناعي ونقاط القوة البشرية - يتعامل الذكاء الاصطناعي مع الحجم والسرعة، ويتعامل البشر مع الغموض والقرارات النهائية.
-
القياس، والمراقبة، والتعديل: أخيرًا، تعامل مع أدوات الذكاء الاصطناعي التوليدية كمكونات حيوية في نظامك الأمني. قِس أداءها - هل تُقلل من زمن الاستجابة للحوادث؟ هل تُكتشف التهديدات مبكرًا؟ ما هو اتجاه معدل الإيجابيات الخاطئة؟ اطلب ملاحظات من الفريق: هل توصيات الذكاء الاصطناعي مفيدة، أم أنها تُسبب ضوضاء؟ استخدم هذه المقاييس لتحسين النماذج، أو تحديث بيانات التدريب، أو تعديل كيفية دمج الذكاء الاصطناعي. تتطور التهديدات السيبرانية واحتياجات العمل، ويجب تحديث نماذج الذكاء الاصطناعي أو إعادة تدريبها دوريًا للحفاظ على فعاليتها. ضع خطة لحوكمة النموذج، تتضمن من المسؤول عن صيانته وعدد مرات مراجعته. من خلال الإدارة الفعالة لدورة حياة الذكاء الاصطناعي، تضمن أنه يبقى موردًا لا عبئًا.
في الختام، يُمكن للذكاء الاصطناعي التوليدي أن يُعزز قدرات الأمن السيبراني بشكل كبير، إلا أن نجاح تبنيه يتطلب تخطيطًا مدروسًا وإشرافًا مستمرًا. ستجني الشركات التي تُثقّف موظفيها، وتضع إرشادات واضحة، وتُدمج الذكاء الاصطناعي بطريقة متوازنة وآمنة، ثمار إدارة التهديدات بشكل أسرع وأذكى. تُقدم هذه الدروس خارطة طريق: دمج الخبرة البشرية مع أتمتة الذكاء الاصطناعي، وتغطية أساسيات الحوكمة، والحفاظ على المرونة مع التطور الحتمي لتكنولوجيا الذكاء الاصطناعي ومشهد التهديدات.
باتخاذ هذه الخطوات العملية، تستطيع المؤسسات الإجابة بثقة على سؤال "كيف يُمكن استخدام الذكاء الاصطناعي المُولِّد في الأمن السيبراني؟" - ليس نظريًا فحسب، بل في الممارسة اليومية أيضًا - وبالتالي تعزيز دفاعاتها في عالمنا الرقمي المُتزايد الذي يعتمد على الذكاء الاصطناعي. ( كيف يُمكن استخدام الذكاء الاصطناعي المُولِّد في الأمن السيبراني )
الكتب البيضاء التي قد ترغب في قراءتها بعد هذه الورقة:
🔗 وظائف لا يمكن للذكاء الاصطناعي استبدالها، وما هي الوظائف التي سيحل محلها؟
استكشف التوقعات العالمية حول الأدوار الآمنة من الأتمتة وتلك غير الآمنة.
🔗 هل يستطيع الذكاء الاصطناعي التنبؤ بسوق الأسهم؟
نظرة عن كثب على القيود والإنجازات والخرافات حول قدرة الذكاء الاصطناعي على التنبؤ بحركة السوق.
🔗 ما الذي يُمكن الاعتماد عليه في الذكاء الاصطناعي التوليدي دون تدخل بشري؟
تعرّف على المجالات التي يُمكن للذكاء الاصطناعي العمل فيها بشكل مستقل، والمجالات التي لا تزال فيها الرقابة البشرية ضرورية.