كيفية استخدام الذكاء الاصطناعي في التوظيف

كيفية استخدام الذكاء الاصطناعي في التوظيف

يمكن للذكاء الاصطناعي أن يُساعد، ولكن فقط إذا تعاملت معه كأداة فعّالة، لا كعصا سحرية. عند استخدامه بشكل صحيح، يُسرّع عملية البحث عن المرشحين، ويُحسّن الاتساق، ويُعزّز تجربة المرشح. أما عند استخدامه بشكل خاطئ... فإنه يُفاقم الارتباك والتحيز والمخاطر القانونية. يا له من أمر مُمتع!

دعونا نستعرض كيفية استخدام الذكاء الاصطناعي في التوظيف بطريقة مفيدة فعلاً، تركز على الإنسان، وقابلة للدفاع عنها. (وغير مثيرة للريبة. أرجوكم لا تكون مثيرة للريبة.)

مقالات قد ترغب في قراءتها بعد هذه المقالة:

🔗 أدوات التوظيف المدعومة بالذكاء الاصطناعي تُحدث تحولاً في التوظيف الحديث
كيف تعمل منصات الذكاء الاصطناعي على تسريع وتحسين قرارات التوظيف.

🔗 أدوات الذكاء الاصطناعي المجانية لفرق التوظيف
أفضل الحلول المجانية لتبسيط وأتمتة عمليات التوظيف.

🔗 مهارات الذكاء الاصطناعي التي تُثير إعجاب مديري التوظيف
ما هي مهارات الذكاء الاصطناعي التي تبرز فعلاً في السير الذاتية؟

🔗 هل يجب عليك إلغاء الاشتراك في فحص السيرة الذاتية بالذكاء الاصطناعي؟
مزايا وعيوب ومخاطر تجنب أنظمة التوظيف الآلية.


لماذا يظهر الذكاء الاصطناعي في عمليات التوظيف أصلاً (وماذا فعلاً ) 🔎

تندرج معظم أدوات "التوظيف بالذكاء الاصطناعي" ضمن فئات قليلة:

  • التوظيف : إيجاد المرشحين، وتوسيع نطاق مصطلحات البحث، ومطابقة المهارات مع الوظائف

  • الفرز : تحليل السير الذاتية، وترتيب المتقدمين، وتحديد المرشحين المناسبين.

  • التقييمات : اختبارات المهارات، نماذج العمل، محاكاة الوظائف، وأحيانًا فيديوهات توضح سير العمل.

  • دعم المقابلات : بنوك أسئلة منظمة، تلخيص الملاحظات، وملاحظات تقييم الأداء

  • العمليات : الجدولة، دردشة أسئلة وأجوبة المرشحين، تحديثات الحالة، سير عمل العروض

إحدى الحقائق التي يجب الانتباه إليها: نادرًا ما يتخذ الذكاء الاصطناعي قرارًا نهائيًا في لحظة واحدة. فهو يؤثر... ويوجه... ويرشح... ويحدد الأولويات. وهذا أمر بالغ الأهمية، لأنه عمليًا، قد تتحول الأداة إلى آلية اختيار حتى عندما يكون البشر مشاركين "تقنيًا" في العملية. في الولايات المتحدة، أوضحت لجنة تكافؤ فرص العمل (EEOC) أن أدوات اتخاذ القرارات الخوارزمية المستخدمة في اتخاذ قرارات التوظيف أو توجيهها قد تثير نفس التساؤلات القديمة حول التمييز/الأثر السلبي، وأن أصحاب العمل قد يظلون مسؤولين حتى عندما يقوم مورد بتطوير الأداة أو تشغيلها. [1]

 

الذكاء الاصطناعي في التوظيف

الحد الأدنى من الإعدادات الجيدة والفعّالة للتوظيف بمساعدة الذكاء الاصطناعي ✅

تتضمن عملية التوظيف الجيدة باستخدام الذكاء الاصطناعي بعض الأمور غير القابلة للتفاوض (نعم، إنها مملة بعض الشيء، لكن الملل هو الخيار الآمن):

  • المدخلات المتعلقة بالوظيفة : قيّم الإشارات المرتبطة بالوظيفة، وليس الانطباعات الشخصية.

  • إمكانية التوضيح التي يمكنك تكرارها بصوت عالٍ : إذا سأل المرشح "لماذا؟"، فسيكون لديك إجابة متماسكة.

  • الرقابة البشرية ذات الأهمية : وليست مجرد نقرات شكلية - بل سلطة حقيقية للتجاوز.

  • التحقق والمراقبة : اختبار النتائج، ومراقبة الانحرافات، والاحتفاظ بالسجلات.

  • تصميم سهل الاستخدام للمرشحين : خطوات واضحة، عملية سهلة، وأقل قدر من التعقيدات.

  • الخصوصية بالتصميم : تقليل البيانات، وقواعد الاحتفاظ بها، والأمان، وضوابط الوصول

إذا كنت ترغب في نموذج ذهني متين، فاستعن بإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) - وهو في الأساس طريقة منظمة لحوكمة مخاطر الذكاء الاصطناعي ورسم خرائطها وقياسها وإدارتها طوال دورة حياتها. ليس هذا نموذجًا مثاليًا، ولكنه مفيد حقًا لجعل هذه الأمور قابلة للتدقيق. [4]


أين يبرز الذكاء الاصطناعي في مسار التسويق (وأين يصبح الأمر مثيرًا) 🌶️

أفضل الأماكن للبدء (عادةً)

  • صياغة وصف الوظيفة + تنظيفه ✍️
    يمكن للذكاء الاصطناعي التوليدي تقليل المصطلحات التقنية، وإزالة قوائم الرغبات المتضخمة، وتحسين الوضوح (طالما أنك تتحقق من صحتها).

  • مساعدو التوظيف (الملخصات، وأنواع التواصل، والسلاسل المنطقية)
    مكاسب إنتاجية كبيرة، ومخاطر منخفضة في اتخاذ القرار إذا بقي البشر مسؤولين.

  • جدولة المواعيد + الأسئلة الشائعة للمرشحين 📅
    الأتمتة التي يحبها المرشحون بالفعل، عندما يتم ذلك بأدب.

مناطق ذات مخاطر عالية (توخ الحذر)

  • التصنيف والرفض الآليان:
    كلما أصبحت النتيجة أكثر تحديدًا، كلما تحول عبء العمل من "أداة جيدة" إلى "إثبات أن هذا مرتبط بالوظيفة، ويتم مراقبته، ولا يستبعد المجموعات بهدوء".

  • تحليل الفيديو أو "الاستدلال السلوكي" 🎥
    حتى عند تسويقها على أنها "موضوعية"، يمكن أن تتعارض هذه مع الإعاقة واحتياجات الوصول والصلاحية المهتزة.

  • أي شيء يصبح "آليًا بالكامل" وله آثار كبيرة.
    بموجب اللائحة العامة لحماية البيانات في المملكة المتحدة، يحق للأفراد عدم الخضوع آلية بالكامل ذات آثار قانونية أو آثار مماثلة ذات أهمية كبيرة - وعند انطباق ذلك، يلزم أيضًا وجود ضمانات مثل إمكانية الحصول على تدخل بشري والطعن في القرار. (أيضًا: تشير مفوضية المعلومات إلى أن هذه الإرشادات قيد المراجعة بسبب التغييرات في القانون البريطاني، لذا يُرجى اعتبار هذا الأمر مجالًا يجب تحديثه باستمرار.) [3]


تعريفات سريعة (حتى يتجادل الجميع حول نفس الشيء) 🧠

إذا كنت ستسرق عادة واحدة فقط من عادات المهووسين: فحدد المصطلحات قبل شراء الأدوات.

  • أداة اتخاذ القرار الخوارزمية : مصطلح شامل للبرامج التي تقيّم/تصنف المتقدمين للوظائف أو الموظفين، وأحيانًا باستخدام الذكاء الاصطناعي، لإرشاد القرارات.

  • الأثر السلبي / الأثر غير المتناسب : عملية "محايدة" تستبعد الأشخاص بشكل غير متناسب بناءً على خصائص محمية (حتى لو لم يقصد أحد ذلك).

  • مرتبط بالوظيفة ومتوافق مع متطلبات العمل : هذا هو المعيار الذي تسعى إليه إذا كانت الأداة تستبعد المتقدمين وتبدو النتائج غير متوازنة.
    هذه المفاهيم (وكيفية التفكير في معدلات الاختيار) موضحة بوضوح في المساعدة الفنية للجنة تكافؤ فرص العمل بشأن الذكاء الاصطناعي وتأثيره السلبي. [1]


جدول مقارنة - خيارات التوظيف الشائعة باستخدام الذكاء الاصطناعي (ولمن هي مخصصة فعليًا) 🧾

أداة جمهور سعر لماذا ينجح؟
إضافات الذكاء الاصطناعي في مجموعات أنظمة تتبع المتقدمين (الفحص، المطابقة) فرق ذات حجم كبير عرض أسعار قائم على الاقتباس نظام سير عمل مركزي + تقارير... لكن يجب ضبطه بعناية وإلا سيتحول إلى مصنع للرفض.
الذكاء الاصطناعي في استقطاب المواهب وإعادة اكتشافها المنظمات التي تعتمد بشكل كبير على التوريد ££–£££ يعثر على الملفات الشخصية ذات الصلة والمرشحين "المخفيين" - وهو أمر مفيد بشكل غريب للأدوار المتخصصة
تحليل السيرة الذاتية + تصنيف المهارات فرق تغرق في ملفات PDF للسير الذاتية غالباً ما يتم تجميعها يقلل من الفرز اليدوي؛ ليس مثاليًا، ولكنه أسرع من التقييم البصري لكل شيء في الساعة الحادية عشرة مساءً 😵
دردشة المرشحين + أتمتة الجدولة بالساعة، في الحرم الجامعي، حجم كبير £–££ أوقات استجابة أسرع وحالات عدم حضور أقل - يبدو الأمر وكأنه خدمة كونسيرج جيدة
مجموعات المقابلات المنظمة + بطاقات التقييم فرق العمل تعمل على إصلاح التناقضات £ يجعل المقابلات أقل عشوائية - مكسب هادئ
منصات التقييم (نماذج العمل، المحاكاة) التوظيف القائم على المهارات ££ تُعدّ هذه المعلومات مؤشراً أفضل من السيرة الذاتية عندما تكون ذات صلة بالوظيفة - مع الاستمرار في مراقبة النتائج
أدوات مراقبة التحيز ودعم التدقيق المنظمات الخاضعة للتنظيم / الواعية بالمخاطر £££ يساعد في تتبع معدلات الاختيار والانحراف بمرور الوقت - الإيصالات، بشكل أساسي
سير عمل الحوكمة (الموافقات، السجلات، جرد النماذج) فرق أكبر للموارد البشرية والشؤون القانونية ££ يمنع ذلك تحول مسألة "من وافق على ماذا" إلى لعبة بحث عن الكنز لاحقاً

اعتراف بسيط: التسعير في هذا السوق متقلب. البائعون يفضلون التواصل عبر الهاتف. لذا، تعامل مع التكلفة على أنها "الجهد المبذول + تعقيد العقد"، وليس مجرد سعر نهائي... 🤷


كيفية استخدام الذكاء الاصطناعي في التوظيف خطوة بخطوة (تطبيق عملي لن يسبب لك مشاكل لاحقاً) 🧩

الخطوة الأولى: اختر مشكلة واحدة، وليس الكون كله

ابدأ بشيء مثل:

  • تقليل وقت الفحص لعائلة أدوار واحدة

  • تحسين عملية البحث عن مرشحين لشغل الوظائف التي يصعب شغلها

  • توحيد أسئلة المقابلات وبطاقات التقييم

إذا حاولتَ إعادة بناء عملية التوظيف بالكامل باستخدام الذكاء الاصطناعي منذ اليوم الأول، فستنتهي بعملية مشوّهة وغير متناسقة. قد تنجح من الناحية التقنية، لكن الجميع سيكرهها. وحينها سيتجاهلونها، وهذا أسوأ.

الخطوة الثانية: تعريف "النجاح" بما يتجاوز السرعة

السرعة مهمة. وكذلك عدم توظيف الشخص الخطأ بسرعة 😬. المسار:

  • الوقت اللازم للاستجابة الأولى

  • الوقت اللازم للقائمة المختصرة

  • نسبة المقابلات إلى العروض

  • معدل انسحاب المرشحين

  • مؤشرات جودة التوظيف (مدة التأقلم، مؤشرات الأداء المبكرة، الاحتفاظ بالموظفين)

  • اختلافات معدل الاختيار بين المجموعات في كل مرحلة

إذا قمت بقياس السرعة فقط، فسوف تركز على "الرفض السريع"، وهو ليس نفس "التوظيف الجيد".

الخطوة الثالثة: حدد نقاط اتخاذ القرار البشري (دوّنها)

كن صريحًا بشكل مؤلم:

  • حيث يمكن للذكاء الاصطناعي أن يقترح

  • حيث يتعين على البشر اتخاذ القرار

  • حيث يتعين على البشر مراجعة التجاوزات (وتسجيل السبب)

اختبار عملي للرائحة: إذا كانت معدلات التجاوز صفرًا بشكل أساسي، فقد يكون "الشخص الموجود في الحلقة" مجرد ملصق تزييني.

الخطوة الرابعة: قم بإجراء اختبار الظل أولاً

قبل أن تؤثر مخرجات الذكاء الاصطناعي على المرشحين الحقيقيين:

  • قم بتشغيله على دورات التوظيف السابقة

  • قارن التوصيات بالنتائج الفعلية

  • ابحث عن أنماط مثل "المرشحون الممتازون يصنفون في مراتب متدنية بشكل منهجي".

مثال مُركّب (لأن هذا يحدث كثيرًا): نموذج "يُفضّل" التوظيف المُستمر ويُعاقب فترات انقطاع العمل... مما يُقلّل من شأن مُقدّمي الرعاية، والأشخاص العائدين من المرض، والأشخاص ذوي المسارات المهنية غير الخطية. لم يُبرمج أحد "ليكون غير عادل". البيانات هي التي فعلت ذلك. رائع رائع رائع.

الخطوة 5: ابدأ بالتجربة، ثم توسع ببطء

يتضمن الطيار الجيد ما يلي:

  • تدريب موظفي التوظيف

  • جلسات معايرة مديري التوظيف

  • رسائل المرشحين (ما هو آلي وما هو غير آلي)

  • مسار للإبلاغ عن الأخطاء في الحالات الشاذة

  • سجل التغييرات (ما الذي تغير، ومتى، ومن وافق عليه)

تعامل مع الطيارين كمختبر، وليس كإطلاق تسويقي 🎛️.


كيفية استخدام الذكاء الاصطناعي في التوظيف دون انتهاك الخصوصية 🛡️

الخصوصية ليست مجرد إجراء شكلي قانوني، بل هي ثقة المرشح. ولنكن صريحين، الثقة هشة أصلاً في مجال التوظيف.

خطوات عملية لحماية الخصوصية:

  • قلل من حجم البيانات : لا تجمع كل شيء "احتياطاً".

  • كن واضحاً : أخبر المرشحين متى يتم استخدام الأتمتة وما هي البيانات المستخدمة.

  • تحديد مدة الاحتفاظ بالبيانات : تحديد المدة التي تبقى فيها بيانات المتقدمين في النظام

  • الوصول الآمن : أذونات قائمة على الأدوار، وسجلات التدقيق، وضوابط الموردين

  • تحديد الغرض : استخدام بيانات المتقدمين للتوظيف، وليس لإجراء تجارب مستقبلية عشوائية.

إذا كنت توظف في المملكة المتحدة، فقد كانت هيئة مفوض المعلومات واضحة للغاية بشأن ما يجب على المؤسسات أن تسأله قبل شراء أدوات التوظيف التي تعمل بالذكاء الاصطناعي - بما في ذلك إجراء تقييم أثر حماية البيانات مبكرًا، والحفاظ على معالجة عادلة/بسيطة، وشرح كيفية استخدام معلومات المرشحين بوضوح. [2]

ولا تنسَ إمكانية الوصول: إذا كانت خطوةٌ مدعومةٌ بالذكاء الاصطناعي تمنع المرشحين الذين يحتاجون إلى تسهيلات، فأنت بذلك تُنشئ عائقًا. هذا ليس جيدًا من الناحية الأخلاقية، ولا من الناحية القانونية، ولا يُحسّن سمعة شركتك كجهة توظيف. إنه أمرٌ سيءٌ للغاية.


التحيز، والإنصاف، والعمل غير الجذاب للمراقبة 📉🙂

هذا هو المكان الذي تُقلل فيه معظم الفرق من استثماراتها. يشترون الأداة، ويشغلونها، ويفترضون أن "البائع قد تعامل مع التحيز". إنها قصة مُريحة، ولكنها غالبًا ما تكون محفوفة بالمخاطر.

يبدو روتين الإنصاف العملي كما يلي:

  • التحقق قبل النشر : ما الذي يقيسه، وهل هو مرتبط بالوظيفة؟

  • مراقبة التأثير السلبي : تتبع معدلات الاختيار في كل مرحلة (التقديم ← الفرز ← المقابلة ← العرض)

  • تحليل الأخطاء : أين تتجمع النتائج السلبية الخاطئة؟

  • فحوصات إمكانية الوصول : هل التسهيلات سريعة ومحترمة؟

  • مراقبة التغيرات : تتغير احتياجات الأدوار، وتتغير أسواق العمل، وتتغير النماذج... لذا يجب أن تتغير مراقبتك أيضًا.

وإذا كنت تعمل في مناطق ذات قوانين إضافية، فلا تُضف متطلبات الامتثال لاحقًا. على سبيل المثال، يقيد القانون المحلي رقم 144 في مدينة نيويورك استخدام بعض أدوات اتخاذ قرارات التوظيف الآلية ما لم يكن هناك تدقيق حديث للتحيز، ومعلومات عامة حول هذا التدقيق، وإشعارات مطلوبة - على أن يبدأ تطبيقه في عام 2023. [5]


أسئلة التحقق من الموردين (اقتبس هذه الأسئلة) 📝

عندما يقول البائع "ثق بنا"، ترجمها إلى "أرنا".

بسأل:

  • ما هي البيانات التي تم استخدامها في تدريب هذا النموذج، وما هي البيانات التي يتم استخدامها في وقت اتخاذ القرار؟

  • ما هي الخصائص التي تؤثر على المخرجات؟ هل يمكنك شرحها بطريقة بشرية؟

  • ما هي اختبارات التحيز التي تجريها - أي مجموعات، وما هي المقاييس؟

  • هل يمكننا مراجعة النتائج بأنفسنا؟ ما هي التقارير التي نحصل عليها؟

  • كيف يحصل المرشحون على مراجعة بشرية - سير العمل والجدول الزمني؟

  • كيف تتعاملون مع التسهيلات؟ هل هناك أي أعطال معروفة؟

  • الأمن والاحتفاظ بالبيانات: أين يتم تخزين البيانات، وكم من الوقت، ومن يمكنه الوصول إليها؟

  • التحكم في التغييرات: هل تقوم بإخطار العملاء عند تحديث النماذج أو تغيير نظام التقييم؟

أيضًا: إذا كانت الأداة قادرة على استبعاد الأشخاص، فتعامل معها كإجراء اختيار ، وتصرف وفقًا لذلك. إن توجيهات لجنة تكافؤ فرص العمل واضحة تمامًا بأن مسؤولية صاحب العمل لا تختفي فجأة لمجرد أن "موردًا ما قام بذلك". [1]


الذكاء الاصطناعي التوليدي في التوظيف - الاستخدامات الآمنة والمعقولة (وقائمة الممنوعات) 🧠✨

آمن إلى حد ما ومفيد للغاية

  • أعد صياغة إعلانات الوظائف لإزالة الحشو وتحسين الوضوح

  • قم بصياغة رسائل التواصل مع قوالب قابلة للتخصيص (يرجى مراعاة الطابع الإنساني 🙏)

  • لخص ملاحظات المقابلة واربطها بالكفاءات

  • قم بإنشاء أسئلة مقابلة منظمة مرتبطة بالوظيفة

  • معلومات الاتصال بالمرشحين بشأن الجداول الزمنية والأسئلة الشائعة وإرشادات التحضير

قائمة الممنوعات (أو على الأقل "التريث وإعادة التفكير")

  • استخدام نص محادثة روبوت الدردشة كاختبار نفسي خفي

  • ترك الذكاء الاصطناعي يقرر "الملاءمة الثقافية" (هذه العبارة يجب أن تثير الإنذارات).

  • جمع بيانات وسائل التواصل الاجتماعي دون مبرر واضح وموافقة.

  • رفض المرشحين تلقائيًا بناءً على درجات مبهمة دون مسار للمراجعة

  • إجبار المرشحين على اجتياز اختبارات الذكاء الاصطناعي التي لا تتنبأ بالأداء الوظيفي

باختصار: نعم، قم بإنشاء المحتوى والهيكل. أما أتمتة الحكم النهائي، فكن حذراً.


ملاحظات ختامية - طويل جدًا، لم أقرأه 🧠✅

إذا لم تتذكر شيئاً آخر:

  • ابدأ بخطوات صغيرة، وجرّب أولاً، ثم قِس النتائج. 📌

  • استخدم الذكاء الاصطناعي لمساعدة البشر، لا لمحو المساءلة.

  • توثيق نقاط اتخاذ القرار، والتحقق من مدى ملاءمة الوظيفة، ومراقبة العدالة.

  • يجب التعامل بجدية مع قيود الخصوصية والقرارات الآلية (خاصة في المملكة المتحدة).

  • طالب بالشفافية من الموردين، واحتفظ بسجل تدقيق خاص بك.

  • أفضل عملية توظيف تعتمد على الذكاء الاصطناعي تبدو أكثر تنظيماً وإنسانية، وليست أكثر بروداً.

هكذا يتم استخدام الذكاء الاصطناعي في التوظيف دون أن ينتهي الأمر بنظام سريع وواثق ولكنه مخطئ بشكل قاطع.


مراجع

[1] لجنة تكافؤ فرص العمل -
قضايا مختارة: تقييم الأثر السلبي للبرمجيات والخوارزميات والذكاء الاصطناعي المستخدم في إجراءات اختيار الموظفين بموجب الباب السابع (مساعدة فنية، 18 مايو 2023) [2] مكتب مفوض المعلومات -
هل تفكر في استخدام الذكاء الاصطناعي للمساعدة في التوظيف؟ اعتباراتنا الرئيسية لحماية البيانات (6 نوفمبر 2024) [3] مكتب مفوض المعلومات -
ماذا يقول قانون حماية البيانات العامة في المملكة المتحدة بشأن اتخاذ القرارات الآلية وتحديد السمات الشخصية؟ [4] المعهد الوطني للمعايير والتكنولوجيا -
إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0) (يناير 2023) [5] إدارة حماية المستهلك والعامل في مدينة نيويورك - أدوات اتخاذ قرارات التوظيف الآلية (AEDT) / القانون المحلي 144

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة