باختصار: يتحمل المطورون الذين يستخدمون الذكاء الاصطناعي التوليدي مسؤولية النظام بأكمله، وليس فقط مخرجات النموذج. فعندما يؤثر الذكاء الاصطناعي على القرارات أو الشيفرة البرمجية أو الخصوصية أو ثقة المستخدم، يجب عليهم اختيار تطبيقات آمنة، والتحقق من النتائج، وحماية البيانات، والحد من الأضرار، وضمان إمكانية مراجعة المستخدمين وتعديلهم وتصحيح الأخطاء.
أهم النقاط المستفادة:
التحقق : تعامل مع المخرجات المصقولة على أنها غير موثوقة حتى يتم تأكيدها من قبل المصادر أو الاختبارات أو المراجعة البشرية.
حماية البيانات : تقليل البيانات المطلوبة، وإزالة المعرفات، وتأمين السجلات، وضوابط الوصول، والموردين.
الإنصاف : إجراء اختبارات عبر مختلف الفئات السكانية والسياقات لاكتشاف الصور النمطية وأنماط الفشل غير المتكافئة.
الشفافية : قم بتصنيف استخدام الذكاء الاصطناعي بشكل واضح، واشرح حدوده، وقدم مراجعة بشرية أو حق الاستئناف.
المساءلة : تحديد مسؤولين واضحين عن النشر، والحوادث، والمراقبة، والتراجع قبل الإطلاق.

مقالات قد ترغب في قراءتها بعد هذه المقالة:
🔗 أفضل أدوات الذكاء الاصطناعي لمطوري البرامج: أفضل مساعدي البرمجة المدعومين بالذكاء الاصطناعي
قارن بين أفضل مساعدي البرمجة بالذكاء الاصطناعي للحصول على سير عمل تطوير أسرع وأكثر سلاسة.
🔗 أفضل 10 أدوات ذكاء اصطناعي للمطورين لتعزيز الإنتاجية
قائمة مصنفة لأدوات الذكاء الاصطناعي للمطورين من أجل برمجة أكثر ذكاءً وسرعة.
🔗 لماذا يمكن أن يكون الذكاء الاصطناعي ضاراً بالمجتمع والثقة؟
يشرح الأضرار الواقعية: التحيز، والخصوصية، والوظائف، ومخاطر المعلومات المضللة.
🔗 هل تجاوز الذكاء الاصطناعي الحد في اتخاذ القرارات المصيرية؟
يحدد متى يتجاوز الذكاء الاصطناعي الحدود: المراقبة، والتزييف العميق، والإقناع، وعدم الموافقة.
لماذا تُعد مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي أكثر أهمية مما يعتقد الناس؟
الكثير من أخطاء البرامج مزعجة. زر يتعطل. صفحة تُحمّل ببطء. شيء ما يتعطل والجميع يتذمر.
قد تختلف مشاكل الذكاء الاصطناعي التوليدي. وقد تكون دقيقة.
قد يبدو النموذج واثقًا من نفسه بينما يكون مخطئًا. (ملف تعريف NIST GenAI) يمكنه إعادة إنتاج التحيز دون ظهور علامات تحذير واضحة. (ملف تعريف NIST GenAI) يمكنه كشف بيانات حساسة إذا استُخدم بإهمال. (قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون) (أسئلة ICO الثمانية للذكاء الاصطناعي التوليدي) يمكنه إنتاج كود يعمل - إلى أن يفشل في بيئة الإنتاج بطريقة محرجة للغاية. (قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون) يشبه الأمر إلى حد ما توظيف متدرب متحمس للغاية لا ينام أبدًا، ويختلق الحقائق من حين لآخر بثقة مذهلة.
لهذا السبب، تتجاوز مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي للمعهد الوطني للمعايير والتكنولوجيا - NIST RMF)
وهذا يعني أن المسؤولية تشمل ما يلي:
-
فهم حدود نموذج NIST AI RMF
-
حماية خصوصية المستخدم، إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات
-
تقليل المخرجات الضارة - ملف تعريف الذكاء الاصطناعي العام (NIST GenAI)
-
التحقق من الدقة قبل منح الثقة - ملف تعريف NIST GenAI
-
توضيح دور الإنسان: مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
تصميم مسارات احتياطية عند فشل الذكاء الاصطناعي، مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي ، إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
توثيق النظام بوضوح وفقًا لمبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
كما تعلمون، عندما تبدو الأداة سحرية، يتوقف الناس عن التساؤل عنها. لا يمكن للمطورين أن يكونوا بهذا القدر من الاسترخاء.
ما الذي يجعل النسخة الجيدة من مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي؟ 🛠️
إنّ مفهوم المسؤولية الحقيقي ليس مجرد أداء شكلي، ولا يقتصر على إضافة إخلاء مسؤولية في الأسفل وتسميته بالأخلاقيات. بل يتجلى في خيارات التصميم، وعادات الاختبار، وسلوك المنتج.
إليكم كيف تبدو مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي
-
الاستخدام المتعمد لإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا
-
يتم استخدام الذكاء الاصطناعي لحل مشكلة حقيقية، وليس لفرضه على المنتج لمجرد أنه يبدو عصرياً.
-
-
الإشراف البشري على مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
يمكن للأشخاص مراجعة المخرجات أو تصحيحها أو تجاوزها أو رفضها.
-
-
السلامة بالتصميم: إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
يتم تضمين ضوابط المخاطر في وقت مبكر، وليس إضافتها لاحقاً بشكل مؤقت.
-
-
الشفافية، مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، نظرة عامة على قانون الذكاء الاصطناعي للمفوضية الأوروبية
-
يفهم المستخدمون متى يكون المحتوى مُنشأً بواسطة الذكاء الاصطناعي أو مدعوماً به.
-
-
ثمانية أسئلة من مكتب مفوض المعلومات (ICO) حول رعاية البيانات
-
تُعامل المعلومات الحساسة بعناية، ويتم تقييد الوصول إليها.
-
-
تدقيقات العدالة، ملف تعريف NIST GenAI، إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات
-
يتم اختبار النظام للتأكد من خلوه من التحيز والأداء غير المتكافئ والأنماط الضارة.
-
-
المراقبة المستمرة: الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، إرشادات المركز الوطني للأمن السيبراني (NCSC) بشأن الذكاء الاصطناعي الآمن
-
الانطلاق ليس خط النهاية، بل هو أشبه بصافرة البداية.
-
إذا بدا ذلك كثيرًا، فهو كذلك بالفعل. لكن هذه هي طبيعة العمل مع التكنولوجيا التي يمكنها التأثير على القرارات والمعتقدات والسلوك على نطاق واسع. مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
جدول مقارنة - نظرة سريعة على المسؤولية الأساسية للمطورين الذين يستخدمون الذكاء الاصطناعي التوليدي 📋
| مجال المسؤولية | من يتأثر بذلك | ممارسة المطور اليومية | لماذا يُعد ذلك مهماً؟ |
|---|---|---|---|
| الدقة والتحقق | المستخدمون، الفرق، العملاء | مراجعة المخرجات، إضافة طبقات التحقق، اختبار الحالات الحدية | يمكن للذكاء الاصطناعي أن يكون سلسًا ومع ذلك يخطئ بشكل كبير - وهو مزيج تقريبي وفقًا لملف تعريف NIST GenAI |
| حماية الخصوصية | المستخدمون والعملاء والموظفون الداخليون | قلل من استخدام البيانات الحساسة، ونظّف المطالبات، وتحكّم في السجلات | بمجرد تسريب البيانات الخاصة، يصبح الوضع خارج السيطرة 😬 ثمانية أسئلة من مكتب اكتتاب العملات الرقمية حول الذكاء الاصطناعي التوليدي، وأهم عشرة مخاطر أمنية من OWASP لتطبيقات ماجستير القانون |
| التحيز والإنصاف | الفئات المهمشة، جميع المستخدمين حقاً | تدقيق المخرجات، واختبار المدخلات المتنوعة، وضبط إجراءات الحماية | لا يكون الضرر دائمًا صاخبًا - أحيانًا يكون منهجيًا وهادئًا. ملف تعريف NIST GenAI، إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات. |
| حماية | أنظمة الشركة، المستخدمون | تقييد الوصول إلى النموذج، والحماية من الحقن الفوري، وعزل الإجراءات الخطرة | ثغرة أمنية واحدة ذكية كفيلة بتدمير الثقة بسرعة. قائمة OWASP لأهم 10 ثغرات لتطبيقات ماجستير القانون. المركز الوطني للأمن السيبراني حول الذكاء الاصطناعي والأمن السيبراني. |
| الشفافية | المستخدمون النهائيون، والجهات التنظيمية، وفرق الدعم | قم بتصنيف سلوك الذكاء الاصطناعي بوضوح، واشرح حدوده، ووثّق استخدامه | من حق الناس أن يعرفوا متى تساعد الآلة في تطبيق مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي، ومدونة قواعد الممارسة المتعلقة بوضع العلامات والتصنيفات على المحتوى المُنشأ بواسطة الذكاء الاصطناعي. |
| المساءلة | أصحاب المنتجات، والشؤون القانونية، وفرق التطوير | حدد المسؤوليات، وكيفية التعامل مع الحوادث، ومسارات التصعيد | إنّ عبارة "الذكاء الاصطناعي فعل ذلك" ليست إجابة ناضجة ( مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي). |
| مصداقية | كل من يلمس المنتج | مراقبة حالات الفشل، وتحديد عتبات الثقة، وإنشاء منطق احتياطي | تنحرف النماذج، وتفشل بطرق غير متوقعة، وتشهد من حين لآخر أحداثًا دراماتيكية صغيرة. ( المعهد الوطني للمعايير والتكنولوجيا بشأن إطار إدارة مخاطر الذكاء الاصطناعي، والمركز الوطني للأمن السيبراني بشأن إرشادات الذكاء الاصطناعي الآمن) |
| رفاهية المستخدم | المستخدمون الضعفاء على وجه الخصوص | تجنب التصميم التلاعبي، وقلل من المخرجات الضارة، وراجع حالات الاستخدام عالية الخطورة | لا يعني إمكانية توليد شيء ما بالضرورة وجوب استخدامه وفقًا لمبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية، أو إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا. |
طاولة غير متساوية بعض الشيء، هذا صحيح، لكن هذا يناسب الموضوع. المسؤولية الحقيقية غير متساوية أيضاً.
تبدأ المسؤولية قبل أول ظهور للرسالة - اختيار حالة الاستخدام المناسبة 🎯
من أهم مسؤوليات المطورين تحديد ما إذا كان ينبغي استخدام الذكاء الاصطناعي التوليدي من الأساس . التابع للمعهد الوطني للمعايير والتكنولوجيا - NIST AI RMF)
يبدو هذا بديهيًا، لكنه يُتجاهل باستمرار. ترى الفرق نموذجًا، فتتحمس له، وتبدأ في فرضه على سير العمل الذي يُمكن التعامل معه بشكل أفضل باستخدام القواعد أو البحث أو منطق البرمجيات العادي. ليس كل مشكلة تحتاج إلى نموذج لغوي. بعض المشاكل تحتاج إلى قاعدة بيانات ووقت هادئ.
قبل البدء بالبناء، ينبغي على المطورين أن يسألوا:
-
هل المهمة مفتوحة النهاية أم حتمية؟
-
هل يمكن أن تتسبب المخرجات غير الصحيحة في حدوث ضرر؟
-
هل يحتاج المستخدمون إلى الإبداع، والتنبؤ، والتلخيص، والأتمتة - أم السرعة فقط؟
-
هل سيثق الناس ثقة مفرطة في النتائج؟ ملف تعريف الذكاء الاصطناعي العام الصادر عن المعهد الوطني للمعايير والتكنولوجيا
-
هل يستطيع الإنسان مراجعة النتائج بشكل واقعي؟ مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
ماذا يحدث عندما يكون النموذج خاطئًا؟ مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
لا يكتفي المطور المسؤول بالسؤال: "هل يمكننا بناء هذا؟" بل يسأل: "هل ينبغي بناء هذا بهذه الطريقة؟" (إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا - NIST AI RMF)
هذا السؤال بحد ذاته يمنع الكثير من الهراء البراق.
الدقة مسؤولية وليست ميزة إضافية ✅
لنكن واضحين - أحد أكبر مآزق الذكاء الاصطناعي التوليدي هو الخلط بين البلاغة والحقيقة. غالبًا ما تُنتج النماذج إجابات تبدو مصقولة ومنظمة ومقنعة للغاية. وهذا أمرٌ جميل، إلى أن يصبح المحتوى هراءً مُغلّفًا بالثقة. ملف تعريف الذكاء الاصطناعي التوليدي من المعهد الوطني للمعايير والتكنولوجيا (NIST GenAI Profile).
لذا فإن مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي تشمل البناء من أجل التحقق.
وهذا يعني:
-
باستخدام الاسترجاع أو التأريض حيثما أمكن ذلك، ملف تعريف NIST GenAI
-
فصل المحتوى المُنشأ عن الحقائق المؤكدة - مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
إضافة عتبات الثقة بعناية وفقًا لإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF).
-
إنشاء مسارات مراجعة للمخرجات ذات الأهمية البالغة - مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
منع النموذج من الارتجال في السياقات الحرجة - ملف تعريف NIST GenAI
-
اختبار المطالبات التي تحاول تعطيل النظام أو تضليله: قائمة OWASP لأهم 10 مخاطر أمنية لتطبيقات ماجستير القانون
هذا الأمر مهم للغاية في مجالات مثل:
-
الرعاية الصحية
-
تمويل
-
سير العمل القانوني
-
تعليم
-
خدمة العملاء
-
أتمتة المؤسسات
-
توليد الشفرة
على سبيل المثال، قد يبدو الكود المُولّد أنيقًا ظاهريًا بينما يُخفي ثغرات أمنية أو أخطاء منطقية. المطور الذي ينسخه دون تفكير لا يُحقق الكفاءة، بل يُفوّض المخاطر ببساطة في صورة أجمل. ( قائمة OWASP لأهم 10 تطبيقات ماجستير القانون ، المركز الوطني للأمن السيبراني حول الذكاء الاصطناعي والأمن السيبراني)
يمكن للنموذج أن يُساعد. ويبقى للمطور الحق في النتيجة النهائية. مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي
الخصوصية وحماية البيانات أمران لا يقبلان المساومة 🔐
هنا تبدأ الأمور بالتعقيد سريعًا. تعتمد أنظمة الذكاء الاصطناعي التوليدي غالبًا على المطالبات، والسجلات، ونوافذ السياق، وطبقات الذاكرة، والتحليلات، والبنية التحتية الخارجية. وهذا يخلق فرصًا عديدة لتسريب البيانات الحساسة، أو استمرارها، أو إعادة استخدامها بطرق لم يتوقعها المستخدمون. أسئلة مكتب مفوض المعلومات الثمانية حول الذكاء الاصطناعي التوليدي ، وقائمة OWASP لأهم عشرة مخاطر لتطبيقات ماجستير القانون.
يتحمل المطورون مسؤولية حماية ما يلي:
-
معلومات شخصية
-
السجلات المالية
-
التفاصيل الطبية
-
بيانات الشركة الداخلية
-
الأسرار التجارية
-
رموز المصادقة
-
التواصل مع العملاء
تشمل الممارسات المسؤولة ما يلي:
-
تقليل البيانات التي تدخل النموذج، أسئلة مكتب مفوض المعلومات الثمانية للذكاء الاصطناعي التوليدي
-
إخفاء أو إزالة المعرفات في ملف تعريف NIST GenAI
-
الحد من الاحتفاظ بالسجلات، إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات
-
التحكم في من يمكنه الوصول إلى المطالبات والمخرجات: أهم عشرة مخاطر أمنية (OWASP) لتطبيقات ماجستير القانون
-
مراجعة إعدادات البائع بعناية، إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
عزل سير العمل عالي المخاطر - إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
جعل سلوك الخصوصية مرئيًا للمستخدمين، أسئلة مكتب مفوض المعلومات الثمانية للذكاء الاصطناعي التوليدي
هذا أحد تلك المجالات التي لا يُعد فيها "نسينا التفكير في الأمر" خطأً بسيطاً، بل هو فشلٌ يُخلّ بالثقة.
والثقة، إذا ما انكسرت، تنتشر كالزجاج المتساقط. ربما ليس هذا التشبيه الأنسب، لكنك تفهم المقصود.
التحيز والإنصاف والتمثيل - المسؤوليات الخفية ⚖️
نادراً ما يكون التحيز في الذكاء الاصطناعي التوليدي شريراً نمطياً. بل هو عادةً أكثر دهاءً من ذلك. فقد يُنتج النموذج أوصافاً وظيفية نمطية، أو قرارات تقييم غير متكافئة، أو توصيات غير متوازنة، أو افتراضات ضيقة ثقافياً دون أن يُثير ذلك أي شكوك واضحة. ( ملف تعريف الذكاء الاصطناعي التوليدي الصادر عن المعهد الوطني للمعايير والتكنولوجيا - NIST GenAI Profile)
ولهذا السبب، مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي العمل النشط على تحقيق العدالة.
ينبغي على المطورين:
-
ملف تعريف الذكاء الاصطناعي العام من المعهد الوطني للمعايير والتكنولوجيا (NIST GenAI) - مطالبات اختبار من فئات ديموغرافية وسياقات مختلفة
-
مراجعة مخرجات الصور النمطية والإقصاء - ملف تعريف NIST GenAI
-
إشراك وجهات نظر متنوعة أثناء التقييم، إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF).
-
انتبه لأنماط الفشل غير المتساوية - ملف تعريف الذكاء الاصطناعي العام من المعهد الوطني للمعايير والتكنولوجيا
-
تجنب افتراض أن أسلوب لغة واحد أو معيار ثقافي واحد يناسب الجميع. إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات.
-
إنشاء قنوات للإبلاغ عن المخرجات الضارة (إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا)
قد يبدو النظام فعالاً بشكل عام، بينما يقدم خدماته لبعض المستخدمين بشكل أسوأ من غيرهم. هذا غير مقبول لمجرد أن متوسط الأداء يبدو جيداً على لوحة التحكم. إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات، ملف تعريف NIST GenAI
نعم، العدالة أصعب من مجرد قائمة مُرتبة. فهي تنطوي على تقدير، وسياق، ومفاضلات، وقدر من عدم الارتياح أيضاً. لكن هذا لا يُعفي من المسؤولية، بل يُؤكدها. إرشادات مكتب مفوض المعلومات بشأن الذكاء الاصطناعي وحماية البيانات
أصبح الأمن الآن مزيجاً من التصميم السريع والتخصص الهندسي 🧱
يُعدّ أمن الذكاء الاصطناعي التوليدي مجالًا فريدًا من نوعه. فبالتأكيد، لا يزال أمن التطبيقات التقليدية مهمًا، لكن أنظمة الذكاء الاصطناعي تُضيف ثغرات أمنية غير مألوفة، مثل: حقن التعليمات البرمجية، والتلاعب غير المباشر بها، واستخدام الأدوات بطريقة غير آمنة، وتسريب البيانات عبر السياق، وإساءة استخدام النماذج من خلال سير العمل الآلي. ( قائمة OWASP لأهم 10 ثغرات أمنية لتطبيقات ماجستير القانون، وتقرير المركز الوطني للأمن السيبراني حول الذكاء الاصطناعي والأمن السيبراني).
يتحمل المطورون مسؤولية تأمين النظام بأكمله، وليس فقط واجهة المستخدم. إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
تشمل المسؤوليات الرئيسية هنا ما يلي:
-
تطهير المدخلات غير الموثوقة: أهم عشرة مخاطر أمنية وفقًا لمعيار OWASP لتطبيقات ماجستير القانون
-
تقييد الأدوات التي يمكن للنموذج استدعاؤها ضمن قائمة OWASP Top 10 لتطبيقات ماجستير القانون
-
تقييد الوصول إلى الملفات والشبكة - إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
الفصل الواضح للأذونات - إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
مراقبة أنماط إساءة الاستخدام، إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن
-
تحديد معدل الإجراءات المكلفة أو الخطرة: أهم عشرة مخاطر أمنية وفقًا لـ OWASP لتطبيقات ماجستير القانون
-
اختبار المطالبات العدائية: قائمة OWASP لأهم 10 مخاطر لتطبيقات ماجستير القانون
-
بناء خطط احتياطية آمنة عند تعارض التعليمات مع مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
من الحقائق المزعجة أن المستخدمين - والمهاجمين - سيحاولون بالتأكيد القيام بأشياء لم يتوقعها المطورون. بعضهم بدافع الفضول، وبعضهم بدافع الخبث، وبعضهم لأنهم نقروا على شيء خاطئ في الساعة الثانية صباحًا. يحدث هذا.
إن أمن الذكاء الاصطناعي التوليدي لا يشبه بناء جدار، بل يشبه إدارة حارس بوابة كثير الكلام ينخدع أحيانًا بالصياغة.
الشفافية وموافقة المستخدم أهم من تجربة المستخدم البراقة 🗣️
عندما يتفاعل المستخدمون مع الذكاء الاصطناعي، ينبغي أن يكونوا على دراية بذلك. بمبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية بشأن وضع العلامات والتصنيفات على المحتوى المُنشأ بواسطة الذكاء الاصطناعي
ليس بشكل مبهم. ليس مدفوناً في المصطلحات. بشكل واضح.
يُعد ضمان فهم المستخدمين لما يلي جزءًا أساسيًا من مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي
-
عند استخدام الذكاء الاصطناعي، مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
-
ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله - مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
-
ما إذا كانت المخرجات تخضع لمراجعة بشرية وفقًا لمبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
كيفية معالجة بياناتهم، أسئلة مكتب مفوض المعلومات الثمانية للذكاء الاصطناعي التوليدي
-
ما هو مستوى الثقة الذي ينبغي أن يتمتعوا به؟ إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF)
-
كيفية الإبلاغ عن المشاكل أو استئناف القرارات، مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية ، إطار إدارة مخاطر الذكاء الاصطناعي للمعهد الوطني للمعايير والتكنولوجيا
الشفافية لا تتعلق بتخويف المستخدمين، بل باحترامهم.
قد تشمل الشفافية الجيدة ما يلي:
-
شرح مبسط لمبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
سجلات التعديل المرئية عند الاقتضاء
-
خيارات لإيقاف تشغيل ميزات الذكاء الاصطناعي
-
تصعيد الأمر إلى شخص عند الحاجة - مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
تحذيرات موجزة للمهام عالية الخطورة - نظرة عامة على قانون الذكاء الاصطناعي للمفوضية الأوروبية
يخشى العديد من فرق تطوير المنتجات أن تجعل الصراحة الميزة أقل سحراً. ربما. لكن اليقين الزائف أسوأ. فالواجهة السلسة التي تخفي المخاطر ليست سوى فوضى مصقولة.
يظل المطورون مسؤولين – حتى عندما "يقرر" النموذج 👀
هذا الجزء بالغ الأهمية. لا يمكن تفويض المسؤولية إلى مورد النموذج، أو بطاقة النموذج، أو قالب التوجيه، أو حتى إلى عالم التعلم الآلي الغامض. مبادئ منظمة التعاون الاقتصادي والتنمية للذكاء الاصطناعي، وإطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا.
لا يزال المطورون مسؤولين. مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
وهذا يعني أنه يجب على أحد أعضاء الفريق امتلاك ما يلي:
-
اختيار النموذج NIST AI RMF
-
معايير الاختبار - ملف تعريف الذكاء الاصطناعي العام من المعهد الوطني للمعايير والتكنولوجيا
-
معايير الإصدار - ملف تعريف NIST GenAI
-
إرشادات المركز الوطني للأمن السيبراني بشأن الاستجابة للحوادث المتعلقة
-
معالجة شكاوى المستخدمين - إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا
-
إجراءات التراجع، مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
تتبع التغييرات في مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
-
وثائق مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
ينبغي أن تكون هناك إجابات واضحة لأسئلة مثل:
-
من يوافق على النشر؟ ملف تعريف الذكاء الاصطناعي العام الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST GenAI)
-
من يُراجع حوادث المخرجات الضارة؟ ملف تعريف الذكاء الاصطناعي العام التابع للمعهد الوطني للمعايير والتكنولوجيا
-
من يستطيع تعطيل هذه الخاصية؟ مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
-
من يراقب حدوث التراجعات؟ إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST AI RMF)
-
من يتواصل مع المستخدمين عند حدوث عطل؟ مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية
بدون تحديد المسؤولية، تتحول المسؤولية إلى ضباب. يفترض الجميع أن شخصًا آخر يتولى الأمر... ثم لا أحد يفعل ذلك.
هذا النمط أقدم من الذكاء الاصطناعي في الحقيقة. الذكاء الاصطناعي ببساطة يجعله أكثر خطورة.
المطورون المسؤولون يبنون بهدف التصحيح، لا الكمال 🔄
يكمن الاختلاف البسيط في كل هذا في أن تطوير الذكاء الاصطناعي المسؤول لا يعني التظاهر بأن النظام سيكون مثاليًا، بل يعني افتراض أنه سيفشل بطريقة أو بأخرى، والتصميم بناءً على هذا الواقع. (إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا - NIST RMF)
وهذا يعني بناء منتجات تتسم بما يلي:
-
مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية القابلة للتدقيق
-
يمكن مراجعة القرارات والنتائج لاحقاً
-
-
مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية القابلة للمقاطعة
-
بإمكان البشر إيقاف السلوك السيئ أو تجاوزه
-
-
مبادئ الذكاء الاصطناعي القابلة للاسترداد
-
يوجد حل بديل عندما تكون مخرجات الذكاء الاصطناعي خاطئة
-
-
إرشادات المركز الوطني للأمن السيبراني (NCSC) للذكاء الاصطناعي الآمن والقابل للمراقبة، وإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST).
-
تستطيع الفرق رصد الأنماط قبل أن تتحول إلى كوارث
-
-
ملف تعريف NIST GenAI قابل للتحسين
-
توجد حلقات تغذية راجعة، وهناك من يقرأها
-
هذا هو النضج الحقيقي. ليس عروضًا توضيحية براقة، ولا نصوصًا تسويقية مُنمّقة. بل أنظمة حقيقية، مزودة بضوابط، وسجلات، ومساءلة، وتواضع كافٍ للاعتراف بأن الآلة ليست ساحرة. إرشادات المركز الوطني للأمن السيبراني بشأن الذكاء الاصطناعي الآمن، ومبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي.
لأنه ليس كذلك. إنه أداة. أداة قوية، نعم. لكنها تبقى أداة.
ختامًا، تأملات حول مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي 🌍
إذن، ما هي مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي ؟
يكمن جوهر الأمر في البناء بعناية، والتساؤل عن مواطن النفع والضرر في النظام، وحماية الخصوصية، واختبار التحيز، والتحقق من المخرجات، وتأمين سير العمل، والشفافية مع المستخدمين، وإبقاء العنصر البشري متحكمًا بشكل فعّال، وتحمّل المسؤولية عند حدوث الأخطاء. ( الذكاء الاصطناعي الصادرة عن المعهد الوطني للمعايير والتكنولوجيا، ومبادئ الذكاء الاصطناعي الصادرة عن منظمة التعاون الاقتصادي والتنمية)
قد يبدو هذا الكلام ثقيلاً - وهو كذلك بالفعل. ولكنه أيضاً ما يميز التطوير المدروس عن الأتمتة المتهورة.
أفضل مطوري الذكاء الاصطناعي التوليدي ليسوا من يجعلون النموذج يؤدي أكبر عدد من الحيل، بل هم من يفهمون عواقب تلك الحيل، ويصممون وفقًا لذلك. إنهم يدركون أهمية السرعة، لكن الثقة هي المنتج الحقيقي. ومن الغريب أن هذه الفكرة القديمة لا تزال صالحة. (إطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا - NIST AI RMF)
في النهاية، المسؤولية ليست عائقًا أمام الابتكار، بل هي ما يمنع الابتكار من التحول إلى مشروع ضخم ومكلف ومضطرب، ذي واجهة مصقولة ومشكلة ثقة 😬✨
وربما هذه هي أبسط نسخة من الأمر.
ابنِ بجرأة، بالتأكيد - ولكن ابنِ وكأن الناس قد يتأثرون، لأنهم كذلك بالفعل. مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي
التعليمات
ما هي مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي في الممارسة العملية؟
تتجاوز مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي مجرد إطلاق الميزات بسرعة. فهي تشمل اختيار حالة الاستخدام المناسبة، واختبار المخرجات، وحماية الخصوصية، والحد من السلوكيات الضارة، وجعل النظام سهل الفهم للمستخدمين. عمليًا، يظل المطورون مسؤولين عن كيفية تصميم الأداة ومراقبتها وتصحيحها وإدارتها عند حدوث أي عطل.
لماذا يحتاج الذكاء الاصطناعي التوليدي إلى مسؤولية أكبر من جانب المطورين مقارنة بالبرامج العادية؟
غالباً ما تكون الأخطاء البرمجية التقليدية واضحة، لكن إخفاقات الذكاء الاصطناعي التوليدي قد تبدو مصقولة ظاهرياً، بينما تظل خاطئة أو متحيزة أو محفوفة بالمخاطر. هذا يجعل اكتشاف المشاكل أكثر صعوبة، ويسهل على المستخدمين الوثوق بها عن طريق الخطأ. يعمل المطورون مع أنظمة احتمالية، لذا تشمل مسؤوليتهم التعامل مع عدم اليقين، والحد من الضرر، والاستعداد للمخرجات غير المتوقعة قبل الإطلاق.
كيف يعرف المطورون متى لا ينبغي استخدام الذكاء الاصطناعي التوليدي؟
تتمثل نقطة البداية الشائعة في التساؤل عما إذا كانت المهمة مفتوحة النهاية أم يُفضل التعامل معها باستخدام القواعد أو البحث أو منطق البرمجيات القياسي. كما ينبغي للمطورين مراعاة حجم الضرر الذي قد تُسببه الإجابة الخاطئة، وما إذا كان بإمكان الإنسان مراجعة النتائج بشكل واقعي. وفي بعض الأحيان، يعني الاستخدام المسؤول عدم استخدام الذكاء الاصطناعي التوليدي على الإطلاق.
كيف يمكن للمطورين تقليل الهلوسات والإجابات الخاطئة في أنظمة الذكاء الاصطناعي التوليدية؟
يجب تصميم الدقة مسبقًا، لا افتراضها. في العديد من مسارات العمل، يعني ذلك ربط المخرجات بمصادر موثوقة، وفصل النصوص المُولّدة عن الحقائق المُثبتة، واستخدام آليات مراجعة للمهام عالية المخاطر. كما ينبغي على المطورين اختبار الرسائل التي تهدف إلى إرباك النظام أو تضليله، لا سيما في مجالات مثل البرمجة، والدعم، والمالية، والتعليم، والرعاية الصحية.
ما هي مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي فيما يتعلق بالخصوصية والبيانات الحساسة؟
تتضمن مسؤولية المطورين الذين يستخدمون الذكاء الاصطناعي التوليدي تقليل البيانات المُدخلة إلى النموذج، والتعامل مع المطالبات والسجلات والمخرجات بحساسية. ينبغي على المطورين إزالة المعرّفات كلما أمكن، والحد من مدة الاحتفاظ بالبيانات، والتحكم في الوصول إليها، ومراجعة إعدادات المورّد بعناية. كما ينبغي أن يكون المستخدمون قادرين على فهم كيفية معالجة بياناتهم، بدلاً من اكتشاف المخاطر لاحقًا.
كيف ينبغي للمطورين التعامل مع التحيز والإنصاف في مخرجات الذكاء الاصطناعي التوليدي؟
يتطلب العمل على معالجة التحيز تقييمًا دقيقًا، لا مجرد افتراضات. يتمثل أحد الأساليب العملية في اختبار المطالبات عبر مختلف الفئات السكانية واللغات والسياقات، ثم مراجعة النتائج بحثًا عن الصور النمطية أو الإقصاء أو أنماط الفشل غير المتكافئة. كما ينبغي للمطورين ابتكار طرق تمكّن المستخدمين أو الفرق من الإبلاغ عن السلوكيات الضارة، لأن النظام قد يبدو قويًا بشكل عام ولكنه مع ذلك يُخفق في أداء بعض الفئات باستمرار.
ما هي المخاطر الأمنية التي يجب على المطورين التفكير فيها فيما يتعلق بالذكاء الاصطناعي التوليدي؟
يُقدّم الذكاء الاصطناعي التوليدي ثغرات أمنية جديدة، تشمل حقن البيانات في التعليمات البرمجية، واستخدام الأدوات بطريقة غير آمنة، وتسريب البيانات عبر السياق، وإساءة استخدام الإجراءات الآلية. لذا، ينبغي على المطورين تنقية المدخلات غير الموثوقة، وتقييد صلاحيات الأدوات، والحد من الوصول إلى الملفات والشبكة، ومراقبة أنماط سوء الاستخدام. لا يقتصر الأمن على واجهة المستخدم فحسب، بل يشمل سير العمل الكامل المتعلق بالنموذج.
لماذا تعتبر الشفافية مهمة عند البناء باستخدام الذكاء الاصطناعي التوليدي؟
ينبغي للمستخدمين أن يعرفوا بوضوح متى يُستخدم الذكاء الاصطناعي، وما يمكنه فعله، وحدوده. ويمكن تحقيق الشفافية الجيدة من خلال استخدام مصطلحات مثل "مُولّد بواسطة الذكاء الاصطناعي" أو "مُساعد بواسطة الذكاء الاصطناعي"، وتقديم شروحات مبسطة، وتوفير قنوات واضحة للتواصل مع الدعم البشري. هذا النوع من الصراحة لا يُضعف المنتج، بل يُساعد المستخدمين على بناء الثقة واتخاذ قرارات أفضل.
من يتحمل المسؤولية عندما تتسبب ميزة الذكاء الاصطناعي التوليدي في حدوث ضرر أو ترتكب خطأً ما؟
يظل المطورون وفرق المنتج مسؤولين عن النتيجة، حتى عندما يُنتج النموذج الإجابة. وهذا يعني ضرورة وجود مسؤولية واضحة عن الموافقة على النشر، ومعالجة الحوادث، والتراجع، والمراقبة، والتواصل مع المستخدمين. لا يكفي القول بأن "النموذج هو من قرر"، لأن المسؤولية يجب أن تبقى على عاتق من صمموا النظام وأطلقوه.
كيف سيبدو تطوير الذكاء الاصطناعي التوليدي المسؤول بعد الإطلاق؟
يستمر التطوير المسؤول بعد الإصدار من خلال المراقبة والتغذية الراجعة والمراجعة والتصحيح. تتميز الأنظمة القوية بإمكانية التدقيق والتعطيل والاستعادة، كما أنها مصممة بآليات احتياطية في حال تعطل الذكاء الاصطناعي. الهدف ليس الكمال، بل بناء نظام يمكن فحصه وتحسينه وتعديله بأمان عند ظهور مشاكل واقعية.
مراجع
-
المعهد الوطني للمعايير والتكنولوجيا (NIST) - ملف تعريف NIST GenAI - nvlpubs.nist.gov
-
OWASP - قائمة OWASP لأهم 10 ثغرات أمنية لتطبيقات ماجستير القانون - owasp.org
-
مكتب مفوض المعلومات (ICO) - أسئلة مكتب مفوض المعلومات الثمانية حول الذكاء الاصطناعي التوليدي - ico.org.uk