يعد الذكاء الاصطناعي بالسرعة والنطاق الواسع، وربما ببعض القدرات الخارقة. لكن بريقه قد يحجب الرؤية. إذا كنت تتساءل: لماذا يُعدّ الذكاء الاصطناعي ضارًا بالمجتمع؟، فهذا الدليل يُبيّن لك أبرز أضراره بلغة بسيطة، مع أمثلة وحلول، وبعض الحقائق غير المريحة. إنه ليس ضد التكنولوجيا، بل هو مؤيد للواقع.
مقالات قد ترغب في قراءتها بعد هذه المقالة:
🔗 كمية المياه التي يستخدمها الذكاء الاصطناعي
يشرح هذا المقال استهلاك الذكاء الاصطناعي المفاجئ للمياه وسبب أهميته على مستوى العالم.
🔗 ما هي مجموعة بيانات الذكاء الاصطناعي؟
يشرح بالتفصيل بنية مجموعة البيانات ومصادرها وأهميتها لتدريب النماذج.
🔗 كيف يتنبأ الذكاء الاصطناعي بالاتجاهات؟
يوضح كيف تحلل الخوارزميات الأنماط للتنبؤ بالنتائج بدقة.
🔗 كيفية قياس أداء الذكاء الاصطناعي
يغطي هذا الدليل المقاييس الرئيسية لتقييم دقة النموذج وسرعته وموثوقيته.
إجابة سريعة: لماذا يُعدّ الذكاء الاصطناعي ضارًا بالمجتمع؟ ⚠️
لأنّ الذكاء الاصطناعي، في غياب ضوابط صارمة، قادر على تضخيم التحيز، وإغراق فضاء المعلومات بمعلومات مزيفة مقنعة، وتعزيز المراقبة بشكل كبير، وتسريح العمال بوتيرة أسرع من إعادة تدريبهم، وإجهاد أنظمة الطاقة والمياه، واتخاذ قرارات مصيرية يصعب مراجعتها أو الطعن فيها. وقد حذّرت هيئات المعايير والجهات التنظيمية الرائدة من هذه المخاطر لسبب وجيه. [1][2][5]
قصة (مركبة): يقوم مُقرض إقليمي بتجربة أداة ذكاء اصطناعي لفرز القروض. تُحسّن هذه الأداة سرعة المعالجة، لكن مراجعة مستقلة تُشير إلى أن أداء النموذج ضعيف بالنسبة للمتقدمين من مناطق بريدية مُحددة مرتبطة بسياسات التمييز العنصري في الإقراض. الحل ليس مجرد مذكرة، بل يتطلب العمل على البيانات والسياسات والمنتج. يتكرر هذا النمط مرارًا وتكرارًا في هذا المقال.
لماذا يُعدّ الذكاء الاصطناعي ضارًا بالمجتمع؟ حجج مقنعة ✅
تؤدي الانتقادات الجيدة ثلاثة أشياء:
-
أشر إلى أدلة قابلة للتكرار على الضرر أو زيادة المخاطر، وليس إلى المشاعر - على سبيل المثال، أطر المخاطر والتقييمات التي يمكن لأي شخص قراءتها وتطبيقها. [1]
-
أظهر الديناميكيات الهيكلية مثل أنماط التهديد على مستوى النظام وحوافز سوء الاستخدام، وليس مجرد الحوادث الفردية. [2]
-
تقديم تدابير تخفيف محددة تتوافق مع أدوات الحوكمة الحالية (إدارة المخاطر، والتدقيق، والإرشادات القطاعية)، وليس دعوات غامضة لـ "الأخلاقيات". [1][5]
أعلم، يبدو الأمر معقولاً بشكل مزعج. لكن هذا هو المعيار.

الأضرار، بعد تفصيلها
1) التحيز والتمييز والقرارات غير العادلة 🧭
يمكن للخوارزميات تقييم الأشخاص وتصنيفهم وتصنيفهم بطرق تعكس بيانات منحرفة أو تصميمًا معيبًا. وتحذر هيئات وضع المعايير صراحةً من أن مخاطر الذكاء الاصطناعي غير المُدارة - كالإنصاف، وقابلية التفسير، والخصوصية - تتحول إلى أضرار حقيقية في حال إهمال القياس والتوثيق والحوكمة. [1]
لماذا يُعدّ هذا الأمر سيئاً على الصعيد المجتمعي؟ لأن الأدوات المتحيزة على نطاق واسع تُقيّد بشكل غير مباشر الحصول على الائتمان والوظائف والإسكان والرعاية الصحية. يُساعد الاختبار والتوثيق والتدقيق المستقل - ولكن فقط إذا قمنا بها بالفعل. [1]
٢) المعلومات المضللة، والتزييف العميق، وتآكل الواقع 🌀
أصبح من السهل الآن تزييف الصوت والفيديو والنصوص بواقعية مذهلة. وتشير تقارير الأمن السيبراني إلى أن الخصوم يستخدمون بنشاط الوسائط الاصطناعية والهجمات على مستوى النماذج لتقويض الثقة وتعزيز عمليات الاحتيال والتأثير. [2]
لماذا يُعدّ هذا الأمر سيئاً على الصعيد المجتمعي؟ ينهار مستوى الثقة عندما يستطيع أي شخص الادعاء بأن أي مقطع فيديو مزيف أو حقيقي، حسب ما يناسبه. صحيح أن الوعي الإعلامي يُساعد، لكن معايير أصالة المحتوى والتنسيق بين المنصات المختلفة أهم. [2]
3) المراقبة الجماعية والضغط على الخصوصية 🕵️♀️
يُقلل الذكاء الاصطناعي من تكلفة تتبع السكان على مستوى واسع - الوجوه والأصوات وأنماط الحياة. وتشير تقييمات المشهد التهديدي إلى الاستخدام المتزايد لدمج البيانات والتحليلات المدعومة بالنماذج، والتي يمكن أن تحول أجهزة الاستشعار المتناثرة إلى أنظمة مراقبة فعلية إذا لم يتم ضبطها. [2]
لماذا يُعدّ ذلك سيئاً على الصعيد الاجتماعي: يصعب إدراك آثاره السلبية على حرية التعبير والتواصل إلا بعد وقوعها. ينبغي أن تسبق عملية التطبيق، لا أن تتأخر عنها بمسافة طويلة. [2]
4) الوظائف والأجور وعدم المساواة 🧑🏭→🤖
يمكن للذكاء الاصطناعي أن يرفع الإنتاجية، بلا شك، لكن تأثيره متفاوت. فقد كشفت استطلاعات رأي أجريت على مستوى الدول شملت أصحاب العمل والعمال عن فوائد محتملة ومخاطر اضطراب، حيث تكون بعض المهام والوظائف أكثر عرضة من غيرها. يُسهم تطوير المهارات في ذلك، لكن التحولات تؤثر على الأسر بشكل مباشر وفوري. [3]
لماذا يعتبر ذلك سيئاً على الصعيد الاجتماعي: إذا تركزت مكاسب الإنتاجية بشكل رئيسي في عدد قليل من الشركات أو مالكي الأصول، فإننا نزيد من عدم المساواة بينما نتجاهل الأمر بشكل مهذب تجاه الجميع الآخرين. [3]
5) الأمن السيبراني واستغلال النماذج 🧨
تُوسّع أنظمة الذكاء الاصطناعي نطاق الهجمات الإلكترونية، بما في ذلك تسميم البيانات، والحقن الفوري، وسرقة النماذج، وثغرات سلسلة التوريد في الأدوات المستخدمة في تطبيقات الذكاء الاصطناعي. وتوثّق التقارير الأوروبية عن التهديدات إساءة استخدام الوسائط الاصطناعية في الواقع العملي، وعمليات اختراق أنظمة التشغيل، وحملات التسميم. [2]
لماذا يُعدّ ذلك سيئاً على الصعيد الاجتماعي؟ عندما يصبح ما يحمي القلعة هو الجسر المتحرك الجديد. يجب تطبيق مبدأ الأمان بالتصميم والتحصين على مسارات الذكاء الاصطناعي - وليس فقط على التطبيقات التقليدية. [2]
6) تكاليف الطاقة والمياه والبيئة 🌍💧
قد يستهلك تدريب النماذج الضخمة وخدمتها كميات كبيرة من الكهرباء والمياه عبر مراكز البيانات. ويتتبع محللو الطاقة الدوليون حاليًا الطلب المتزايد بسرعة، ويحذرون من تأثيرات ذلك على شبكة الكهرباء مع ازدياد أحمال عمل الذكاء الاصطناعي. والهدف هو التخطيط، لا الذعر. [4]
لماذا يعتبر ذلك سيئاً على المستوى المجتمعي: يظهر الضغط غير المرئي على البنية التحتية في صورة فواتير أعلى، وازدحام في الشبكة، ومعارك حول المواقع - غالباً في المجتمعات ذات النفوذ الأقل. [4]
7) الرعاية الصحية وغيرها من القرارات المصيرية 🩺
تُشير السلطات الصحية العالمية إلى قضايا تتعلق بالسلامة، وقابلية التفسير، والمسؤولية، وحوكمة البيانات في مجال الذكاء الاصطناعي السريري. فمجموعات البيانات غير منظمة، والأخطاء مكلفة، ويجب أن تكون الرقابة على مستوى سريري. [5]
لماذا يُعدّ هذا الأمر سيئاً من الناحية المجتمعية؟ قد تبدو ثقة الخوارزمية وكأنها كفاءة، لكنها ليست كذلك. يجب أن تعكس الضوابط الحقائق الطبية، لا مجرد انطباعات تجريبية. [5]
جدول مقارنة: أدوات عملية للحد من الضرر
(نعم، العناوين غريبة عن قصد)
| أداة أو سياسة | جمهور | سعر | لماذا ينجح الأمر... نوعاً ما |
|---|---|---|---|
| إطار عمل إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا | فرق المنتج والأمن والإدارة التنفيذية | الوقت + عمليات التدقيق | لغة مشتركة لإدارة المخاطر، وضوابط دورة الحياة، وهيكل الحوكمة. ليست عصا سحرية. [1] |
| عمليات تدقيق النماذج المستقلة وفرق التقييم الأحمر | المنصات، والشركات الناشئة، والوكالات | متوسط إلى مرتفع | يكتشف السلوكيات الخطيرة والإخفاقات قبل أن يكتشفها المستخدمون. يحتاج إلى الاستقلالية ليكون ذا مصداقية. [2] |
| مصدر البيانات ومصداقية المحتوى | وسائل الإعلام، والمنصات، وصانعو الأدوات | الأدوات + العمليات | يساعد في تتبع المصادر وكشف التزييف على نطاق واسع عبر مختلف الأنظمة البيئية. ليس مثالياً، ولكنه لا يزال مفيداً. [2] |
| خطط انتقال القوى العاملة | الموارد البشرية، والتدريب والتطوير، وصناع السياسات | إعادة تأهيل المهارات $$ | يؤدي رفع مستوى المهارات المستهدف وإعادة تصميم المهام إلى الحد من الإزاحة في الأدوار المكشوفة؛ وقياس النتائج، وليس الشعارات. [3] |
| إرشادات قطاع الصحة | المستشفيات والهيئات التنظيمية | وقت السياسة | يتماشى النشر مع الأخلاقيات والسلامة والتحقق السريري. ضع المرضى في المقام الأول. [5] |
نظرة معمقة: كيف يتسلل التحيز فعلياً 🧪
-
البيانات المتحيزة – السجلات التاريخية تتضمن التمييز السابق؛ النماذج تعكسه ما لم يتم قياسه والتخفيف منه. [1]
-
تغير السياقات – قد ينهار نموذج ناجح في مجتمع ما في مجتمع آخر؛ تتطلب الحوكمة تحديد النطاق والتقييم المستمر. [1]
-
المتغيرات البديلة – إن حذف السمات المحمية ليس كافياً؛ فالسمات المرتبطة تعيد إدخالها. [1]
الخطوات العملية: توثيق مجموعات البيانات، وإجراء تقييمات الأثر، وقياس النتائج عبر المجموعات، ونشر النتائج. إذا لم تكن لتدافع عنه في الصفحة الأولى، فلا تنشره. [1]
تحليل معمق: لماذا تلتصق المعلومات المضللة بالذكاء الاصطناعي إلى هذا الحد؟ 🧲
-
السرعة + التخصيص = منتجات مزيفة تستهدف المجتمعات الصغيرة.
-
استغلال عدم اليقين - عندما يكون كل شيء مزيفًا ، لا يحتاج الفاعلون السيئون إلا إلى زرع الشك.
-
تأخر التحقق – معايير المصدر ليست عالمية بعد؛ الوسائط الأصلية تخسر السباق ما لم تنسق المنصات. [2]
تحليل معمق: موعد استحقاق فاتورة البنية التحتية 🧱
-
الطاقة – تؤدي أحمال العمل المتعلقة بالذكاء الاصطناعي إلى زيادة استهلاك مراكز البيانات للكهرباء؛ وتشير التوقعات إلى نمو حاد خلال هذا العقد. [4]
-
المائي ضغطاً على الأنظمة المحلية، وأحياناً في المناطق المعرضة للجفاف.
-
النزاعات حول اختيار المواقع - تعترض المجتمعات عندما تتلقى التكاليف دون وجود فوائد.
الحلول: الكفاءة، النماذج الأصغر/الأكثر بساطة، الاستدلال خارج أوقات الذروة، التموضع بالقرب من مصادر الطاقة المتجددة، الشفافية بشأن استخدام المياه. من السهل قول ذلك، لكن من الصعب فعله. [4]
قائمة مراجعة تكتيكية للقادة الذين لا يرغبون في تصدر العناوين 🧰
-
قم بإجراء تقييم لمخاطر الذكاء الاصطناعي مرتبط بسجل مباشر للأنظمة المستخدمة. حدد التأثيرات على الأشخاص، وليس فقط على اتفاقيات مستوى الخدمة. [1]
-
قم بتطبيق التحقق من صحة المحتوى وخطط الاستجابة للحوادث المتعلقة بالتزييف العميق الذي يستهدف مؤسستك. [2]
-
يجب إنشاء عمليات تدقيق مستقلة وفرق اختبار الاختراق للأنظمة الحيوية. إذا كان القرار يعتمد على الأشخاص، فإنه يستحق التدقيق. [2]
-
في حالات الاستخدام الصحي، اتبع إرشادات القطاع وأصر على التحقق السريري، وليس على معايير العرض التوضيحي. [5]
-
نشر الأزواج مع إعادة تصميم المهام ورفع مستوى المهارات بشكل ربع سنوي. [3]
إجابات الأسئلة الشائعة حول التلميح 🙋♀️
-
أليس الذكاء الاصطناعي مفيدًا أيضًا؟ بالطبع. هذا السؤال يُحدد مواطن الخلل حتى نتمكن من إصلاحها.
-
ألا يمكننا ببساطة إضافة الشفافية؟ هذا مفيد، لكنه غير كافٍ. أنت بحاجة إلى الاختبار والمراقبة والمساءلة. [1]
-
هل ستؤدي القوانين إلى القضاء على الابتكار؟ تميل القواعد الواضحة إلى تقليل حالة عدم اليقين وتحفيز الاستثمار. وتتعلق أطر إدارة المخاطر تحديداً بكيفية البناء بأمان. [1]
باختصار شديد وأفكار أخيرة 🧩
لماذا يُعدّ الذكاء الاصطناعي ضارًا بالمجتمع؟ لأنّ الحجم الهائل + الغموض + تضارب الحوافز = مخاطر. فإذا تُرك الذكاء الاصطناعي دون رادع، فإنه قد يُرسّخ التحيّز، ويُقوّض الثقة، ويُغذّي المراقبة، ويستنزف الموارد، ويتخذ قراراتٍ ينبغي أن يكون للبشر حقّ الطعن فيها. في المقابل، لدينا بالفعل بنية تحتية تُتيح لنا تحسين الوضع - أطر إدارة المخاطر، وعمليات التدقيق، ومعايير المصداقية، والإرشادات القطاعية. لا يتعلق الأمر بكبح جماحه، بل بتطبيق هذه البنية، ومراقبة أدائه، وتذكّر أنّ هناك بشرًا حقيقيين يُديرون الأمور. [1][2][5]
مراجع
-
المعهد الوطني للمعايير والتكنولوجيا (NIST) – إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0). رابط
-
وكالة الأمن السيبراني للاتحاد الأوروبي (ENISA) - المشهد التهديدي لعام 2025. رابط
-
منظمة التعاون الاقتصادي والتنمية – أثر الذكاء الاصطناعي على بيئة العمل: أهم نتائج استطلاعات منظمة التعاون الاقتصادي والتنمية حول الذكاء الاصطناعي لأصحاب العمل والعمال . رابط
-
وكالة الطاقة الدولية – الطاقة والذكاء الاصطناعي (الطلب على الكهرباء وتوقعاته). رابط
-
منظمة الصحة العالمية – أخلاقيات وحوكمة الذكاء الاصطناعي في مجال الصحة . رابط
ملاحظات حول النطاق والتوازن: تستند نتائج منظمة التعاون الاقتصادي والتنمية إلى استطلاعات رأي في قطاعات/دول محددة؛ لذا يُرجى تفسيرها مع مراعاة هذا السياق. يعكس تقييم وكالة الأمن السيبراني للاتحاد الأوروبي (ENISA) صورة التهديدات في الاتحاد الأوروبي، ولكنه يُسلط الضوء على أنماط ذات صلة عالمية. يقدم تقرير وكالة الطاقة الدولية توقعات نموذجية، وليست حقائق مؤكدة؛ فهو بمثابة إشارة تخطيطية، وليس تنبؤًا.