أخبار الذكاء الاصطناعي، 22 فبراير 2026

موجز أخبار الذكاء الاصطناعي: 22 فبراير 2026

🏫 في بعض المدارس، تستجوب برامج الدردشة الآلية الطلاب حول أعمالهم. لكن ثورة الذكاء الاصطناعي تثير قلق المعلمين

تُجرّب بعض المدارس الأسترالية أسلوبًا أكثر دقةً من أسلوب "إظهار خطوات الحل" - حيث يُنهي الطلاب واجبًا، ثم يقوم برنامج دردشة آليّ باختبارهم في حوار تفاعليّ للتأكد من فهمهم لما قدّموه. إنه أشبه باختبار شفوي، لكن مع جهاز يسأل "ماذا تقصد بذلك؟" حتى يبدأ الطالب بالتململ.

يكمن القلق الأكبر في التوزيع غير المتكافئ: إذ تحذر دراسة متخصصة من أن المتبنين السريعين قد يتقدمون بخطى حثيثة بينما يتخلف الآخرون، مما يخلق نظامًا تعليميًا ذا سرعتين مختلفتين. كما يواصل المعلمون إثارة المخاوف المألوفة - والتي لا تزال خطيرة -: الخصوصية، والرفاهية، وكيفية منع تحول "المساعدة بالذكاء الاصطناعي" إلى "التنفيذ بالذكاء الاصطناعي".

👮 تستخدم شرطة العاصمة أدوات الذكاء الاصطناعي التي توفرها شركة بالانتير لرصد سوء سلوك الضباط

تستخدم شرطة العاصمة لندن تقنية الذكاء الاصطناعي التي توفرها شركة بالانتير لتحليل أنماط القوى العاملة الداخلية - كالمرض والغياب والعمل الإضافي - بحثًا عن مؤشرات قد ترتبط بمشاكل المعايير المهنية. ويُطرح هذا المشروع كتجربة محدودة المدة، والأهم من ذلك، أن شرطة العاصمة تؤكد أن البشر ما زالوا يتخذون القرارات الفعلية... ولكن هذا "ما زال" يعني القيام بالكثير من العمل.

لم يُبدِ اتحاد الشرطة أي حماس، واصفًا الأمر بـ"الاشتباه الآلي"، ومحذرًا من أن الأدوات المبهمة قد تُفسّر الإجهاد وعبء العمل بشكل خاطئ على أنهما مخالفات. إنها من تلك اللحظات التي تبدو فيها التقنية جذابة على الشاشة، ثم تتخيل كيف يكون تطبيقها على أرض الواقع، فتجدها مُزعجة للغاية.

🛡️ هيئة مراقبة الخصوصية في المملكة المتحدة تحذر من الصور المولدة بالذكاء الاصطناعي في بيان مشترك

انضمت هيئة مفوض المعلومات البريطانية (ICO) إلى هيئات تنظيمية أخرى في تحذير مشترك بشأن الصور المولدة بالذكاء الاصطناعي والتي تُظهر أشخاصًا يمكن التعرف عليهم دون موافقتهم، وخلاصة القول: لا تتعاملوا مع عبارة "إنها صور اصطناعية" كذريعة سحرية. والرسالة هي ضرورة وضع ضمانات مبكرة والتواصل مع الهيئات التنظيمية بدلًا من اتباع النهج التقني التقليدي المتمثل في إطلاق المنتج أولًا ثم الاعتذار لاحقًا.

كما أنها تُسلط الضوء على المخاطر المتزايدة التي يتعرض لها الأطفال، وهو أمر منطقي، لأنه بمجرد انتشار هذه الأشياء، يصبح من الصعب للغاية جمع البريق في وعاء. ويبدو أن الفكرة الأساسية هي أن الخصوصية والكرامة يجب أن تصمدا أمام تقلبات الموضة.

🪖 أفاد موقع أكسيوس أن وزير الدفاع الأمريكي هيغسيث استدعى الرئيس التنفيذي لشركة أنثروبيك لإجراء محادثات صعبة بشأن استخدام روبوت كلود عسكرياً

أفادت وكالة رويترز أن وزير الدفاع الأمريكي سيلتقي بالرئيس التنفيذي لشركة أنثروبيك في نقاشٍ وُصف بأنه أكثر حدةً حول استخدام برنامج كلود في المجال العسكري. ويُقال إن البنتاغون يُطالب كبرى شركات الذكاء الاصطناعي بإتاحة نماذجها على الشبكات السرية مع قيود أقل، في حين تُقاوم أنثروبيك أي تخفيفٍ لهذه القيود.

يبدو المعنى الضمني وكأنه معضلة كلاسيكية تتمثل في "التحرك بسرعة ولكن... مع وجود صواريخ". إذا لم يتفق الطرفان على ضوابط، فقد تتوتر العلاقة أو حتى تنقطع تمامًا - ومع ذلك، تشير شركة أنثروبيك أيضًا إلى أن المحادثات مع الحكومة لا تزال بناءة، لذا فالوضع متوتر، لكنه لم يصل إلى حدّ إنهاء العلاقات بشكل كامل (حتى الآن).

🧠 ملاحظات إصدار ChatGPT

تشير ملاحظات إصدار OpenAI إلى نافذة سياق موسعة لوضع "التفكير"، ما يعني إمكانية تزويد النموذج بنصوص أكثر والحفاظ على ترابط سلاسل المحادثات الطويلة دون أن يتجاهل التفاصيل السابقة. إذا سبق لك أن شاهدت نموذجًا "ينسى" شيئًا قلته للتو (يا للمصيبة!)، فهذا التحديث مصمم خصيصًا لحل هذه المشكلة.

إنها ترقية تقنية للغاية تُغير بهدوء ما هو عملي: وثائق أطول، ومشاريع أكثر تعقيدًا، وجلسات بحث أكثر اتساعًا. ليست جذابة، لكنها من نوع التغييرات الجذرية التي تجعل المنزل بأكمله يبدو أكبر فجأة.

التعليمات

ماذا يعني استخدام المدارس لبرامج الدردشة الآلية "لاستجواب" الطلاب بشأن الواجبات؟

في بعض المدارس الأسترالية، يُنجز الطلاب واجبًا دراسيًا، ثم يخوضون حوارًا تفاعليًا مع برنامج دردشة آلي يعمل بالذكاء الاصطناعي، ويختبر منطقهم. يعمل هذا الحوار كاختبار شفوي، حيث يُطلب من الطلاب شرح ما كتبوه وأسبابه. والهدف منه هو التحقق من الفهم، وليس مجرد كتابة النتائج. كما يُمكنه أيضًا كشف الثغرات عندما يعجز الطالب عن الدفاع عن ادعاءاته الرئيسية.

كيف يمكن لبرامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي في المدارس أن تخلق نظام تعليم "ذي سرعتين"؟

تحذر دراسة متخصصة من أن المدارس التي تتبنى التقنيات بسرعة قد تتقدم على المدارس الأبطأ في هذا المجال. فإذا استخدمت بعض المدارس أدوات الذكاء الاصطناعي لتقييم الفهم، ودعم التعلم، أو ردع إساءة الاستخدام، فقد تتحسن نتائجها بشكل أسرع. بينما قد تفتقر مدارس أخرى إلى الميزانية، أو الكوادر المؤهلة، أو وضوح السياسات اللازمة لتطبيق أنظمة مماثلة. هذا التفاوت في استخدام التقنيات قد يُفاقم الفجوات القائمة في الموارد والتحصيل الدراسي.

كيف يحاول المعلمون منع تحول "مساعدة الذكاء الاصطناعي" إلى "الذكاء الاصطناعي فعلها"؟

يتمثل أحد الأساليب الشائعة في تحويل التقييم نحو العملية والشرح، وليس فقط المنتج النهائي. يمكن أن تجعل الأسئلة الآلية، والمسودات، والتأملات، أو الاختبارات الشفوية، من الصعب تقديم عمل لا تفهمه. كما يمكن للمعلمين وضع حدود أكثر وضوحًا للمساعدة المقبولة، مثل العصف الذهني مقابل إعادة الكتابة الكاملة. ويبقى التركيز على إظهار الفهم، وليس على مراقبة كل أداة.

ما هي قضايا الخصوصية والرفاهية التي تظهر عند استخدام الذكاء الاصطناعي في الفصول الدراسية؟

يُبدي المعلمون باستمرار مخاوفهم بشأن البيانات التي تُجمع عن الطلاب، ومكان تخزينها، ومن يمكنه الوصول إليها. كما تُثار مخاوف بشأن سلامة الطلاب النفسية إذا شعروا بأنهم مراقبون باستمرار أو يتعرضون لضغوط من خلال أسئلة آلية. يُعدّ الأطفال فئة معرضة للخطر بشكل خاص، لأن المعلومات الحساسة قد تنتشر أو تبقى في الأنظمة بطرق غير متوقعة. تسعى العديد من المدارس إلى وضع ضمانات وقائية في وقت مبكر بدلاً من محاولة إضافتها لاحقاً.

كيف تستخدم شرطة العاصمة الذكاء الاصطناعي المقدم من شركة بالانتير للكشف عن سوء سلوك محتمل من جانب الضباط؟

تستخدم شرطة العاصمة لندن تقنية الذكاء الاصطناعي من شركة بالانتير لتحليل أنماط القوى العاملة، مثل حالات المرض والغياب والعمل الإضافي. والهدف هو رصد المؤشرات التي قد ترتبط بمشكلات تتعلق بالمعايير المهنية. وصف المشروع بأنه تجريبي لفترة محدودة، وتؤكد شرطة العاصمة أن القرارات لا تزال بيد العنصر البشري. ويرى النقاد أن هذه الأداة قد تبدو وكأنها "شك آلي" إذا ما اعتبرت الإجهاد سلوكًا خاطئًا.

لماذا تشعر نقابات الشرطة بالقلق إزاء "الاشتباه الآلي" الناتج عن أدوات الرقابة القائمة على الذكاء الاصطناعي؟

يُثير قلق اتحاد الشرطة احتمال أن تستنتج النماذج المبهمة سوء سلوك من أنماط لها تفسيرات حميدة. فزيادة أعباء العمل، والمشاكل الصحية، والضغط النفسي، كلها عوامل قد تؤثر على الحضور أو ساعات العمل الإضافية دون أن تدل بالضرورة على ارتكاب مخالفة. وإذا لم تكن آلية عمل الأداة شفافة، يصبح من الصعب على الضباط الاعتراض على الإنذارات، وعلى المديرين تحديد معايير عادلة. وحتى مع وجود قرارات بشرية، لا تزال الإشارات الآلية قادرة على التأثير في النتائج.

ما هو التحذير الذي أصدرته هيئة مفوض المعلومات البريطانية بشأن الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لأشخاص يمكن التعرف عليهم؟

انضمت هيئة حماية الخصوصية في المملكة المتحدة إلى هيئات تنظيمية أخرى في التحذير من أن "الصور المُولّدة بالذكاء الاصطناعي" لا تعني بالضرورة عدم وجود عواقب. فإذا كانت الصورة المُولّدة بالذكاء الاصطناعي تُظهر شخصًا يمكن التعرف عليه دون موافقته، فإن مخاطر انتهاك الخصوصية والكرامة تظل قائمة. وتؤكد الهيئات التنظيمية على أهمية وضع ضمانات في وقت مبكر، والتواصل مع جهات الرقابة بدلاً من نشر المحتوى قبل ذلك. كما تُشير إلى تزايد المخاطر التي تُهدد الأطفال، حيث يمكن أن يتفاقم الضرر بسرعة بمجرد انتشار المحتوى.

ما الذي يقف وراء الضغط الذي يُقال إن البنتاغون يمارسه على شركة أنثروبيك بشأن الاستخدام العسكري لـ Claude؟

أفادت رويترز أن وزير الدفاع الأمريكي سيلتقي بالرئيس التنفيذي لشركة أنثروبيك لإجراء محادثات أكثر جدية بشأن استخدام برنامج كلود في المجال العسكري. ويُقال إن البنتاغون يرغب في أن تُتيح كبرى شركات الذكاء الاصطناعي نماذجها على الشبكات السرية مع قيود أقل. وقد قاومت أنثروبيك تخفيف هذه القيود، مشيرةً إلى خلاف حول الضوابط. ويبدو أن العلاقة متوترة، على الرغم من أن كلا الجانبين يُشير إلى أن المحادثات لا تزال بناءة.

ما الذي تغير في ملاحظات إصدار ChatGPT بخصوص طول سياق وضع "التفكير"؟

تشير ملاحظات إصدار OpenAI إلى نافذة سياق موسعة لوضع "التفكير"، مما يسمح بعرض المزيد من النصوص ضمن سلسلة واحدة. عمليًا، يُمكن أن يُساعد ذلك في التعامل مع المستندات الطويلة والمشاريع المعقدة والبحوث متعددة المراحل التي تُعدّ فيها التفاصيل السابقة مهمة. إنه تحديث أساسي وليس مجرد ميزة براقة. وتتمثل الفائدة الرئيسية في تقليل فقدان التفاصيل خلال الجلسات الطويلة.

أخبار الذكاء الاصطناعي ليوم أمس: 21 فبراير 2026

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة