أخبار الذكاء الاصطناعي، 1 مارس 2026

موجز أخبار الذكاء الاصطناعي: 1 مارس 2026

🪖 كشفت شركة OpenAI عن مزيد من التفاصيل حول اتفاقيتها مع البنتاغون

أضافت OpenAI بعض التفاصيل الجوهرية إلى اتفاقيتها مع البنتاغون، ولا تزال تُثير الجدل المألوف حول المفاضلة بين السرعة والسلامة. وتقول الشركة في بيانها: "لقد تحركت الأمور بسرعة، والصورة غامضة، لكن الضوابط موجودة بالفعل". ( TechCrunch )

من جانب OpenAI، هناك أيضًا بيانٌ علنيٌّ يوضح "الخطوط الحمراء"، بالإضافة إلى إصرارٍ على أن النشر يتم عبر الحوسبة السحابية فقط، مع مشاركة موظفي OpenAI لضمانٍ إضافي. هذا هو العرض، على الأقل - ومن الواضح أنه ليس مصممًا للأشخاص الذين يستمتعون بالغموض. ( OpenAI )

🧨 تواجه صفقة OpenAI-البنتاغون نفس المخاوف الأمنية التي عانت منها محادثات Anthropic

باختصار، يقول موقع أكسيوس: هذه ليست قضية جديدة، بل هي نفس القضية ولكن بصورة مختلفة. إحدى أبرز نقاط الخلاف هي مخاطر المراقبة، وخاصةً ما يُعتبر بيانات "عامة" وما الذي يمنعه العقد فعلياً. ( أكسيوس )

أفادت التقارير أن شركة أنثروبيك سعت إلى فرض قيود تعاقدية أكثر صرامة (خاصةً فيما يتعلق بجمع البيانات بكميات كبيرة)، بينما يعتمد نهج أوبن إيه آي بشكل أكبر على القانون الحالي بالإضافة إلى قيود أضيق. وإذا بدا ذلك وكأنه "ثقة بالنظام"، فإنه يفسر سبب قلق الناس. ( أكسيوس )

🎯 أفادت التقارير أن الجيش الأمريكي استخدم كلود في ضرباته على إيران رغم حظر ترامب له

هذا الأمر له وقعٌ مؤلم - تشير التقارير إلى أن كلود استُخدم في أدوار داعمة خلال إضراب كبير، حتى في الوقت الذي كانت فيه القيادة السياسية تتظاهر علنًا بقطع العلاقات. هذا النوع من التناقض بين السياسة والممارسة يبدو متوقعًا بشكلٍ غريب. ( صحيفة الغارديان )

تحوّلت التداعيات الأوسع نطاقاً إلى مواجهةٍ علنيةٍ بشعةٍ حول حدود "دعم القرار" وبداية الاستخدام العسكري غير المقبول. وبمجرد أن تُدمج هذه الأمور في سير العمل، يصبح استئصالها أشبه بمحاولة إزالة كعكةٍ مخبوزةٍ من جديد، وليس كحذف تطبيق. ( صحيفة الغارديان )

📡 تلتزم شركة NVIDIA وقادة الاتصالات العالميون ببناء شبكات الجيل السادس على منصات مفتوحة وآمنة تعتمد على الذكاء الاصطناعي

تُسوّق شركة Nvidia تقنية الجيل السادس "المُدمجة بالذكاء الاصطناعي" باعتبارها الأساس المستقبلي - وليست إضافةً أو ميزةً إضافية، بل هي البنية التحتية. باختصار: ستُبنى شبكات الجيل القادم لتشغيل عمليات التحسين والأتمتة المدعومة بالذكاء الاصطناعي منذ البداية. ( inventor.nvidia.com )

إنها مزيج من خارطة طريق هندسية حقيقية، وخطوة لتعزيز قوة النظام البيئي - لأنه إذا أصبح الذكاء الاصطناعي نظام التشغيل لشبكات الاتصالات، فإن الشركات التي توفر الحوسبة والأدوات الخاصة بالذكاء الاصطناعي ستكون قريبة جدًا من تحقيق الأرباح. ( inventor.nvidia.com )

🛰️ أطلقت شركة كوالكوم خدمة إدارة شبكة الوصول الراديوي عبر الوكلاء وتحسينات الذكاء الاصطناعي

أطلقت شركة كوالكوم نهجًا جديدًا لإدارة الشبكات "الوكيلة" لشبكات الوصول الراديوي (RAN)، حيث تتجاوز الأتمتة مجرد لوحات التحكم لتشمل أنظمة قادرة على اتخاذ إجراءات (ضمن قيود معينة... أو هكذا يبدو). ويستهدف هذا النهج شركات الاتصالات التي سئمت من المشاريع التجريبية التي لا تتحول إلى عمليات تشغيل فعلية. ( qualcomm.com )

المعنى الضمني هو: أصبحت الشبكات معقدة للغاية بحيث يصعب على البشر إدارتها بدقة، لذا سنتظاهر جميعًا بأننا مرتاحون لترك البرمجيات تتولى زمام الأمور. لستُ مرتاحًا تمامًا، لكنني أتفهم الأمر. ( qualcomm.com )

التعليمات

ما يسمح به اتفاق OpenAI مع البنتاغون عملياً

بحسب شركة OpenAI، يُصوَّر هذا الترتيب على أنه محدد النطاق بدقة، مع وجود "خطوط حمراء" و"ضوابط" واضحة. وتؤكد الشركة أن الاستخدام يقتصر على الحوسبة السحابية فقط، وتُبقي موظفي OpenAI على اطلاع دائم لضمان مزيد من الأمان. ولا يدور النقاش حول وجود هذه القيود من عدمه، بل حول مدى فعالية هذه القيود في الاستخدام اليومي.

لماذا يشعر الناس بالقلق بشأن مخاطر المراقبة في صفقة OpenAI مع البنتاغون؟

يتمثل أحد الشواغل الرئيسية في كيفية تعريف البيانات "العامة"، وما هي الضمانات التي تمنع فعلياً جمعها على نطاق واسع أو إعادة استخدامها. ويرى النقاد أن العقود قد تبدو صارمة على الورق، بينما تترك مجالاً للمناورة في التنفيذ. ويشير موقع أكسيوس إلى أن مخاوف مماثلة ظهرت في محادثات سابقة مع شركة أنثروبيك، لا سيما فيما يتعلق بجمع البيانات على نطاق واسع واستخدامها لاحقاً.

"الخطوط الحمراء" لشركة OpenAI وكيف تؤثر على عمليات النشر

يهدف البيان العام إلى تقليل الغموض من خلال تحديد حدود استخدام النظام. في العديد من التطبيقات، تُحقق "الخطوط الحمراء" أفضل النتائج عند اقترانها بضوابط قابلة للتنفيذ، وعمليات تدقيق، ومساءلة واضحة عن الانتهاكات. ينبع التشكيك من الفجوة بين المبادئ المعلنة ومدى تعقيد إجراءات العمل الحكومية بمرور الوقت.

كيف يختلف "دعم القرار" عن الاستخدام العسكري غير المقبول للذكاء الاصطناعي

غالباً ما يعني "دعم اتخاذ القرار" المساعدة في مهام التخطيط والتحليل وإدارة سير العمل دون اتخاذ القرار النهائي. يكمن الجدل في إمكانية تداخل هذه الحدود، خاصةً عندما تُدمج الأنظمة في العمليات وتُؤثر على الخيارات المطروحة. ويؤكد تقرير صحيفة الغارديان كيف يمكن أن تختلف بيانات السياسة العامة عن الاستخدام العملي اليومي بمجرد دمج الأدوات في سير العمل.

ماذا تعني عبارة "الجيل السادس الأصلي المدعوم بالذكاء الاصطناعي" ولماذا هي مهمة لشركات الاتصالات؟

تُقدّم NVIDIA رؤيتها بأن الشبكات المستقبلية لن تقتصر على تشغيل الذكاء الاصطناعي كإضافة فحسب، بل ستُصمّم بحيث يكون التحسين والأتمتة المدعومة بالذكاء الاصطناعي جزءًا أساسيًا من بنيتها. وهذا أمر بالغ الأهمية لأنه يُغيّر مسار تراكم القيمة، نحو المنصات التي تُوفّر الحوسبة والتنسيق والأدوات. كما أنه يُثير تساؤلات تشغيلية وأمنية عندما يُصبح سلوك الشبكة مُوجّهًا بشكل متزايد بواسطة البرمجيات.

ما هي إدارة شبكة الوصول الراديوي "الفعّالة"، والمفاضلة التي تنطوي عليها؟

يُصوّر منظور كوالكوم "الآلي" عمليات الشبكة على أنها انتقال من لوحات التحكم إلى أنظمة قادرة على اتخاذ إجراءات ضمن قيود محددة. ويَعِد هذا المنظور بتقليل حالات توقف العمليات وزيادة أتمتة العمليات مع ازدياد تعقيد الشبكات بحيث يصعب إدارتها بشكل دقيق. أما المقابل فهو الثقة: فزيادة الاستقلالية قد تُحسّن الكفاءة، لكنها تُضاعف أيضاً الحاجة إلى ضوابط صارمة، ومراقبة دقيقة، وأنماط احتياطية آمنة.

أخبار الذكاء الاصطناعي ليوم أمس: 28 فبراير 2026

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة