أخبار الذكاء الاصطناعي، 15 فبراير 2026

موجز أخبار الذكاء الاصطناعي: 15 فبراير 2026

🦞 ينضم مؤسس OpenClaw، شتاينبرغر، إلى OpenAI، ويصبح الروبوت مفتوح المصدر مؤسسةً

يتجه بيتر شتاينبرغر إلى OpenAI للترويج لـ"الوكلاء الشخصيين"، بينما يُدمج OpenClaw نفسه في مؤسسة ليظل مفتوح المصدر (ومدعومًا). هذا الفصل... ذكي نوعًا ما - توظيف المطور، وإبقاء المشروع متاحًا للعامة.

يتميز تطبيق OpenClaw بطابعه العملي المنعش: فرز رسائل البريد الإلكتروني، وأوراق التأمين، وتسجيل الوصول إلى الرحلات الجوية، والمهام الإدارية اليومية المزعجة. وقد حقق التطبيق نجاحًا باهرًا على منصة GitHub، وأثار هذا الانتشار مخاوف أمنية، خاصةً إذا تم استخدامه بإهمال.

🪖 أفاد تقرير بأن البنتاغون "سئم" من ردود الفعل السلبية من شركة أنثروبيك تجاه استخدام الجيش لنموذج الذكاء الاصطناعي كلود، وقد يقطع العلاقات معها

جوهر الخلاف: يسعى البنتاغون إلى منح شركة أنثروبيك صلاحيات واسعة النطاق "لجميع الأغراض المشروعة"، بينما لا تزال الشركة تحاول فرض قيود صارمة على الأسلحة ذاتية التشغيل بالكامل والمراقبة الجماعية. هذا النوع من الخلاف يبدو فلسفيًا حتى يقول أحدهم: "قد نستبدلكم"

ثمة مشكلةٌ لا تحظى بالتقدير الكافي، وهي أن المسؤولين لا يرغبون في أن يُعطّل النموذج فجأةً سير العمل في منتصفه، ولا يريدون التفاوض بشأن الحالات الاستثنائية إلى ما لا نهاية (وهذا منطقي... ولكنه مُرهِقٌ أيضاً). ثمة توترٌ حقيقيٌّ هنا حول من يملك زمام الأمور، وهو توترٌ واضحٌ لا لبس فيه.

🧠 شركة ناشئة تبني نموذجًا للتنبؤ بالسلوك البشري

جمعت شركة سيميل تمويلاً بقيمة 100 مليون دولار لبناء نموذج "تعلم محدود" يهدف إلى التنبؤ بسلوك الأفراد، بما في ذلك، على وجه التحديد، توقع الأسئلة المحتملة في اجتماعات مثل مكالمات الأرباح. هدف ضيق، طموح كبير، مزيج غريب بعض الشيء.

يعتمد هذا النهج على إجراء مقابلات مع أشخاص حقيقيين بالإضافة إلى بيانات بحثية سلوكية، ثم يُجري محاكاة باستخدام وكلاء ذكاء اصطناعي مصممين لمحاكاة التفضيلات الحقيقية. إنه أشبه بوضع نموذج للطقس خاص بالقرارات البشرية... وهو ما يبدو مستحيلاً حتى يصبح ممكناً.

🧑⚖️ خبر حصري: البيت الأبيض يضغط على مشرّع من ولاية يوتا لإلغاء مشروع قانون شفافية الذكاء الاصطناعي

يواجه مشروع قانون يهدف إلى تعزيز شفافية الذكاء الاصطناعي في ولاية يوتا انتقادات حادة من البيت الأبيض، حيث يحث المسؤولون مقدم المشروع على عدم المضي قدماً فيه. ويركز المشروع في جوهره على الشفافية وسلامة الأطفال، وهو ما يصعب دحضه من الناحية النظرية.

لكن الصراع الأكبر يدور حول الاختصاص القضائي: من يملك صلاحية وضع القواعد، الولايات أم الحكومة الفيدرالية؟ وهو صراعٌ حقيقي، أشبه بشخصين يمسكان بعجلة القيادة نفسها ويصرّ كلٌّ منهما على أنه الأكثر هدوءًا.

🎬 تعهدت شركة بايت دانس بمنع الاستخدام غير المصرح به للملكية الفكرية على أداة الفيديو المدعومة بالذكاء الاصطناعي بعد تهديد ديزني

أرسلت ديزني إنذارًا قانونيًا لشركة بايت دانس بشأن مولد الفيديو المدعوم بالذكاء الاصطناعي، وتقول بايت دانس إنها تعمل على تعزيز إجراءات الحماية لمنع الاستخدام غير المصرح به للملكية الفكرية والصور. ويُزعم أن الشكوى تكمن في قدرة الأداة على إنتاج شخصيات شهيرة من سلاسل أفلام معروفة كما لو كانت مجرد ملصقات متاحة للجميع.

إنه الصدام الذي توقعه الجميع: أدوات الذكاء الاصطناعي للفيديوهات سريعة الانتشار تتطور بسرعة، والاستوديوهات تلجأ إلى التقاضي، وعبارة "سنضيف ضمانات" تصبح لغة الاعتذار المعتادة. والمفارقة أن التكنولوجيا تبدو كالسحر، بينما يبدو الجانب القانوني كقانون الجاذبية.

التعليمات

ماذا يعني انضمام مؤسس OpenClaw إلى OpenAI بينما تحولت OpenClaw إلى مؤسسة خيرية؟

يشير هذا إلى انفصال بين الشخص الذي يبني "الوكلاء الشخصيين" والمشروع الذي سيظل تحت إدارة عامة. انضمام شتاينبرغر إلى OpenAI يوحي بأنه سيركز على تطوير منتجات شبيهة بالوكلاء هناك. يهدف وضع OpenClaw في مؤسسة إلى الحفاظ على استقلاليته كمصدر مفتوح ودعمه بشكل مستدام. عمليًا، تهدف هذه الخطوة إلى الحفاظ على ثقة المجتمع بينما يتجه المطور إلى حيث تتوفر الموارد.

لماذا تركز وكلاء الذكاء الاصطناعي على غرار OpenClaw على المهام الروتينية مثل البريد الإلكتروني والأعمال الورقية؟

نظرًا لأن أعمال إدارة الحياة اليومية تتسم بالتكرار، والتقيد بقواعد محددة، واستهلاك الوقت، فإنها تُعدّ هدفًا عمليًا للأتمتة. الأمثلة المذكورة هنا - فرز رسائل البريد الإلكتروني، وأوراق التأمين، وتسجيل الوصول للرحلات الجوية - هي مهام محددة ذات معايير نجاح واضحة. هذا التركيز يُشعر الموظفين بأهميتهم بشكل أسرع من المساعدين ذوي المهام المفتوحة. كما يُبرز أهمية ضوابط الوصول الدقيقة عندما يتعامل الموظفون مع الحسابات الشخصية.

كيف يمكنك نشر وكيل ذكاء اصطناعي مفتوح المصدر مثل OpenClaw دون التسبب في مشاكل أمنية؟

تعامل معه كبرنامج قادر على الوصول إلى بيانات حساسة، وليس كبرنامج تجريبي. من الأساليب الشائعة تأمين بيانات الاعتماد، وتقييد الصلاحيات إلى الحد الأدنى المطلوب، والاحتفاظ بسجلات وتقارير تدقيق. شغّله في بيئة محدودة وافصله عن الأنظمة ذات القيمة العالية. تنشأ العديد من المخاوف الأمنية من النشر غير المدروس، خاصةً عند كشف نقاط النهاية أو الرموز المميزة دون وجود ضمانات قوية.

لماذا يشعر البنتاغون بالاستياء من القيود التي تفرضها شركة أنثروبيك على استخدام كلود في المجال العسكري؟

يتمحور الخلاف حول النطاق والتحكم: إذ يسعى البنتاغون إلى منح صلاحيات واسعة "لجميع الأغراض المشروعة"، بينما تُوصف شركة أنثروبيك بأنها تُبقي على قيود صارمة فيما يتعلق بالأسلحة ذاتية التشغيل بالكامل والمراقبة الجماعية. كما لا يرغب المسؤولون في أن تُعيق النماذج سير العمل في منتصف الطريق أو أن تتطلب مفاوضات مطولة بشأن الحالات الاستثنائية. هذا التوتر ليس مجرد فكرة نظرية كما يبدو، بل يتعلق بمن يقرر ما يمكن للنموذج فعله في العمليات الحقيقية.

كيف تحاول الشركات الناشئة التنبؤ بالسلوك البشري باستخدام الذكاء الاصطناعي، ولماذا يبدو الأمر مثيراً للجدل؟

يُطبّق المثال المذكور هنا، سيميل، نموذج "التعلم المحدود" بهدف التنبؤ بسلوك الأفراد، بما في ذلك توقع الأسئلة المحتملة في سياقات مثل مكالمات الأرباح. يمزج هذا النهج بين المقابلات وبيانات البحوث السلوكية والمحاكاة باستخدام وكلاء الذكاء الاصطناعي المصممين لمحاكاة التفضيلات الحقيقية. يبدو الأمر غريبًا بعض الشيء لأنه يحوّل الذكاء الاصطناعي من الاستجابة للأفراد إلى التنبؤ بسلوكهم. يكمن التحدي في الحفاظ على دقة النتائج وتجنب المبالغة في الثقة.

ماذا يحدث عندما تقوم أدوات الفيديو التي تعمل بالذكاء الاصطناعي بإنشاء شخصيات محمية بحقوق الطبع والنشر، كما هو الحال في الصدام بين بايت دانس وديزني؟

النمط المُبلغ عنه مألوف: يُصدر الاستوديو إنذارًا بالكف عن الاستخدام، فتستجيب المنصة بتعزيز إجراءات الحماية لمنع الاستخدام غير المصرح به للملكية الفكرية أو الصور الشخصية. في العديد من الأدوات، تعني إجراءات الحماية فلاتر محتوى أكثر دقة، وتحسينًا في اكتشاف الشخصيات المعروفة، وتطبيقًا أوضح لسياسات المستخدم. يكمن الصراع الأساسي في المفاضلة بين السرعة والمسؤولية القانونية - فالانتشار السريع للمحتوى الفيروسي، بينما يُطبق إنفاذ الحقوق بشكل صارم. توقع المزيد من هذه المواجهات مع انتشار مولدات الفيديو.

أخبار الذكاء الاصطناعي ليوم أمس: 13 فبراير 2026

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة