🤖 شركة ميتا تستحوذ على شركة مانوس الصينية الناشئة لتعزيز الذكاء الاصطناعي المتقدم ↗
تستحوذ شركة ميتا على شركة مانوس، وهي شركة ناشئة متخصصة في "الذكاء الاصطناعي العام"، والتي تم الترويج لها على أنها أكثر فاعلية من كونها مجرد متحدثة - أشبه ببرنامج دردشة آلي ينهض من الأريكة. لم يتم الكشف عن تفاصيل الصفقة، لكن مصادر تُقدّر قيمتها بمليارات قليلة.
انتقلت شركة مانوس إلى سنغافورة، مع الحفاظ على علاقاتها في الصين، ولديها شراكة استراتيجية مع علي بابا. خطة ميتا واضحة: دمج تقنية مانوس في ميتا إيه آي ومجموعة منتجاتها الأوسع، لأن الجميع يريد ميزات "الذكاء الاصطناعي" الآن... أو هكذا يقولون.
🧩 استحوذت شركة إنفيديا على حصة بقيمة 5 مليارات دولار في شركة إنتل بموجب اتفاقية سبتمبر ↗
أتمّت شركة إنفيديا صفقة شراء حصة في إنتل بقيمة 5 مليارات دولار، مستحوذةً بذلك على جزء كبير من الأسهم عبر طرح خاص. تبدو هذه الخطوة وكأنها إجراء لتحسين الميزانية العمومية، لكنها لا تزال تحمل في طياتها رائحة رهان على منصة تقنية.
حصلت إنتل على موافقة هيئة مكافحة الاحتكار الأمريكية، وتلقت دفعة رأسمالية مرحب بها، واكتسبت إنفيديا ميزة إضافية في صراع السيطرة على بنية الحوسبة. تعاون ودي، بلا شك، مع بعض التكتم.
🧠 انخفض سهم شركة إنفيديا مع تزايد التساؤلات حول صفقة جروك ↗
تبدو صفقة الترخيص المُعلنة بين Nvidia وGroq ضخمةً على الورق، وهذا تحديدًا سبب التدقيق فيها. يُوصف الاتفاق بأنه غير حصري، حيث تحصل Nvidia على ترخيص تقنية Groq وتستقطب كوادرها الرئيسية، بينما تبقى Groq مستقلة.
يُصنّف المحللون هذه الخطوة إما كاختصار ذكي للاستدلال أو كخطوة مكلفة للاستحواذ على العقول. ويبدو أن شركة إنفيديا تُعزز تفوقها التنافسي على تطوير رقائق السيليكون داخليًا في أماكن أخرى، لكن السعر الباهظ لا يزال يثير التساؤلات.
🏗️ مجموعة سوفت بنك تستحوذ على شركة ديجيتال بريدج مقابل 4 مليارات دولار لتوسيع نطاق البنية التحتية للذكاء الاصطناعي من الجيل التالي ↗
تستحوذ سوفت بنك على شركة ديجيتال بريدج مقابل 4 مليارات دولار لتعزيز أعمالها في المجالات التي لا تُعتبر جذابةً للذكاء الاصطناعي - مراكز البيانات، والاتصال، وشبكات البنية التحتية. إنها خطوة نموذجية من سون: رؤية طموحة، وأصول ملموسة، وقليل من الإصرار على المضي قدمًا
تستمر شركة DigitalBridge في العمل، وتصفها شركة SoftBank بأنها توسيع "البنية التحتية للذكاء الاصطناعي على نطاق واسع" (نعم، تتكرر هذه العبارة قليلاً)، والرسالة الأوسع واضحة - النماذج لا تعمل على المشاعر، بل تعمل على الخوادم.
🧯 أعلنت شركة OpenAI أنها بصدد تعيين مسؤول تنفيذي رئيسي للسلامة للحد من مخاطر الذكاء الاصطناعي ↗
تُعلن شركة OpenAI عن تعيين "رئيس قسم التأهب" للتركيز على سيناريوهات المخاطر الناشئة والخطيرة، بدءًا من إساءة استخدام الأنظمة الأمنية وصولًا إلى الأضرار المجتمعية الأوسع نطاقًا. ويُعدّ وصف الوظيفة صريحًا بشكلٍ غير معتاد بشأن مستويات الضغط، وهو ما يُعتبر إما أمرًا مُنعشًا... أو مُقلقًا بعض الشيء.
هذه علامة أخرى على أن "السلامة" أصبحت واقعاً ملموساً في الهيكل التنظيمي، وليست مجرد موضوع للمنشورات. التوظيف هو الجزء السهل، أما الجزء الصعب فهو ما يحدث عندما تتعارض السلامة مع عمليات الشحن.
🗣️ تدرس الصين مجموعة من الضوابط الجديدة لتدريب الذكاء الاصطناعي على بيانات سجلات المحادثات. إليكم ما يعنيه ذلك. ↗
تدرس الصين قواعد جديدة بشأن استخدام سجلات المحادثات لتدريب الذكاء الاصطناعي، مع التركيز على الموافقة والإفصاح والتعامل الأكثر صرامة مع محادثات المستخدمين. باختصار، لا يمكنك ببساطة جمع كل ما يقوله الناس لبرنامج آلي، وهو ما يُعتبر عادلاً.
هناك أيضًا جوانب تتعلق بحقوق المستخدمين، مثل الوصول أو الحذف، بالإضافة إلى ضوابط إضافية لحماية الفئات الحساسة. الفكرة هي أن الخصوصية تلتقي بالحوكمة - قطاران على نفس المسار، لكنهما لا يسيران دائمًا في نفس الاتجاه.