أخبار الذكاء الاصطناعي، 28 يناير 2026

موجز أخبار الذكاء الاصطناعي: 28 يناير 2026

🧬 أطلقت شركة ديب مايند مشروع ألفا جينوم لتحديد العوامل الوراثية المسببة للأمراض

كشفت شركة ديب مايند عن نظام ألفا جينوم، وهو نظام ذكاء اصطناعي يهدف إلى التنبؤ بكيفية تأثير طفرات الحمض النووي على تنظيم الجينات - أي متى يتم تنشيط الجينات، وأين، وبأي قوة. يستطيع هذا النظام مسح مساحات شاسعة من الحمض النووي دفعة واحدة، بما في ذلك المناطق غير المشفرة المترامية الأطراف التي غالباً ما تبدو وكأنها مادة بيولوجية مظلمة.

الفكرة واضحة تمامًا: تحديد أسرع للطفرات التي تُؤثر فعليًا على عوامل مثل خطر الإصابة بالسرطان والأمراض الوراثية المعقدة. إذا نجحت هذه الطريقة كما هو مُعلن، سيقضي الباحثون وقتًا أقل في التخمين ووقتًا أطول في اختبار العوامل الصحيحة - وهو أمر يبدو بديهيًا، ولكنه جوهر العملية برمتها.

🧑💼 أقرت ليز كيندال بأن الذكاء الاصطناعي سيؤدي إلى فقدان الوظائف

صرحت وزيرة التكنولوجيا البريطانية علنًا بأن تبني الذكاء الاصطناعي سيؤدي إلى فقدان وظائف، وليس بنبرة الطمأنينة المعتادة. وأشارت إلى القلق بشأن وظائف الخريجين الجدد في مجالات مثل القانون والمالية، ولم تدّعِ وجود رقم محدد يمكن لأي جهة تقديمه.

في الوقت نفسه، تُركّز الحكومة بشدة على التكيف: حملة واسعة النطاق لتدريب ملايين العمال على مهارات الذكاء الاصطناعي الأساسية، بهدف جعل المملكة المتحدة من أسرع الدول تبنياً للذكاء الاصطناعي. إنه التوتر الكلاسيكي - نعم، ستختفي بعض الوظائف، نعم، ستظهر وظائف جديدة، لكن لا، لن يكون الوضع سلساً في المنتصف.

🗞️ المملكة المتحدة تضغط على جوجل للسماح للمواقع الإلكترونية بالانسحاب من خدمة مراجعات الذكاء الاصطناعي

اقترحت هيئات تنظيم المنافسة في المملكة المتحدة تعديلات تسمح للناشرين برفض استخدام محتواهم في مراجعات جوجل للذكاء الاصطناعي، أو في تدريب نماذج الذكاء الاصطناعي المستقلة، دون التعرض لعقوبة في نتائج البحث العادية. ويُعدّ شرط "دون التعرض لعقوبة" ذا أهمية بالغة في هذا السياق.

الفكرة هي إعادة توازن القوى مع إعادة تشكيل ملخصات الذكاء الاصطناعي لطريقة نقر المستخدمين (أو عدم نقرهم). وكان رد جوجل باختصار: سلوك البحث يتغير، ونحن ندرس إضافة المزيد من الضوابط، ولكن لا ينبغي تقسيم المنتج إلى نسخ مجزأة وغير متناسقة... وهو أمر منطقي، ولكنه مناسب أيضاً.

🛡️ الحفاظ على أمان بياناتك عندما ينقر وكيل الذكاء الاصطناعي على رابط

كشفت OpenAI عن خطر أمني محدد يتعلق بالذكاء الاصطناعي: تسريب البيانات عبر عناوين URL - حيث يقوم المهاجم بخداع الذكاء الاصطناعي لتحميل عنوان URL يُضمّن معلومات خاصة في سلسلة الاستعلام. حتى لو لم يُفصح النموذج عن السر، فإن الطلب نفسه قد يُسرّبه. إنه أمرٌ خبيث، ولكنه في الوقت نفسه بسيط للغاية.

يتمثل حل هذه المشكلة في قاعدة بسيطة ذات حدود واضحة: يجب على البرامج جلب عناوين URL العامة والمعروفة بوجودها عبر فهرس ويب مستقل فقط. إذا لم يتم التحقق من أن الرابط عام، يجب على النظام إبطاء العملية وإعادة المستخدم إلى التحكم من خلال تنبيهات - احتكاك مقصود، ولكنه مفيد.

🇪🇺 الفصل التالي للذكاء الاصطناعي في الاتحاد الأوروبي

نشرت OpenAI مخططًا يركز على الاتحاد الأوروبي، يُحدد مشكلة "فائض القدرات" - إذ يمكن للنماذج أن تفعل أكثر مما يستخدمه الأفراد والشركات حاليًا، وهذه الفجوة تُهدد بتحقيق مكاسب غير متكافئة بين الدول. الأمر أشبه بامتلاك سيارة سباق واستخدامها فقط للذهاب إلى البقالة القريبة... إلا أن البقالة القريبة هي اقتصادك بأكمله.

إلى جانب الخطابات الرنانة، هناك خطوات عملية ملموسة: برنامج يهدف إلى تدريب آلاف الشركات الأوروبية الصغيرة والمتوسطة على مهارات الذكاء الاصطناعي، ومنحة مرتبطة بأبحاث سلامة الشباب ورفاهيتهم، وتوسيع نطاق التعاون مع الحكومات. إنه مزيج بين مذكرة سياسات وحملة تبني - وهما يتداخلان بالفعل.

🔐 مخاطر الذكاء الاصطناعي تلتقي بحوكمة الأمن السيبراني: مسودة ملف تعريف الذكاء الاصطناعي السيبراني الصادر عن المعهد الوطني للمعايير والتكنولوجيا

يركز ملف تعريفي جديد صادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST) (عبر تحليل من تقرير صادر عن مكتب محاماة) على كيفية دمج المؤسسات للذكاء الاصطناعي في حوكمة الأمن السيبراني، وذلك من خلال تأمين أنظمة الذكاء الاصطناعي نفسها واستخدام الذكاء الاصطناعي لتحسين الدفاع السيبراني. يبدو الأمر اختيارياً نظرياً، لكن "الاختياري" قد يتحول مع مرور الوقت إلى أمر متوقع.

تعمل فرق العمل على مواضيع مثل تأمين مكونات الذكاء الاصطناعي ونشر أنظمة دفاعية مدعومة بالذكاء الاصطناعي، بما في ذلك اعتبارات سلسلة التوريد والأتمتة الشبيهة بالوكلاء في عمليات الاستجابة. والفكرة الأساسية هي: التعامل مع الذكاء الاصطناعي كسطح هجوم جديد ومجموعة أدوات جديدة في آن واحد، وعدم تجاهل أي تناقض بينهما.

التعليمات

ما هو مشروع AlphaGenome التابع لشركة DeepMind، وما المشكلة التي يحاول حلها؟

نظام AlphaGenome هو نظام ذكاء اصطناعي، تقول شركة DeepMind إنه قادر على التنبؤ بكيفية تأثير طفرات الحمض النووي على تنظيم الجينات - متى يتم تنشيط الجينات، وأين يحدث ذلك، وبأي قوة. صُمم النظام لمسح أجزاء كبيرة جدًا من الحمض النووي دفعة واحدة، بما في ذلك المناطق غير المشفرة التي يصعب تفسيرها. والهدف هو مساعدة الباحثين على تحديد الطفرات الأكثر احتمالًا للتسبب في الأمراض، حتى تتمكن الاختبارات المعملية من التركيز على النتائج الواعدة.

كيف يمكن أن يساعد مشروع ألفا جينوم الباحثين في العثور على المحركات الجينية للأمراض بشكل أسرع؟

في العديد من مسارات العمل في علم الوراثة، تكمن العقبة في تقليص قوائم المتغيرات الضخمة إلى عدد قليل منها يُحتمل أن يُغير نشاط الجينات. ويكمن وعد شركة ألفا جينوم في تقليل هذا التخمين من خلال التنبؤ بكيفية تأثير طفرات محددة على تنظيم الجينات عبر تسلسلات الحمض النووي الطويلة. إذا ثبتت صحة هذه التنبؤات، فبإمكان الفرق البحثية تحديد أولويات التجارب التي تركز على المتغيرات الأكثر ارتباطًا بخطر الإصابة بالسرطان أو الحالات الوراثية المعقدة، مما يقلل الوقت المُهدر في التجارب غير المجدية.

هل سيؤدي تبني الذكاء الاصطناعي فعلاً إلى فقدان الوظائف في المملكة المتحدة، وما هي الوظائف الأكثر عرضة للخطر؟

صرحت وزيرة التكنولوجيا البريطانية، ليز كيندال، بأن تبني الذكاء الاصطناعي سيؤدي إلى فقدان وظائف، وسلطت الضوء على المخاوف المحيطة بفرص العمل المتاحة للخريجين الجدد. وأشارت تحديدًا إلى مجالات مثل القانون والمالية، حيث يمكن أتمتة مهام بداية المسيرة المهنية بشكل أكبر. في الوقت نفسه، تُشدد الحكومة على أهمية التكيف من خلال برامج تدريبية واسعة النطاق في مهارات الذكاء الاصطناعي الأساسية، مع إقرارها بأن عملية الانتقال قد تبدو غير متكافئة حتى مع ظهور وظائف جديدة.

هل يمكن للناشرين في المملكة المتحدة إلغاء الاشتراك في خدمة "نظرة عامة على الذكاء الاصطناعي" من جوجل دون فقدان ترتيبهم في نتائج البحث؟

اقترحت هيئات تنظيم المنافسة في المملكة المتحدة تغييرات تسمح للناشرين برفض استخدام محتواهم في ملخصات الذكاء الاصطناعي من جوجل، أو في تدريب نماذج الذكاء الاصطناعي المستقلة، دون التعرض لعقوبة في ترتيب نتائج البحث القياسية. والهدف من ذلك هو إعادة التوازن في سوق البحث مع تغير سلوك النقر نتيجةً لتأثير ملخصات الذكاء الاصطناعي. وقد أشارت جوجل إلى أنها تدرس فرض المزيد من الضوابط، محذرةً في الوقت نفسه من تجربة بحث مجزأة.

كيف يمكن لوكيل ذكاء اصطناعي تسريب بيانات خاصة بمجرد النقر على رابط؟

وصفت OpenAI خطر تسريب البيانات عبر عناوين URL، حيث يقوم المهاجم بحثّ وكيل الذكاء الاصطناعي على جلب رابط يُضمّن معلومات حساسة في سلسلة الاستعلام. حتى لو لم يُكرّر النموذج السرّ في مخرجاته، فإن الطلب نفسه قادر على نقله. ومن الحلول الشائعة للتخفيف من هذا الخطر إضافة "إجراءات وقائية مُتعمّدة"، مثل التحذيرات وطلب تأكيد المستخدم عندما لا يتم التحقق من الرابط بشكل مستقل على أنه عام.

ما هو ملف تعريف الذكاء الاصطناعي السيبراني الذي أعده المعهد الوطني للمعايير والتكنولوجيا (NIST)، وكيف يغير هذا الملف الحوكمة السيبرانية؟

يُقدّم مشروع ملف تعريف المعهد الوطني للمعايير والتكنولوجيا (الذي نُوقش من خلال تحليل قانوني) تعريفًا للذكاء الاصطناعي باعتباره أداةً يجب تأمينها وأداةً تُستخدم في الدفاع السيبراني. ويُصنّف العمل ضمن محاور مثل تأمين مكونات الذكاء الاصطناعي، ومعالجة مخاطر سلسلة التوريد، ونشر دفاعات مدعومة بالذكاء الاصطناعي - بما في ذلك عمليات استجابة آلية أكثر تطورًا تُشبه عمل الوكلاء. ورغم أن هذه الأطر اختيارية ظاهريًا، إلا أنها غالبًا ما تُصبح توقعاتٍ فعلية، مما يدفع المؤسسات إلى دمج الذكاء الاصطناعي رسميًا في الحوكمة والضوابط.

أخبار الذكاء الاصطناعي ليوم أمس: 27 يناير 2026

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة