🕵️ بريطانيا ستتعاون مع مايكروسوفت لبناء نظام كشف التزييف العميق ↗
تقول بريطانيا إنها تتعاون مع مايكروسوفت والأكاديميين وغيرهم من الخبراء لبناء نظام يمكنه اكتشاف التزييف العميق عبر الإنترنت - بالإضافة إلى طريقة مناسبة لاختبار ما إذا كانت أدوات الكشف فعالة في الواقع العملي.
ينصب التركيز على الأضرار الأكثر فتكاً: انتحال الشخصية، والاحتيال، والمحتوى الجنسي غير الرضائي. قد لا تبدو هذه الأمور جذابة، لكنها تمثل مصدر الضرر الأكبر.
🧠 أصدرت شركة أنثروبيك تحديثًا للذكاء الاصطناعي في ظل تراجع أسهم شركات البرمجيات في السوق ↗
أطلقت شركة أنثروبيك نموذج كلود المُطوّر (أوبوس 4.6)، مُروّجةً لأداءٍ أقوى في البرمجة والتمويل، بالإضافة إلى القدرة على معالجة ما يصل إلى مليون رمز دفعةً واحدة. هذا يُضفي الكثير من السياق - أشبه بمنح النموذج بطاقة مكتبة كاملة.
كما أنهم يعتمدون بشكل متزايد على "الوكلاء" عبر برنامج Claude Code، حيث يمكن تقسيم المهام بين مساعدين مستقلين. وهذا مفيد أكثر مما تتوقع، وهو أيضاً نوع من التحول الذي يُثير قلق مستثمري البرمجيات التقليديين.
🧑💼 أعلنت شركة OpenAI عن خدمة وكيل الذكاء الاصطناعي كجزء من جهودها لجذب الشركات ↗
أعلنت OpenAI عن "Frontier"، وهي خدمة موجهة للمؤسسات لبناء وإدارة وكلاء الذكاء الاصطناعي - الروبوتات التي تقوم بمهام محددة مثل تصحيح أخطاء البرامج، والتعامل مع سير العمل، وما شابه ذلك.
يكمن الاختلاف في أن النظام مصمم للتكامل مع البنية التحتية الحالية للشركة، بل ويدعم وكلاء الطرف الثالث، ما يوحي بأن OpenAI تسعى لتصبح مركز التحكم، لا مجرد مزود النماذج. طموح... أو ربما فيه شيء من التملك، حسب وجهة نظرك.
🪖 انسحبت الولايات المتحدة والصين من الإعلان المشترك بشأن استخدام الذكاء الاصطناعي في المجال العسكري ↗
وقّعت مجموعة من الدول إعلاناً غير ملزم يحدد مبادئ استخدام الذكاء الاصطناعي في الحروب - أشياء مثل المسؤولية البشرية، وهياكل القيادة الواضحة، والاختبارات الجادة وتقييم المخاطر.
لكن الولايات المتحدة والصين لم توقعا. وهذا يلخص القصة برمتها في لحظة واحدة محرجة - فالقواعد موجودة، لكن اللاعبين الرئيسيين... لا يوقعون.
🎭 يشترط قانون نيويورك الإفصاح عن المؤدين الذين تم إنشاؤهم بواسطة الذكاء الاصطناعي في الإعلانات ويعزز حقوق الدعاية بعد الوفاة ↗
سنّت نيويورك قوانين تلزم الإعلانات التي تستخدم "مؤدين اصطناعيين" مُولّدين بواسطة الذكاء الاصطناعي بالإفصاح بوضوح عن ذلك للجمهور في الولاية، حتى لو كان مقرّ المعلن خارجها. باختصار: لا تُضلل الناس بشخصٍ مُزيّف وتدّعي أن ذلك تسويق.
وبشكل منفصل، شددت الدولة القواعد المتعلقة بالاستخدام التجاري لصور المتوفين، بما في ذلك النسخ الرقمية. إنه أمرٌ قاتمٌ بعض الشيء، بصراحة، ولكنه أيضاً بمثابة "مرحباً بكم في عصرٍ باتت فيه الهوية بحاجة إلى حزام أمان"
التعليمات
ما الذي تقوم بريطانيا بتطويره بالتعاون مع مايكروسوفت لكشف التزييف العميق على الإنترنت؟
أعلنت بريطانيا أنها ستتعاون مع مايكروسوفت وأكاديميين وخبراء آخرين لتطوير نظام قادر على كشف التزييف العميق على الإنترنت. وتشمل الخطة أيضاً ابتكار طريقة موثوقة لاختبار فعالية أدوات الكشف خارج المختبر. وينصب التركيز على الأضرار الأكثر خطورة: انتحال الشخصية، والاحتيال، والمحتوى الجنسي غير الرضائي.
كيف سيختلف اختبار أجهزة كشف التزييف العميق "في الواقع" عن الاختبارات التجريبية؟
إلى جانب جهاز الكشف نفسه، تُركز بريطانيا على إيجاد طريقة لاختبار أدوات كشف التزييف العميق في ظروف واقعية. ففي العديد من العمليات، تبدو النماذج قوية على مجموعات البيانات المُنسقة، لكنها تضعف عند تغير تنسيقات المحتوى أو الضغط أو أساليب الخصوم. ويساعد نهج التقييم المنظم على مقارنة الأدوات بشكل متسق، ويكشف مواطن قصور الكشف في بيئات الإنترنت الحية.
ما الذي غيّره Anthropic في Claude Opus 4.6، ولماذا يُعدّ حدّ الرموز مهمًا؟
تُشير شركة أنثروبيك إلى أن برنامج كلود أوبوس 4.6 يُحسّن الأداء في مجالات مثل البرمجة والتمويل، ويستطيع التعامل مع ما يصل إلى مليون عنصر من عناصر السياق. تُسهّل نافذة السياق الأوسع هذه العمل على المستندات الطويلة أو قواعد البيانات المعقدة دون الحاجة إلى إعادة تحميل المعلومات باستمرار. كما سلّطت الشركة الضوء على "الوكلاء" عبر كلود كود، حيث يُمكن تقسيم المهام بين مساعدين مستقلين.
ما هو OpenAI "Frontier"، وكيف يتناسب مع سير العمل المؤسسي؟
أعلنت OpenAI عن خدمة "Frontier" الموجهة للمؤسسات، والتي تُعنى ببناء وإدارة وكلاء الذكاء الاصطناعي الذين يؤدون مهامًا محددة، مثل تصحيح أخطاء البرامج أو إدارة سير العمل. وهي مصممة لتتكامل بسلاسة مع البنية التحتية الحالية للشركات، بدلاً من أن تكون نقطة نهاية نموذجية مستقلة. كما أشارت OpenAI إلى دعمها لوكلاء جهات خارجية، مما يعني وجود طبقة تحكم لتنسيق أنظمة الوكلاء المختلفة.
ماذا يقول إعلان الذكاء الاصطناعي العسكري، وماذا يعني ذلك بالنسبة لحوكمة الذكاء الاصطناعي؟
وُصِف الإعلان بأنه غير مُلزم، ويضع مبادئ لاستخدام الذكاء الاصطناعي في الحروب، بما في ذلك المسؤولية البشرية، وهياكل القيادة الواضحة، والاختبارات الجادة وتقييم المخاطر. وذكرت رويترز أن العديد من الدول وقّعت عليه، لكن الولايات المتحدة والصين لم تفعلا. وفيما يتعلق بحوكمة الذكاء الاصطناعي، فإن هذا الانسحاب يُعدّ أمراً بالغ الأهمية، لأنه يُبقي أكبر الفاعلين خارج نطاق مجموعة المعايير المُعلنة.
ما هي متطلبات القواعد الجديدة في نيويورك فيما يتعلق بالمؤدين الذين يتم توليدهم بواسطة الذكاء الاصطناعي في الإعلانات؟
سنّت نيويورك قوانين تلزم الإعلانات التي تستخدم "شخصيات اصطناعية" مُولّدة بالذكاء الاصطناعي بالإفصاح بوضوح عن ذلك للجمهور في الولاية، حتى لو كان مقرّ المعلن خارجها. وفي سياق منفصل، عزّزت الولاية حقوق النشر بعد الوفاة فيما يتعلق بالاستخدام التجاري لصور المتوفين، بما في ذلك النسخ الرقمية. عمليًا، يدفع هذا نحو حوكمة أكثر وضوحًا للذكاء الاصطناعي وضوابط أكثر صرامة على استخدام الهوية.