أخبار الذكاء الاصطناعي، 10 يناير 2026

موجز أخبار الذكاء الاصطناعي: 10 يناير 2026

إندونيسيا تمنع الوصول إلى روبوت الدردشة الذكي "جروك" التابع لإيلون ماسك بسبب صور التزييف العميق

حظرت إندونيسيا تطبيق Grok مؤقتًا بعد استخدامه في إنتاج صور جنسية مزيفة بدون موافقة أصحابها، بما في ذلك صور تستهدف النساء والأطفال. وصفت الحكومة الأمر بأنه انتهاك لحقوق الإنسان والسلامة العامة، وليس مجرد عطل تقني بسيط.

تكمن المشكلة بوضوح في أنه إذا كان بإمكان أداة ما "كشف" هوية أشخاص حقيقيين عند الطلب، فإن عبء الإثبات ينقلب. يجب على المنصات أن تثبت قدرتها على منع ذلك، لا أن تكتفي بالتعهد بأنها تفكر في الأمر.

يقول إيلون ماسك إن المملكة المتحدة تسعى لقمع حرية التعبير، بينما يواجه المنتج X احتمال الحظر

لوّح وزراء بريطانيون علنًا بفرض غرامات، بل وحتى حظر تطبيق X، بعد استخدام تطبيق Grok لإنشاء صور جنسية صريحة دون موافقة. ردّ ماسك بحجّة حرية التعبير المألوفة... لكنّ الموقف القانوني في المملكة المتحدة يتجه من "حوار مفتوح" إلى "موعد نهائي للامتثال"

يتم حث هيئة تنظيم الاتصالات (Ofcom) على التحرك بسرعة، ويشير المشرعون إلى نفس النمط الكئيب: بمجرد انتشار الصور، لا ينتظر الضرر بصبر تحديث السياسة.

🧑💻 تشير التقارير إلى أن شركة OpenAI تطلب من المتعاقدين تحميل أعمال حقيقية من مشاريع سابقة

بحسب التقارير، تطلب OpenAI، بالتعاون مع شريك متخصص في بيانات التدريب، من المتعاقدين تحميل نماذج أعمال حقيقية من مشاريع سابقة (وحالية) - مثل المستندات وجداول البيانات والعروض التقديمية ومستودعات البيانات. والهدف المعلن هو تقييم وتحسين أداء أنظمة الذكاء الاصطناعي في مهام مكتبية.

تكمن المشكلة بوضوح، بل وتبدو غريبة بعض الشيء: يُطلب من المتعاقدين محو المعلومات الحساسة بأنفسهم. إنها ثقة كبيرة تُمنح في عملية سريعة التطور - أشبه بتكليف شخص ما بتفكيك قنبلة باستخدام قفازات الفرن، بكل حرص.

🗂️ تطلب شركة OpenAI من المتعاقدين تحميل أعمال من مشاريع سابقة لتقييم أداء وكلاء الذكاء الاصطناعي

يتناول تقرير منفصل نفس الوضع بالتفصيل، موضحاً سبب قلق محامي الخصوصية والملكية الفكرية. فحتى لو كان الجميع يتصرفون بحسن نية، فإن عبارة "إزالة المواد السرية" تُعدّ تعليمات فضفاضة وغير دقيقة عند التعامل مع وثائق شركات حقيقية.

كما يشير ذلك إلى الاستراتيجية الأوسع: لم تعد برامج الذكاء الاصطناعي مجرد مساعدين ثرثارين، بل يجري تدريبها على محاكاة واقع العمل الحقيقي المعقد والمتشعب. عملي، نعم. ولكنه أيضاً... مقلق بعض الشيء.

🏦 أليانز وأنثروبيك تُقيمان شراكة عالمية لتعزيز الذكاء الاصطناعي المسؤول في مجال التأمين

أعلنت شركتا أليانز وأنثروبيك عن شراكة عالمية تركز على ثلاثة محاور: إنتاجية الموظفين، والأتمتة التشغيلية عبر الذكاء الاصطناعي الوكيل، والامتثال من خلال التصميم. وبما أن التأمين يعتمد بشكل كبير على الوثائق، فإن مصطلح "الوكيل" هنا يعني أساسًا أتمتة سير العمل المعقد دون فقدان سجلات التدقيق.

الفكرة الأساسية هي: قم بتطبيق الأتمتة المتطورة، ولكن احتفظ بالإيصالات. في القطاعات الخاضعة للرقابة، هذه هي الطريقة الوحيدة لتوسيع نطاق هذا المشروع دون أن يتحول إلى مصدر للمسؤولية القانونية.

🕵️♂️ بيان ردًا على Grok AI على X

أعلنت هيئة حماية البيانات في المملكة المتحدة أنها تواصلت مع شركتي X و xAI للاستفسار عن كيفية تعاملهما مع البيانات الشخصية وحماية حقوق الأفراد، نظرًا للمخاوف المتعلقة بالمحتوى الذي يُنشئه Grok. ولا يقتصر الأمر على "مراقبة المحتوى" فحسب، بل يشمل أيضًا ما إذا كانت بيانات الأفراد تُعالج بشكل قانوني، وما إذا كانت حقوقهم محمية.

هذا هو نوع التحرك التنظيمي الذي يبدو مهذباً، ثم يصبح في الواقع خطيراً للغاية إذا جاءت الإجابات غامضة ... أو مراوغة، أو كليهما.

التعليمات

لماذا منعت إندونيسيا الوصول إلى Grok AI؟

حظرت إندونيسيا تطبيق Grok مؤقتًا بعد ورود تقارير تفيد باستخدامه لإنتاج صور جنسية مزيفة دون موافقة أصحابها، بما في ذلك صور تستهدف النساء والأطفال. وصف المسؤولون هذا الإجراء بأنه قضية تتعلق بحقوق الإنسان والسلامة العامة، وليس مجرد خلاف تقني بسيط. والرسالة الضمنية هي أن عبارة "سنصلح الأمر لاحقًا" غير كافية عندما تُسبب الأدوات ضررًا فوريًا لا رجعة فيه.

ما الذي تفكر فيه المملكة المتحدة بعد ظهور مقاطع فيديو مزيفة بتقنية التزييف العميق من إنتاج Grok على موقع X؟

ناقش وزراء المملكة المتحدة علنًا فرض غرامات، بل وحتى إمكانية حظر منصة X، بعد استخدام تطبيق Grok لإنشاء صور جنسية صريحة دون موافقة. ويتجه التوجه السياسي والتنظيمي نحو فرض الامتثال الإلزامي، بدلًا من النقاش المفتوح. والنقطة التي يُكررها المشرعون باستمرار هي التوقيت: فبمجرد انتشار الصور، يواجه الضحايا الضرر قبل وقت طويل من نشر المنصات لسياساتها المُحدثة.

ماذا يعني عندما يقوم المنظمون "بقلب عبء الإثبات" بالنسبة لأدوات الذكاء الاصطناعي لمعالجة الصور؟

تتمثل فكرة "انقلاب عبء الإثبات" في أن المنصات قد تحتاج إلى إثبات قدرتها على منع أضرار محددة - مثل إنتاج صور "تعرية" دون موافقة - بدلاً من مجرد التعهد بتوفير ضمانات. عملياً، يدفع هذا الشركات نحو وضع ضوابط قابلة للإثبات، وإنفاذ قابل للقياس، ومعالجة واضحة للأخطاء. كما يشير إلى أن "النية" أقل أهمية من النتائج الملموسة والوقاية المتكررة.

كيف يمكن للمنصات أن تقلل من مخاطر التزييف العميق غير الرضائي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي؟

يتمثل أحد الأساليب الشائعة في الوقاية متعددة المستويات: تقييد الرسائل والمخرجات المرتبطة بأشخاص حقيقيين، وحظر طلبات المحتوى الذي يتضمن صورًا غير لائقة، واكتشاف محاولات إنشاء صور جنسية دون موافقة وإيقافها. وتضيف العديد من الأنظمة حدودًا على معدل الوصول، ومراقبة أقوى للهوية وإساءة الاستخدام، وإجراءات سريعة لإزالة المحتوى بمجرد انتشاره. والهدف ليس مجرد صياغة سياسات، بل توفير أدوات فعّالة تتحمل الاستخدام العدائي.

لماذا تثير عمليات تحميل مستندات العمل الحقيقية من قبل المتعاقدين لدى OpenAI المخاوف؟

تشير التقارير إلى أن شركة OpenAI (بالتعاون مع شريك في مجال بيانات التدريب) تطلب من المتعاقدين تحميل نماذج أعمال حقيقية - مستندات، وجداول بيانات، وعروض تقديمية، ومستودعات بيانات - لتقييم وتحسين وكلاء الذكاء الاصطناعي الذين يؤدون مهام مكتبية. ويكمن القلق في أن يُطلب من المتعاقدين حذف التفاصيل الحساسة بأنفسهم، مما قد يؤدي إلى أخطاء. ويخشى محامو الخصوصية والملكية الفكرية أن تكون تعليمات "إزالة المعلومات السرية" غامضة للغاية بالنسبة للمواد المؤسسية الحقيقية.

ما أهمية شراكة أليانز مع أنثروبيك في مجال "الذكاء الاصطناعي الوكيل" في التأمين؟

أعلنت شركتا أليانز وأنثروبيك عن شراكة عالمية تركز على إنتاجية الموظفين، وأتمتة العمليات باستخدام الذكاء الاصطناعي الوكيل، والامتثال المُصمم وفقًا للمعايير. تتسم إجراءات العمل في قطاع التأمين بالتعقيد وتخضع لرقابة مشددة، لذا فإن مصطلح "الوكيل" غالبًا ما يعني أتمتة العمليات متعددة الخطوات دون المساس بالمساءلة. ويعكس التركيز على سجلات التدقيق و"الاحتفاظ بالإيصالات" حقيقة عملية: لا يمكن للأتمتة أن تتوسع في القطاعات الخاضعة للرقابة إلا إذا ظلت قابلة للتفتيش والدفاع.

أخبار الذكاء الاصطناعي ليوم أمس: 9 يناير 2026

اكتشف أحدث تقنيات الذكاء الاصطناعي في متجر مساعدي الذكاء الاصطناعي الرسمي

معلومات عنا

العودة إلى المدونة