باختصار: تكمن أهمية شركات التكنولوجيا العملاقة في مجال الذكاء الاصطناعي في سيطرتها على الجوانب الأساسية غير الجذابة - الحوسبة، ومنصات الحوسبة السحابية، والأجهزة، ومتاجر التطبيقات، وأدوات المؤسسات. تُمكّنها هذه السيطرة من تمويل النماذج الرائدة وإطلاق الميزات لمليارات المستخدمين بسرعة. في حال ضعف الحوكمة، وضوابط الخصوصية، وقابلية التشغيل البيني، فإن هذه السيطرة نفسها تتحول إلى احتكار وتمركز للسلطة.
أهم النقاط المستفادة:
البنية التحتية: تعامل مع التحكم في السحابة والرقائق وعمليات التعلم الآلي باعتبارها نقطة الاختناق الرئيسية للذكاء الاصطناعي.
التوزيع: من المتوقع أن تحدد تحديثات المنصة معنى "الذكاء الاصطناعي" بالنسبة لمعظم المستخدمين.
الرقابة على الوصول: تحدد قواعد متجر التطبيقات وشروط واجهة برمجة التطبيقات (API) بهدوء ميزات الذكاء الاصطناعي التي سيتم شحنها.
التحكم من قبل المستخدم: اطلب خيارات إلغاء اشتراك واضحة، وإعدادات دائمة، وضوابط إدارية فعالة.
المساءلة: تتطلب سجلات تدقيق، وشفافية، وآليات استئناف للنتائج الضارة.

🔗 مستقبل الذكاء الاصطناعي: الاتجاهات وما هو التالي
الابتكارات الرئيسية والمخاطر والصناعات التي ستشهد إعادة تشكيل خلال العقد القادم.
🔗 نماذج أساسية في الذكاء الاصطناعي التوليدي: دليل مبسط
افهم كيف تدعم نماذج الأساس تطبيقات الذكاء الاصطناعي التوليدي الحديثة.
🔗 ما هي شركة الذكاء الاصطناعي وكيف تعمل؟
تعرّف على السمات والفرق والمنتجات التي تُعرّف الشركات التي تعتمد على الذكاء الاصطناعي بشكل أساسي.
🔗 كيف يبدو كود الذكاء الاصطناعي في المشاريع الحقيقية
اطلع على أمثلة لأنماط التعليمات البرمجية والأدوات وسير العمل المدعومة بالذكاء الاصطناعي.
لنكن صريحين للحظة - تتجاهل معظم "المناقشات حول الذكاء الاصطناعي" الجوانب غير الجذابة كالحوسبة والتوزيع والمشتريات والامتثال، والحقيقة المحرجة المتمثلة في ضرورة دفع تكاليف وحدات معالجة الرسومات والكهرباء. تتواجد شركات التكنولوجيا الكبرى في هذه الجوانب غير الجذابة. وهذا تحديدًا ما يجعلها بالغة الأهمية. 😅 ( وكالة الطاقة الدولية - الطاقة والذكاء الاصطناعي ، إنفيديا - نظرة عامة على منصات استدلال الذكاء الاصطناعي )
دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي، بلغة بسيطة 🧩
عندما يقول الناس "الشركات التقنية الكبرى"، فإنهم عادةً ما يقصدون شركات المنصات العملاقة التي تسيطر على طبقات رئيسية من الحوسبة الحديثة:
-
البنية التحتية السحابية (حيث يتم تشغيل الذكاء الاصطناعي) ☁️ ( وثائق Amazon SageMaker AI ، ووثائق Azure Machine Learning ، ووثائق Vertex AI )
-
الأجهزة الاستهلاكية وأنظمة التشغيل (حيث يتواجد الذكاء الاصطناعي) 📱💻 ( Apple Core ML ، Google ML Kit )
-
أنظمة التطبيقات والأسواق (حيث ينتشر الذكاء الاصطناعي) 🛒 ( إرشادات مراجعة تطبيقات Apple ، أمان بيانات Google Play )
-
خطوط نقل البيانات ومجموعات التحليلات (حيث يتم تغذية الذكاء الاصطناعي) 🍽️
-
برامج المؤسسات (حيث يتم تحقيق الربح من الذكاء الاصطناعي) 🧾
-
شراكات الرقائق والأجهزة (حيث يتم تسريع الذكاء الاصطناعي) 🧠🔩 ( نظرة عامة على منصات استدلال الذكاء الاصطناعي من NVIDIA )
إذن، لا يقتصر دورهم على "صنع الذكاء الاصطناعي" فحسب، بل يتعداه إلى بناء الطرق السريعة، وبيع السيارات، وإدارة بوابات تحصيل الرسوم، وتحديد مواقع المخارج أيضاً. مبالغة طفيفة... لكنها ليست كبيرة.
دور شركات التكنولوجيا الكبرى في الذكاء الاصطناعي: أهم خمس وظائف 🏗️
إذا كنت تريد نموذجًا ذهنيًا واضحًا، فإن شركات التكنولوجيا الكبرى تميل إلى القيام بخمس وظائف متداخلة في عالم الذكاء الاصطناعي:
-
موفر البنية التحتية:
مراكز البيانات، والحوسبة السحابية، والشبكات، والأمن، وأدوات تعلم الآلة (MLOps). كل ما يجعل الذكاء الاصطناعي قابلاً للتطبيق على نطاق واسع. ( وثائق Amazon SageMaker AI ، وكالة الطاقة الدولية - الطاقة والذكاء الاصطناعي ) -
مُنشئ النماذج ومحرك البحث.
ليس دائمًا، ولكن غالبًا - المختبرات، والبحث والتطوير الداخلي، والبحوث التطبيقية، و"العلوم المُنتَجة". ( قوانين التوسع لنماذج اللغة العصبية (arXiv) ، تدريب نماذج اللغة الكبيرة المثلى حسابيًا (Chinchilla) (arXiv) ) -
بإمكان الموزعين -
مسؤول عن وضع القواعد
وسياسات متجر التطبيقات، وقواعد المنصة، وشروط واجهة برمجة التطبيقات، ومراقبة المحتوى، وبوابات الأمان، وضوابط المؤسسة. ( إرشادات مراجعة تطبيقات Apple ، وأمان بيانات Google Play ) -
مُخصِّصو رأس المال:
يُموِّلون، ويستحوذون، ويُشاركون، ويُحتضنون. يُشكِّلون ما يبقى.
هذا هو دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي من الناحية الوظيفية: فهي تخلق الظروف اللازمة لوجود الذكاء الاصطناعي - ثم تقرر كيف يصل إليك.
ما الذي يجعل نسخة جيدة من دور الذكاء الاصطناعي لشركات التكنولوجيا الكبرى؟ ✅😬
لا يتعلق "النموذج الجيد" لشركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي بالكمال، بل يتعلق بالموازنة بين الخيارات بطريقة مسؤولة، مع تقليل المخاطر المفاجئة التي قد تؤثر على الآخرين.
إليكم ما يميز عادةً بين جو "العملاق المتعاون" وجو "الاحتكار المثير للقلق":
-
الشفافية دون استخدام مصطلحات معقدة.
توضيحٌ دقيق لخصائص الذكاء الاصطناعي وقيوده والبيانات المستخدمة. ليس مجرد متاهة سياسات من أربعين صفحة. ( NIST AI RMF 1.0 ، ISO/IEC 42001:2023 ) -
تحكم حقيقي من المستخدم:
خيارات إلغاء اشتراك فعّالة، وإعدادات خصوصية لا تُعاد ضبطها بشكل غامض، وضوابط إدارية سهلة الاستخدام. ( اللائحة العامة لحماية البيانات - اللائحة (الاتحاد الأوروبي) 2016/679 ) -
قابلية التشغيل البيني والانفتاح - أحيانًا
ليس كل شيء يجب أن يكون مفتوح المصدر، ولكن حصر الجميع في مورد واحد إلى الأبد هو ... خيار. -
الأمان الفعال:
مراقبة إساءة الاستخدام، واختبارات الاختراق، وضوابط المحتوى، والاستعداد لحظر حالات الاستخدام التي تنطوي على مخاطر واضحة. (إطار إدارة مخاطر NIST AI RMF 1.0 ، ملف تعريف الذكاء الاصطناعي العام NIST GenAI (المرفق بإطار إدارة مخاطر الذكاء الاصطناعي) ) -
أنظمة بيئية صحية:
دعم الشركات الناشئة والشركاء والباحثين والمعايير المفتوحة حتى لا يصبح الابتكار مجرد "استئجار منصة أو الاختفاء". ( مبادئ منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي )
سأقولها بصراحة: النسخة "الجيدة" تبدو كخدمة عامة متينة ذات جودة عالية. أما النسخة السيئة فتبدو ككازينو يضع فيه الكازينو القواعد. 🎰
جدول مقارنة: أفضل مسارات الذكاء الاصطناعي لشركات التكنولوجيا الكبرى وأسباب نجاحها 📊
| أداة (مسار) | جمهور | سعر | لماذا ينجح؟ |
|---|---|---|---|
| منصات الذكاء الاصطناعي السحابية | الشركات، والشركات الناشئة | يعتمد على الاستخدام تقريبًا | سهولة التوسع، فاتورة واحدة، الكثير من الخيارات (خيارات كثيرة جدًا) |
| واجهات برمجة تطبيقات نموذج الحدود | المطورون، فرق المنتجات | الدفع حسب الرمز المميز / متدرج | سهولة دمجها، جودة أساسية جيدة، لكنها تبدو كالغش 😅 |
| الذكاء الاصطناعي المدمج في الجهاز | المستهلكون، المستهلكون المنتجون | مجمعة | زمن استجابة منخفض، ويراعي الخصوصية أحيانًا، ويعمل بشكل شبه غير متصل بالإنترنت |
| مجموعة أدوات الإنتاجية المدعومة بالذكاء الاصطناعي | فرق العمل المكتبية | إضافة لكل مقعد | ينخرط في سير العمل اليومي - المستندات، والبريد، والاجتماعات، وكل ما يتبع ذلك من أعمال روتينية |
| الإعلانات + الذكاء الاصطناعي للاستهداف | المسوقون | نسبة الإنفاق | البيانات الضخمة + التوزيع = فعّالة، ولكنها مخيفة بعض الشيء 👀 |
| الأمن والامتثال والذكاء الاصطناعي | الصناعات الخاضعة للتنظيم | غالي | يبيع "راحة البال" - حتى لو كان ذلك مجرد تقليل التنبيهات |
| رقائق الذكاء الاصطناعي + مسرعات | الجميع في اتجاه مجرى النهر | كثيفة الإنفاق الرأسمالي | إذا كنت تملك المجارف، فأنت الفائز في حمى الذهب (استعارة غير موفقة، لكنها لا تزال صحيحة) |
| آليات النظام البيئي شبه المفتوح | بناة، باحثون | مستويات مجانية ومدفوعة | زخم المجتمع، وتكرار أسرع، ومتعة جامحة أحيانًا |
اعتراف بسيط بخصوص طاولة الطعام: كلمة "مجاني نوعًا ما" لها تأثير كبير هنا. مجاني حتى يصبح غير مجاني... تعرفون كيف تسير الأمور.
نظرة عن قرب: نقطة الاختناق في البنية التحتية (الحوسبة، الحوسبة السحابية، الرقائق) 🧱⚙️
هذا هو الجزء الذي لا يرغب معظم الناس في الحديث عنه لأنه ليس جذاباً. ولكنه أساس الذكاء الاصطناعي.
تؤثر شركات التكنولوجيا الكبرى على الذكاء الاصطناعي من خلال التحكم في:
-
إمدادات الحوسبة (الوصول إلى وحدة معالجة الرسومات، والمجموعات، والجدولة) ( وكالة الطاقة الدولية - الطلب على الطاقة من الذكاء الاصطناعي )
-
الشبكات (وصلات عالية النطاق الترددي، وبنى تحتية منخفضة زمن الوصول)
-
التخزين (بحيرات البيانات، وأنظمة الاسترجاع، والنسخ الاحتياطية)
-
خطوط أنابيب MLOps (التدريب، النشر، المراقبة، الحوكمة) ( MLOps على Vertex AI ، بنى Azure MLOps )
-
الأمن (الهوية، سجلات التدقيق، التشفير، تطبيق السياسات) ( NIST AI RMF 1.0 ، ISO/IEC 42001:2023 )
إذا سبق لك تجربة نشر نظام ذكاء اصطناعي في شركة حقيقية، فأنت تعلم أن "النموذج" هو الجزء السهل. أما الجزء الصعب فهو: الصلاحيات، والتسجيل، والوصول إلى البيانات، والتحكم في التكاليف، ووقت التشغيل، والاستجابة للحوادث... الأمور المعقدة. 😵💫
لأن شركات التكنولوجيا الكبرى تمتلك جزءًا كبيرًا من هذا، فإنها تستطيع تحديد الأنماط الافتراضية:
-
ما هي الأدوات التي تصبح معيارية؟
-
ما هي الأطر التي تحظى بدعم من الدرجة الأولى؟
-
ما هي الأجهزة التي تحظى بالأولوية؟
-
أي نماذج التسعير تصبح "طبيعية"؟
هذا ليس شراً بالضرورة، ولكنه قوة.
نظرة عن قرب: بحث النموذج مقابل واقع المنتج 🧪➡️🛠️
يكمن التناقض هنا: تستطيع شركات التكنولوجيا الكبرى تمويل أبحاث معمقة، وفي الوقت نفسه تحتاج إلى تحقيق نجاحات ربع سنوية في منتجاتها. هذا المزيج يُنتج اكتشافات مذهلة، ولكنه يُنتج أيضاً... إطلاق ميزات مشكوك في جدواها.
عادةً ما تقود شركات التكنولوجيا الكبرى تقدم الذكاء الاصطناعي من خلال:
-
عمليات تدريب ضخمة (المقياس مهم) ( قوانين القياس لنماذج اللغة العصبية (arXiv) )
-
مسارات التقييم الداخلي (المقارنة المعيارية، واختبارات السلامة، وفحوصات الانحدار) ( ملف تعريف NIST GenAI (مرفق إطار إدارة مخاطر الذكاء الاصطناعي) )
-
البحث التطبيقي (تحويل الأبحاث إلى سلوكيات منتجية)
-
تحسينات في الأدوات (التقطير، الضغط، كفاءة التقديم)
لكن ضغط المنتج يغير الأمور:
-
السرعة تتفوق على الأناقة
-
الشحن أفضل من الشرح
-
"جيد بما فيه الكفاية" أفضل من "مفهوم تماماً"
أحيانًا يكون ذلك مقبولًا. فمعظم المستخدمين لا يحتاجون إلى دقة نظرية مطلقة، بل يحتاجون إلى مساعد فعّال ضمن سير عملهم. لكن الخطر يكمن في استخدام حلول "جيدة بما يكفي" في سياقات حساسة (كالصحة، والتوظيف، والمالية، والتعليم) حيث لا تُعدّ "جيدة بما يكفي" كافية. ( قانون الاتحاد الأوروبي للذكاء الاصطناعي - اللائحة (الاتحاد الأوروبي) 2024/1689 )
هذا جزء من دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي - تحويل القدرات المتطورة إلى ميزات متاحة في السوق الجماهيري، حتى عندما تكون هذه القدرات لا تزال في مراحلها الأولى. 🔪
نظرة عن قرب: التوزيع هو القوة العظمى الحقيقية 🚀📣
إذا استطعتَ وضع الذكاء الاصطناعي داخل الأماكن التي يعيش فيها الناس رقميًا بالفعل، فلن تحتاج إلى "إقناع" المستخدمين. ستصبح ببساطة الخيار الافتراضي.
تشمل قنوات التوزيع الخاصة بشركات التكنولوجيا الكبرى ما يلي:
-
أشرطة البحث والمتصفحات 🔎
-
مساعدو أنظمة تشغيل الهواتف المحمولة 📱
-
مجموعة برامج مكان العمل (المستندات، البريد، الدردشة، الاجتماعات) 🧑💼
-
منصات التواصل الاجتماعي وأنظمة التوصيات 📺
-
متاجر التطبيقات ومنصات التسوق الإلكتروني 🛍️ ( إرشادات مراجعة تطبيقات Apple ، أمان بيانات Google Play )
لهذا السبب، غالباً ما تتعاون شركات الذكاء الاصطناعي الصغيرة مع شركات التكنولوجيا الكبرى، حتى وإن كانت متخوفة من ذلك. فالتوزيع هو شريان الحياة. بدونه، قد تمتلك أفضل نموذج في العالم، لكنك ستظل تصرخ في الفراغ.
هناك أيضًا أثر جانبي دقيق: فالتوزيع يُحدد مفهوم "الذكاء الاصطناعي" لدى العامة. إذا ظهر الذكاء الاصطناعي بشكل أساسي كأداة مساعدة في الكتابة، يفترض الناس أنه يتعلق بالكتابة. وإذا ظهر كأداة لتحرير الصور، يفترضون أنه يتعلق بالصور. المنصة هي التي تُحدد الانطباع العام.
نظرة عن كثب: البيانات، والخصوصية، ومبدأ الثقة 🔐🧠
غالباً ما تصبح أنظمة الذكاء الاصطناعي أكثر فعالية عند تخصيصها. ويتطلب التخصيص عادةً بيانات، والبيانات بدورها تنطوي على مخاطر. هذا المثلث لا يزول أبداً.
تستحوذ شركات التكنولوجيا الكبرى على:
-
بيانات سلوك المستهلك (عمليات البحث، النقرات، التفضيلات)
-
بيانات المؤسسة (رسائل البريد الإلكتروني، والمستندات، والمحادثات، والتذاكر، وسير العمل)
-
بيانات المنصة (التطبيقات، المدفوعات، إشارات الهوية)
-
بيانات الجهاز (الموقع، أجهزة الاستشعار، الصور، المدخلات الصوتية)
حتى عندما لا يتم استخدام "البيانات الأولية" بشكل مباشر، فإن النظام البيئي المحيط يشكل التدريب والضبط الدقيق والتقييم وتوجيه المنتج.
عادة ما تبدو صفقة الثقة على النحو التالي:
-
يقبل المستخدمون جمع البيانات لأن المنتج مريح 🧃
-
يتدخل المنظمون عندما يصبح الأمر مريبًا 👀 ( اللائحة العامة لحماية البيانات - اللائحة (الاتحاد الأوروبي) 2016/679 )
-
ترد الشركات بضوابط وسياسات ورسائل "الخصوصية أولاً"
-
الجميع يتجادل حول معنى "الخصوصية"
قاعدة عملية رأيتها تُجدي نفعاً: إذا استطاعت شركة ما شرح ممارساتها المتعلقة ببيانات الذكاء الاصطناعي في محادثة واحدة دون التذرع بالمصطلحات القانونية، فغالباً ما يكون أداؤها أفضل من المتوسط. ليس مثالياً، لكنه أفضل.
نظرة عن كثب: الحوكمة، والسلامة، ولعبة التأثير الخفي 🧯📜
هذا هو الدور الأقل وضوحاً: غالباً ما تساعد شركات التكنولوجيا الكبرى في تحديد القواعد التي يتبعها الجميع.
إنهم يشكلون الحكم من خلال:
-
سياسات السلامة الداخلية (ما سيرفضه النموذج) ( NIST AI RMF 1.0 )
-
سياسات المنصة (ما يمكن للتطبيقات فعله) ( إرشادات مراجعة تطبيقات Apple ، أمان بيانات Google Play )
-
ميزات الامتثال المؤسسي (سجلات التدقيق، والاحتفاظ بالبيانات، وحدود البيانات) ( ISO/IEC 42001:2023 ، قانون الذكاء الاصطناعي للاتحاد الأوروبي - اللائحة (الاتحاد الأوروبي) 2024/1689 )
-
المشاركة في معايير الصناعة (الأطر التقنية، وأفضل الممارسات) ( مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية ، ISO/IEC 42001:2023 )
-
الضغط السياسي والمشاركة في السياسات (نعم، هذا الجزء أيضاً)
أحيانًا يكون هذا مفيدًا حقًا. تستطيع شركات التكنولوجيا الكبرى الاستثمار في فرق السلامة، وأدوات بناء الثقة، وأنظمة كشف إساءة الاستخدام، وبنية الامتثال التي لا تستطيع الشركات الصغيرة تحمل تكلفتها.
أحيانًا يكون الأمر أنانيًا. قد يصبح الأمن عائقًا لا يستطيع تحمله إلا أكبر اللاعبين. هذه هي المعضلة: الأمن ضروري، لكن تكلفته الباهظة قد تُجمّد المنافسة دون قصد. ( قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي - اللائحة (الاتحاد الأوروبي) 2024/1689 )
هنا تكمن أهمية الفروق الدقيقة. وليست الفروق الدقيقة الممتعة، بل تلك المزعجة. 😬
نظرة عن كثب: المنافسة، والأنظمة البيئية المفتوحة، وجاذبية الشركات الناشئة 🧲🌱
يشمل دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي أيضاً تشكيل ملامح السوق:
-
عمليات الاستحواذ (المواهب، التكنولوجيا، التوزيع)
-
الشراكات (نماذج مستضافة على السحابة، صفقات المؤسسات المشتركة)
-
تمويل النظام البيئي (الائتمانات، والحاضنات، والأسواق)
-
الأدوات المفتوحة (الأطر، المكتبات، الإصدارات "شبه المفتوحة")
هناك نمط لاحظتُ تكراره:
-
الشركات الناشئة تبتكر بسرعة
-
تقوم شركات التكنولوجيا الكبرى بدمج أو نسخ النمط الناجح
-
تتجه الشركات الناشئة نحو قطاعات متخصصة أو تصبح أهدافًا للاستحواذ
-
تزداد سماكة "طبقة المنصة"
ليس هذا بالضرورة أمرًا سيئًا. فالمنصات قادرة على تقليل التعقيدات وجعل الذكاء الاصطناعي في متناول الجميع. لكنها قد تُقلل التنوع أيضًا. إذا أصبح كل منتج مجرد غلاف لنفس واجهات برمجة التطبيقات القليلة، فسيبدأ الابتكار في الظهور وكأنه مجرد إعادة ترتيب الأثاث في نفس الشقة.
المنافسة غير المنظمة قليلاً مفيدة. تماماً مثل خميرة العجين المخمر. إذا عقمت كل شيء، ستتوقف عن الارتفاع. هذا التشبيه ليس دقيقاً تماماً، لكنني سأستخدمه. 🍞
العيش بحماس وحذر 😄😟
كلا الشعورين مناسبان. يمكن للحماس والحذر أن يتعايشا في مكان واحد.
أسباب تدعو للحماس:
-
نشر أسرع للأدوات المفيدة
-
بنية تحتية أفضل وموثوقية أعلى
-
تسهيل تبني الشركات للذكاء الاصطناعي
-
زيادة الاستثمار في السلامة والتوحيد القياسي ( إطار إدارة مخاطر الذكاء الاصطناعي NIST 1.0 ، مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية )
أسباب تدعو إلى الحذر:
-
توحيد الحوسبة والتوزيع ( وكالة الطاقة الدولية - الطلب على الطاقة من الذكاء الاصطناعي )
-
التقييد من خلال التسعير وواجهات برمجة التطبيقات والأنظمة البيئية
-
مخاطر الخصوصية والنتائج المرتبطة بالمراقبة ( اللائحة العامة لحماية البيانات - اللائحة (الاتحاد الأوروبي) 2016/679 )
-
"سياسة شركة واحدة" تصبح واقعاً للجميع
الموقف الواقعي هو: بإمكان شركات التكنولوجيا العملاقة تسريع وتيرة الذكاء الاصطناعي عالميًا، مع تركيزها للسلطة في الوقت نفسه. قد يكون هذا صحيحًا في آن واحد. لا يروق هذا التفسير للبعض لأنه يفتقر إلى التشويق، ولكنه يتوافق مع الأدلة.
فوائد عملية لمختلف القراء 🎯
إذا كنت مشتريًا تجاريًا 🧾
-
اسأل عن مكان ذهاب بياناتك، وكيف يتم عزلها، وما الذي يمكن للمسؤولين التحكم فيه ( اللائحة العامة لحماية البيانات - اللائحة (الاتحاد الأوروبي) 2016/679 ، قانون الذكاء الاصطناعي للاتحاد الأوروبي - اللائحة (الاتحاد الأوروبي) 2024/1689 ).
-
إعطاء الأولوية لسجلات التدقيق، وضوابط الوصول، وسياسات الاحتفاظ الواضحة ( ISO/IEC 42001:2023 )
-
انتبه لمنحنيات التكلفة الخفية (تصبح أسعار الاستخدام غير منطقية بسرعة)
إذا كنت مطورًا 🧑💻
-
صمم مع مراعاة سهولة النقل (تساعد طبقات التجريد في ذلك)
-
لا تعتمد كلياً على ميزة واحدة من مزود خدمة واحد قد تختفي
-
تتبع حدود المعدلات وتغييرات الأسعار وتحديثات السياسات كما لو كان ذلك جزءًا من وظيفتك (لأنه كذلك) ( إرشادات مراجعة تطبيقات Apple ، أمان بيانات Google Play )
إذا كنت صانع سياسات أو مسؤول امتثال 🏛️
-
السعي نحو معايير قابلة للتشغيل البيني وقواعد الشفافية ( مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية )
-
تجنب القواعد التي لا يستطيع اتباعها إلا العمالقة ( قانون الذكاء الاصطناعي للاتحاد الأوروبي - اللائحة (الاتحاد الأوروبي) 2024/1689 )
-
تعامل مع "التحكم في التوزيع" كقضية أساسية، وليس كفكرة ثانوية
إذا كنت مستخدمًا منتظمًا 🙋
-
تعرّف على أماكن وجود ميزات الذكاء الاصطناعي في تطبيقاتك
-
استخدم أدوات التحكم في الخصوصية حتى لو كانت مزعجة ( اللائحة العامة لحماية البيانات - اللائحة (الاتحاد الأوروبي) 2016/679 )
-
كن متشككًا في النتائج "السحرية" - الذكاء الاصطناعي واثق، لكنه ليس دائمًا على صواب 😵
ملخص ختامي: دور شركات التكنولوجيا الكبرى في الذكاء الاصطناعي 🧠✨
لا يقتصر دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي على جانب واحد، بل هو مجموعة من الأدوار: مالك البنية التحتية، وباني النماذج، والموزع، والمسؤول عن التحكم في الوصول، والمؤثر في السوق. فهي لا تكتفي بالمشاركة في الذكاء الاصطناعي، بل تحدد أيضاً البيئة التي ينمو فيها.
إذا كنت ستتذكر سطراً واحداً فقط، فليكن هذا السطر:
دور شركات التكنولوجيا الكبرى في الذكاء الاصطناعي:
فهي تبني البنية التحتية، وتحدد المعايير الافتراضية، وتوجه كيفية وصول الذكاء الاصطناعي إلى البشر - على نطاق واسع، مع عواقب وخيمة. ( إطار إدارة مخاطر الذكاء الاصطناعي 1.0 الصادر عن المعهد الوطني للمعايير والتكنولوجيا ، قانون الذكاء الاصطناعي للاتحاد الأوروبي - اللائحة (الاتحاد الأوروبي) 2024/1689 )
أجل، كلمة "عواقب" تبدو مبالغًا فيها. لكن الذكاء الاصطناعي من المواضيع التي يكون فيها وصف الأمور بالمبالغة أحيانًا... دقيقًا. 😬🤖
التعليمات
ما هو دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي، من الناحية العملية؟
لا يقتصر دور شركات التكنولوجيا العملاقة في مجال الذكاء الاصطناعي على "صنع النماذج" فحسب، بل يتعداه إلى "تشغيل الآليات التي تجعل الذكاء الاصطناعي يعمل على نطاق واسع". فهي توفر البنية التحتية السحابية، وتُطلق تطبيقات الذكاء الاصطناعي عبر الأجهزة والتطبيقات، وتضع قواعد المنصات التي تُحدد ما يتم تطويره. كما أنها تمول الأبحاث والشراكات وعمليات الاستحواذ التي تؤثر على نجاح المناهج. وفي العديد من الأسواق، تُحدد هذه الشركات فعلياً تجربة الذكاء الاصطناعي الافتراضية.
لماذا يُعد الوصول إلى الحوسبة أمراً بالغ الأهمية بالنسبة لمن يستطيع بناء الذكاء الاصطناعي على نطاق واسع؟
يعتمد الذكاء الاصطناعي الحديث على مجموعات كبيرة من وحدات معالجة الرسومات، وشبكات سريعة، ووحدات تخزين، وخطوط أنابيب موثوقة لعمليات التعلم الآلي - وليس فقط على خوارزميات ذكية. إذا لم تتمكن من الحصول على سعة يمكن التنبؤ بها، يصبح التدريب والتقييم والنشر هشًا ومكلفًا. غالبًا ما تسيطر شركات التكنولوجيا الكبرى على الطبقة الأساسية (الحوسبة السحابية، وشراكات الرقائق، والجدولة، والأمان)، مما قد يحدد ما هو ممكن للفرق الأصغر. قد تكون هذه القوة مفيدة، لكنها تبقى قوة.
كيف يؤثر توزيع شركات التكنولوجيا الكبرى على مفهوم "الذكاء الاصطناعي" بالنسبة للمستخدمين العاديين؟
يُعدّ التوزيع قوةً هائلةً لأنه يحوّل الذكاء الاصطناعي إلى ميزة أساسية بدلاً من كونه منتجًا منفصلاً يجب اختياره. فعندما يظهر الذكاء الاصطناعي في محركات البحث، والهواتف، والبريد الإلكتروني، والمستندات، والاجتماعات، ومتاجر التطبيقات، يصبح هو "ماهية الذكاء الاصطناعي" بالنسبة لمعظم الناس. وهذا بدوره يُضيّق نطاق توقعات الجمهور: فإذا كان الذكاء الاصطناعي في تطبيقاتك يقتصر في الغالب على كونه أداة كتابة، فسيفترض المستخدمون أن الذكاء الاصطناعي مرادفٌ للكتابة. وتُحدّد المنصات، بهدوء، أسلوب العرض.
ما هي الطرق الرئيسية التي تعمل بها قواعد المنصات ومتاجر التطبيقات كحراس بوابة للذكاء الاصطناعي؟
تُحدد سياسات مراجعة التطبيقات، وشروط السوق، وقواعد المحتوى، وقيود واجهة برمجة التطبيقات (API) ميزات الذكاء الاصطناعي المسموح بها وكيفية عملها. حتى عندما تُصاغ القواعد على أنها حماية للأمان أو الخصوصية، فإنها تُؤثر أيضًا على المنافسة من خلال رفع تكاليف الامتثال والتنفيذ. بالنسبة للمطورين، هذا يعني أن تحديثات السياسات قد تكون بنفس أهمية تحديثات النماذج. عمليًا، غالبًا ما يكون "ما يُنشر" هو "ما يُسمح به"
كيف تتناسب منصات الذكاء الاصطناعي السحابية مثل SageMaker وAzure ML وVertex AI مع دور شركات التكنولوجيا الكبرى في مجال الذكاء الاصطناعي؟
تجمع منصات الذكاء الاصطناعي السحابية التدريب والنشر والمراقبة والحوكمة والأمان في مكان واحد، مما يقلل من التعقيدات للشركات الناشئة والمؤسسات الكبيرة. وتُسهّل أدوات مثل Amazon SageMaker وAzure Machine Learning وVertex AI عملية التوسع وإدارة التكاليف من خلال التعامل مع مزود واحد. إلا أن هذه الميزة قد تزيد من احتمالية الاعتماد على مزود واحد، نظرًا لتكامل سير العمل والصلاحيات والمراقبة بشكل كامل في هذا النظام.
ما الذي ينبغي على مشتري الأعمال التجارية أن يسأل عنه قبل اعتماد أدوات الذكاء الاصطناعي من شركات التكنولوجيا الكبرى؟
ابدأ بالبيانات: أين تُخزَّن، وكيف تُعزل، وما هي ضوابط الاحتفاظ بها ومراجعتها. استفسر عن ضوابط الإدارة، والتسجيل، وحدود الوصول، وكيف تُقيَّم النماذج من حيث المخاطر في مجال عملك. اختبر أيضًا الأسعار، لأن التكاليف القائمة على الاستخدام قد ترتفع مع ازدياد التبني. في البيئات الخاضعة للوائح، واجعل توقعاتك متوافقة مع الأطر ومتطلبات الامتثال التي تستخدمها مؤسستك بالفعل.
كيف يمكن للمطورين تجنب الاعتماد على مورد واحد عند بناء تطبيقاتهم باستخدام واجهات برمجة تطبيقات الذكاء الاصطناعي الخاصة بشركات التكنولوجيا الكبرى؟
يتمثل أحد الأساليب الشائعة في تصميم النظام مع مراعاة قابلية النقل: تغليف استدعاءات النموذج بطبقة تجريدية، والحفاظ على إصدارات المطالبات والسياسات ومنطق التقييم قابلة للاختبار. تجنب الاعتماد على ميزة خاصة بمورد واحد قد تتغير أو تختفي. تتبع حدود المعدل وتحديثات الأسعار وتغييرات السياسات كجزء من الصيانة الدورية. قابلية النقل ليست مجانية، ولكنها عادةً ما تكون أقل تكلفة من الترحيل القسري.
كيف تخلق الخصوصية والتخصيص "صفقة ثقة" مع ميزات الذكاء الاصطناعي؟
غالباً ما تُحسّن التخصيصات من فعالية الذكاء الاصطناعي، لكنها عادةً ما تزيد من انكشاف البيانات وتُثير شعوراً بالريبة. تُحيط شركات التكنولوجيا الكبرى ببيانات السلوك، وبيانات المؤسسات، وبيانات المنصات، وبيانات الأجهزة، لذا يُدقّق المستخدمون والجهات التنظيمية في كيفية تأثير هذه البيانات على التدريب، والضبط الدقيق، وقرارات المنتج. ويُعدّ المعيار العملي هو قدرة الشركة على شرح ممارساتها المتعلقة ببيانات الذكاء الاصطناعي بوضوح دون التستر وراء المصطلحات القانونية. وتُعدّ الضوابط الجيدة وخيارات الانسحاب الحقيقية أمراً بالغ الأهمية.
ما هي المعايير واللوائح الأكثر صلة بحوكمة وسلامة الذكاء الاصطناعي لدى شركات التكنولوجيا الكبرى؟
في العديد من سلاسل التوريد، يمزج نظام الحوكمة بين سياسات السلامة الداخلية والأطر والقوانين الخارجية. غالبًا ما تستند المؤسسات إلى إرشادات إدارة المخاطر، مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا (NIST)، ومعايير الإدارة مثل ISO/IEC 42001، والقواعد الإقليمية مثل اللائحة العامة لحماية البيانات (GDPR) وقانون الذكاء الاصطناعي للاتحاد الأوروبي، وذلك في حالات استخدام محددة. تؤثر هذه العوامل على عمليات التسجيل والتدقيق وحدود البيانات، وما يُسمح به وما يُحظر. يكمن التحدي في أن الامتثال قد يصبح مكلفًا، مما قد يصب في مصلحة الشركات الكبرى.
هل يُعد تأثير شركات التكنولوجيا الكبرى على المنافسة والأنظمة البيئية أمراً سيئاً دائماً؟
ليس تلقائيًا. تستطيع المنصات تذليل العقبات، وتوحيد الأدوات، وتمويل الأمن والبنية التحتية التي لا تستطيع الفرق الصغيرة تحمل تكلفتها. لكن هذه الديناميكيات نفسها قد تُقلل التنوع إذا أصبح الجميع مجرد غلاف رقيق حول عدد قليل من واجهات برمجة التطبيقات (APIs) والحوسبة السحابية والأسواق المهيمنة. انتبه لأنماط مثل دمج الحوسبة والتوزيع، بالإضافة إلى تغيرات التسعير والسياسات التي يصعب تجنبها. عادةً ما تُبقي الأنظمة البيئية الأكثر صحة مساحةً للتوافق التشغيلي ودخول جهات جديدة.
مراجع
-
الوكالة الدولية للطاقة - الطاقة والذكاء الاصطناعي - iea.org
-
الوكالة الدولية للطاقة - الطلب على الطاقة من الذكاء الاصطناعي - iea.org
-
إنفيديا - نظرة عامة على منصات الاستدلال بالذكاء الاصطناعي - nvidia.com
-
خدمات أمازون السحابية - وثائق Amazon SageMaker AI (ما هو SageMaker؟) - aws.amazon.com
-
مايكروسوفت - Azure Machine Learning - learn.microsoft.com
-
جوجل كلاود - فيرتكس للذكاء الاصطناعي - cloud.google.com
-
جوجل كلاود - عمليات التعلم الآلي على منصة Vertex AI - cloud.google.com
-
مايكروسوفت - دليل بنية عمليات التعلم الآلي (MLOps) الإصدار الثاني - learn.microsoft.com
-
مطور أبل - Core ML - developer.apple.com
-
مطورو جوجل - مجموعة أدوات التعلم الآلي - developers.google.com
-
إرشادات مراجعة التطبيقات لمطوري Apple - developer.apple.com
-
مساعدة Google Play Console - أمان البيانات - support.google.com
-
arXiv - قوانين القياس لنماذج اللغة العصبية - arxiv.org
-
arXiv - تدريب نماذج لغوية كبيرة مثالية حسابيًا (Chinchilla) - arxiv.org
-
المعهد الوطني للمعايير والتكنولوجيا - إطار إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0) - nist.gov
-
المعهد الوطني للمعايير والتكنولوجيا - ملف تعريف الذكاء الاصطناعي التوليدي (مرفق إطار إدارة مخاطر الذكاء الاصطناعي) - nist.gov
-
المنظمة الدولية للتوحيد القياسي - ISO/IEC 42001:2023 - iso.org
-
EUR-Lex - اللائحة (الاتحاد الأوروبي) 2016/679 (اللائحة العامة لحماية البيانات) - eur-lex.europa.eu
-
EUR-Lex - اللائحة (الاتحاد الأوروبي) 2024/1689 (قانون الذكاء الاصطناعي للاتحاد الأوروبي) - eur-lex.europa.eu
-
منظمة التعاون الاقتصادي والتنمية - مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية - oecd.ai