كشفت شركة ميتا عن إطار عمل جديد يحمل اسم Frontier AI Framework، يحدد المعايير التي قد تدفعها إلى التراجع عن إطلاق أنظمة ذكاء اصطناعي متقدمة تراها شديدة الخطورة، في خطوة قد تعيد تشكيل استراتيجيات تطوير الذكاء الاصطناعي داخل الشركة.
ورغم تأكيد مارك زوكربيرغ، الرئيس التنفيذي لـميتا، التزامه بجعل الذكاء الاصطناعي العام (AGI) متاحًا للجميع في المستقبل، توضح الوثيقة الجديدة أن هناك سيناريوهات قد تدفع الشركة إلى حجب أنظمة قوية طورتها داخليًا، وفقًا لتقرير نشره موقع تك كرانش.
بحسب ميتا، هناك فئتان من الأنظمة التي قد يتم منع إطلاقها: الأنظمة عالية الخطورة، التي قد تسهل تنفيذ هجمات إلكترونية أو كيمياوية أو بيولوجية، والأنظمة ذات المخاطر الحرجة، التي قد تؤدي إلى نتائج كارثية لا يمكن التخفيف منها عند استخدامها. وتضمنت الوثيقة أمثلة مثل الاختراق الشامل لأنظمة مؤمنة أو نشر أسلحة بيولوجية عالية التأثير، ما يسلط الضوء على المخاطر التي قد تنتج عن أنظمة الذكاء الاصطناعي فائقة التطور.
المثير للجدل أن “ميتا” لا تعتمد على اختبار علمي موحد لتقييم المخاطر، بل تستند إلى مداخلات الباحثين والمراجعات الداخلية لتحديد ما إذا كان النظام خطيرًا أم لا. وفي حال تصنيف نظام ما على أنه عالي الخطورة، ستعمل “ميتا” على تقييد الوصول إليه داخليًا حتى يتم تقليل مستوى الخطر، أما إذا كان النظام خطيرًا للغاية، فقد تتخذ الشركة تدابير أمنية مشددة لمنع تسريبه، بل إيقاف تطويره بالكامل حتى يصبح أكثر أمانًا.
تأتي هذه الخطوة في وقت تواجه فيه ميتا انتقادات بسبب نهجها المفتوح في تطوير الذكاء الاصطناعي، لا سيما بعد أن أصبحت نماذجها Llama متاحة على نطاق واسع، مما أدى إلى استخدامها من قبل جهات غير مرغوب فيها، بما في ذلك خصوم أميركا. الإطار الجديد يضع “ميتا” في مواجهة مع شركات مثل OpenAI، التي تتبنى نهجًا أكثر تحفظًا في إتاحة تقنياتها، ومع DeepSeek الصينية، التي تواجه اتهامات بتطوير أنظمة ذكاء اصطناعي غير محمية يسهل توجيهها لإنتاج محتوى ضار.
بحسب ميتا، فإن هذه الاستراتيجية تهدف إلى تحقيق توازن بين الابتكار والتحديات الأمنية، بحيث تستمر الشركة في تطوير تقنيات الذكاء الاصطناعي دون المساس بالسلامة العامة، في وقت تزداد فيه المخاوف من التداعيات غير المتوقعة لهذه الأنظمة المتقدمة.
اترك تعليقاً