علوم وتكنولوجيا

ميتا تدرس إيقاف تطوير أنظمة ذكاء اصطناعي عالية المخاطر

في خطوة تعكس مخاوف متزايدة بشأن سلامة الذكاء الاصطناعي، أعلنت شركة “ميتا” عن نيتها الحد من تطوير وإطلاق بعض أنظمة الذكاء الاصطناعي عالية القدرة، التي قد تشكل تهديدات أمنية خطيرة.

وكشفت الشركة في وثيقة سياسات جديدة، أطلقت عليها اسم “Frontier AI Framework”، عن تصنيفها لأنظمة الذكاء الاصطناعي إلى نوعين رئيسيين: “عالية المخاطر” و”المخاطر الحرجة”، مشيرةً إلى أن هذه الأنظمة قد تُستخدم في عمليات تتعلق بالأمن السيبراني، والهجمات الكيميائية والبيولوجية.

وأوضحت ميتا أن أنظمة “المخاطر الحرجة” قادرة على إحداث “نتائج كارثية”، بينما قد تسهّل الأنظمة “عالية المخاطر” تنفيذ الهجمات لكنها لا تضمن نجاحها بشكل كامل. ومن بين التهديدات التي حذرت منها الشركة: “الاختراق الشامل للأنظمة المحمية بأعلى المعايير” و”انتشار الأسلحة البيولوجية عالية التأثير”.

وأكدت ميتا أنها ستعتمد على تقييمات داخلية وخارجية من قبل خبراء لاتخاذ قرارات بشأن إطلاق هذه الأنظمة، مشيرةً إلى أنها لن تتيح أي أنظمة تصنّف على أنها خطيرة دون تنفيذ تدابير صارمة للحد من المخاطر.

ورغم تبني ميتا سياسة الانفتاح في تطوير الذكاء الاصطناعي، فإنها تؤكد على ضرورة فرض ضوابط صارمة لمنع استغلال هذه التقنيات في أعمال تهدد الأمن العالمي، في خطوة قد تشكّل سابقة مهمة في مجال الذكاء الاصطناعي المتقدم.

مقالات ذات صلة

زر الذهاب إلى الأعلى