01:51
أنثروبيك ت relax التزامات السلامة في الذكاء الاصطناعي، مما يثير نمطًا جديدًا من المنافسة مع OpenAI
في 25 فبراير، أعلنت شركة Anthropic مؤخرًا عن تعديل سياستها الخاصة بأمان الذكاء الاصطناعي، حيث أزالت الالتزام السابق بعدم تدريب أنظمة الذكاء الاصطناعي المتقدمة قبل استكمال تدابير السلامة بشكل كامل. هذا التغيير يمنح Anthropic مرونة أكبر في المنافسة مع OpenAI وGoogle وxAI، وأثار أيضًا مناقشات في الصناعة حول التوازن بين التطور السريع للذكاء الاصطناعي وضمان السلامة. قال Jared Kaplan، كبير العلماء في Anthropic، إن التوقف عن التدريب لا يحل المشكلة الأمنية حقًا، وأن التوقف الأحادي الجانب عن التطوير ليس حكيمًا في ظل التقدم السريع للمنافسين. وأكدت الشركة أنها ستعزز الشفافية من خلال إصدار خارطة طريق أمان متقدمة وتقارير مخاطر منتظمة، وستؤخر التطوير عند اكتشاف مخاطر كارثية كبيرة.
المزيد