أصدرت جامعة ستانفورد نموذجا قائما على الذكاء الاصطناعي "مؤشر الشفافية" ، يتصدر اللاما 2 لكنه "يفشل" بنسبة 54٪

巴比特_

وفقا لتقرير IT House في 20 أكتوبر ، أصدرت جامعة ستانفورد مؤخرا النموذج الأساسي الذكاء الاصطناعي “مؤشر الشفافية” ، والذي يعد أعلى مؤشر منه هو Meta’s Lama 2 ، لكن “الشفافية” ذات الصلة هي 54٪ فقط ، لذلك يعتقد الباحثون أن جميع نماذج الذكاء الاصطناعي تقريبا في السوق “تفتقر إلى الشفافية”.

يذكر أن البحث قاده ريشي بوماساني ، رئيس مركز أبحاث النموذج الأساسي HAI (CRFM) ، وحقق في أكثر 10 نماذج أساسية شعبية في الخارج. يعتقد ريشي بوماساني أن “الافتقار إلى الشفافية” كان دائما مشكلة تواجهها صناعة الذكاء الاصطناعي ، وفيما يتعلق بنموذج محدد “مؤشرات الشفافية” ، وجدت IT House أن محتوى التقييم ذي الصلة يدور بشكل أساسي حول “حقوق الطبع والنشر لمجموعة بيانات التدريب النموذجية” ، “موارد الحوسبة المستخدمة لتدريب النموذج” ، “مصداقية المحتوى الذي تم إنشاؤه بواسطة النموذج” ، “قدرة النموذج نفسه” ، “خطر حث النموذج على إنشاء محتوى ضار” ، “خصوصية المستخدمين الذين يستخدمون النموذج” ، وما إلى ذلك ، ما مجموعه 100 عنصر.

أظهر الاستطلاع النهائي أن Lama 2 من Meta تصدرت الشفافية بنسبة 54٪ ، في حين أن شفافية GPT-4 من OpenAI كانت 48٪ فقط ، واحتلت PaLM 2 من Google المرتبة الخامسة بنسبة 40٪.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات