العقود الآجلة
مئات العقود تتم تسويتها بـ USDT أو BTC
TradFi
الذهب
تداول الأصول المالية التقليدية العالمية باستخدام USDT في مكان واحد
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
انطلاقة العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
شارك في الفعاليات لربح مكافآت سخية
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واستمتع بمكافآت التوزيع المجاني!
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
الاستثمار
الربح البسيط
اكسب فوائد من الرموز المميزة غير المستخدمة
الاستثمار التلقائي
استثمر تلقائيًا على أساس منتظم
الاستثمار المزدوج
اشترِ بسعر منخفض وبِع بسعر مرتفع لتحقيق أرباح من تقلبات الأسعار
التخزين الناعم
اكسب مكافآت مع التخزين المرن
استعارة واقتراض العملات
0 Fees
ارهن عملة رقمية واحدة لاقتراض عملة أخرى
مركز الإقراض
منصة الإقراض الشاملة
مركز ثروة VIP
إدارة الثروات المخصصة تمكّن نمو أصولك
إدارة الثروات الخاصة من
إدارة أصول مخصصة لتنمية أصولك الرقمية
الصندوق الكمي
يساعدك فريق إدارة الأصول المحترف على تحقيق الأرباح بسهولة
التكديس
قم بتخزين العملات الرقمية للحصول على أرباح في منتجات إثبات الحصة
الرافعة المالية الذكية
New
لا تتم التصفية القسرية قبل تاريخ الاستحقاق، مما يتيح تحقيق أرباح باستخدام الرافعة المالية دون قلق
سكّ GUSD
استخدم USDT/USDC لسكّ GUSD للحصول على عوائد بمستوى الخزانة
رسالة مفتوحة من أنثروبيك: سام ألتمان المنافق، سيد التلاعب النفسي
أريد أن أوضح بشكل واضح المعلومات التي تصدرها OpenAI حاليًا، وما تحتويه من نفاق. هذا هو أسلوبهم الحقيقي، وأتمنى أن يتمكن الجميع من رؤيته بوضوح.
على الرغم من أن لدينا العديد من الغموض حول العقد الذي وقعوه مع وزارة الدفاع (DoD) (حتى أنهم قد لا يكونون على دراية كاملة به، لأن بنوده ربما غامضة جدًا)، إلا أن هناك بعض الأمور المؤكدة: من الوصف العلني لـ Sam Altman ووزارة الدفاع (بالطبع نحتاج إلى الاطلاع على نص العقد النهائي للتأكيد)، فإن نموذج التعاون لديهم يتلخص في التالي: النموذج نفسه لا يخضع لأي قيود قانونية على الاستخدام، أي «جميع الاستخدامات القانونية»؛ ويُضاف إليه طبقة تسمى «طبقة الأمان». في رأيي، هذه «الطبقة الأمنية» في جوهرها آلية رفض من النموذج، تُستخدم لمنع النموذج من إتمام بعض المهام أو المشاركة في تطبيقات معينة.
ما يُسمى بـ «الطبقة الأمنية»، قد تشير أيضًا إلى الحلول التي يحاول شركاؤنا (مثل Palantir، والشريك التجاري الذي يخدم الحكومة الأمريكية عند تعامل Anthropic معها) أن يروّجوا لها خلال المفاوضات. هم يقترحون نظام مصنف أو نظام تعلم آلي، يدّعون أنه يسمح ببعض التطبيقات ويمنع أخرى. بالإضافة إلى ذلك، هناك مؤشرات على أن OpenAI قد يُخصص موظفين (FDE، أي مهندسي نشر الخطوط الأمامية) لمراقبة استخدام النموذج، لمنع التطبيقات غير الملائمة.
تقييمنا العام هو: أن هذه الحلول ليست بلا فائدة تمامًا، لكن في سياق الاستخدام العسكري، حوالي 20% منها حقيقي وفعّال، و80% منها مجرد «عرض أمان».
جذر المشكلة يكمن في أن استخدام النموذج في المراقبة واسعة النطاق أو في أنظمة الأسلحة الذاتية بالكامل يعتمد على سياق أوسع. النموذج نفسه لا يعرف في أي نظام يُستخدم، ولا يدري إذا كان هناك «دائرة بشرية» (human-in-the-loop، وهو أمر حاسم في الأسلحة الذاتية)؛ كما أنه لا يعلم مصدر البيانات التي يُحللها. على سبيل المثال، هل هي بيانات داخل الولايات المتحدة أم خارجها، هل هي بيانات حصلت عليها الشركات بموافقة المستخدمين، أم مشتراة عبر قنوات غير رسمية، وما إلى ذلك.
منذ زمن بعيد، أدرك العاملون في مجال الأمان أن آلية رفض النموذج غير موثوقة. هجمات الاختراق والتجاوز كثيرة جدًا، وغالبًا ما يمكن تجاوز القيود ببساطة عن طريق التلاعب في طبيعة البيانات التي يُبلغ النموذج عنها.
هناك فرق رئيسي يجعل الأمر أكثر تعقيدًا من مجرد حماية أمنية عادية: فحُكم ما إذا كان النموذج ينفذ هجومًا عبر الشبكة يمكن استنتاجه من المدخلات والمخرجات غالبًا؛ لكن تحديد طبيعة الهجوم وسياقه هو أمر مختلف تمامًا، وهو بالضبط ما نحتاج إلى قدرات على تقييمه. في كثير من الحالات، يكون هذا الأمر شديد الصعوبة، وربما مستحيلًا.
أما بالنسبة لـ Palantir، فهي تروّج لنا لـ «الطبقة الأمنية» (وأعتقد أنها عرضت على OpenAI أيضًا حلولًا مماثلة)، وتقييمنا أن الأمر يكاد يكون مجرد «عرض أمان» لا أكثر.
منطق Palantir الأساسي يبدو كالتالي: «قد يكون في شركتكم بعض الموظفين غير الراضين، وأنتم بحاجة إلى شيء يطمئنهم، أو أن تجعلوا الأمور التي تحدث غير مرئية لهم. هذا هو ما نقدمه لكم.»
أما بالنسبة لمراقبة موظفي Anthropic أو OpenAI مباشرة أثناء نشر النماذج، فقد ناقشنا ذلك قبل عدة أشهر أثناء وضع سياسة الاستخدام المقبول (AUP) في بيئة سرية موسعة. كانت النتيجة واضحة جدًا: أن هذه الطريقة لا تصلح إلا في حالات نادرة جدًا. سنحاول قدر المستطاع، لكنها ليست آلية حماية أساسية يمكن الاعتماد عليها، خاصة في بيئات سرية. وبالمناسبة، نحن نعمل على ذلك قدر المستطاع، وليس لدينا اختلاف كبير مع OpenAI في هذا الشأن.
لذا، أقول إن التدابير التي تتخذها OpenAI لا تكاد تحل المشكلة.
الفرق الجوهري بيننا وبينهم هو أن اهتمامهم ينصب على تهدئة الموظفين، بينما نحن نركز على منع سوء الاستخدام الحقيقي.
هذه الحلول ليست بلا فائدة، ونحن نستخدم بعضها أيضًا، لكنها بعيدة جدًا عن معايير الأمان المطلوبة. بالإضافة إلى ذلك، فإن وزارة الدفاع تتعامل مع OpenAI ومعنا بشكل غير متساوٍ.
في الواقع، حاولنا إدراج بنود أمنية مماثلة لتلك التي لدى OpenAI (كملحق لسياسة الاستخدام المقبول، حيث نعتبرها أكثر أهمية)، لكن وزارة الدفاع رفضت ذلك. الدليل على ذلك موجود في سلسلة الرسائل حينها. وبسبب انشغالي الحالي، قد يضطر زملائي للبحث لاحقًا عن النصوص الدقيقة. لذلك، فإن القول إن «بنود OpenAI عُرضت علينا ورفضناها» غير دقيق؛ وكذلك فإن القول إن «بنود OpenAI يمكن أن تمنع المراقبة الداخلية واسعة النطاق أو الأسلحة الذاتية بشكل فعال» غير صحيح أيضًا.
علاوة على ذلك، فإن تصريحات Sam وOpenAI تشير أيضًا إلى أن الخطوط الحمراء التي اقترحناها، مثل الأسلحة الذاتية بالكامل والمراقبة الداخلية الواسعة، تعتبر بالفعل غير قانونية، وأن سياسات الاستخدام ذات الصلة غير ضرورية. هذا الكلام يتطابق تقريبًا مع تصريحات وزارة الدفاع، ويبدو وكأنه تنسيق مسبق.
لكن هذا غير صحيح.
كما أوضحنا في بياننا أمس، فإن وزارة الدفاع لديها صلاحية إجراء مراقبة داخلية واسعة. في زمن ما قبل وجود الذكاء الاصطناعي، كانت هذه الصلاحيات ذات تأثير محدود، لكن في عصر الذكاء الاصطناعي، أصبح الأمر مختلفًا تمامًا.
على سبيل المثال، يمكن لوزارة الدفاع بشكل قانوني شراء كميات هائلة من البيانات الخاصة بالمواطنين الأمريكيين من مزودين غالبًا ما يحصلون على حق إعادة البيع عبر شروط سرية للمستخدمين، ثم تستخدم الذكاء الاصطناعي لتحليل هذه البيانات بشكل واسع، لبناء ملفات شخصية للمواطنين، وتقييم ميولهم السياسية، وتتبع تحركاتهم في الواقع، وحتى الوصول إلى بيانات GPS وغيرها.
جدير بالذكر أنه عند اقتراب التفاوض من نهايته، اقترحت وزارة الدفاع أن نزيل بندًا في العقد يتحدث عن «تحليل البيانات المجمعة بشكل واسع»، مقابل أن يقبلوا باقي البنود، وهو البند الوحيد الذي يتطابق تمامًا مع مخاوفنا. كنا نشك في ذلك جدًا.
وفيما يخص الأسلحة الذاتية، تدعي وزارة الدفاع أن «الإنسان في الحلقة» هو مطلب قانوني. لكن الواقع أن الأمر ليس كذلك. هذه مجرد سياسة من إدارة بايدن، تتطلب وجود إنسان في قرار إطلاق السلاح، ويمكن لوزير الدفاع الحالي، بيت هجسث، تعديلها بشكل أحادي — وهو ما يقلقنا حقًا. لذلك، من الناحية الواقعية، ليست قيودًا حقيقية.
أما التصريحات الإعلامية الكثيرة من OpenAI ووزارة الدفاع حول هذه المسائل، فهي إما كذب أو محاولة لصناعة لبس. وتكشف هذه الحقائق عن نمط سلوكي رأيته مرارًا وتكرارًا في Sam Altman. وأتمنى أن يتمكن الجميع من التعرف عليه.
صباح اليوم، قال إنه يوافق على الخطوط الحمراء التي وضعناها، بهدف إظهار الدعم لنا، وتحقيق بعض المكاسب، وتجنب الانتقاد عند استلامهم للعقد. وحاول أن يصور نفسه كـ «صانع سلام» و«وسيط موحد للمعايير في الصناعة».
لكن في الخفاء، هو يوقع عقدًا مع وزارة الدفاع، ويستعد ليحل محلنا عندما يُصنّفنا كمخاطر في سلسلة التوريد.
وفي الوقت ذاته، عليه أن يضمن أن يظهر الأمر وكأنه: «بينما Anthropic يلتزم بالخطوط الحمراء، فإن OpenAI يتخلى عن المبادئ الأساسية». والسبب في ذلك هو:
أولًا، أنه يمكنه توقيع جميع التدابير التي نرفضها، مثل «العروض الأمنية»، وأن تتعاون وزارة الدفاع وشركاؤها على تغليفها بشكل مقنع لتهدئة موظفيه.
ثانيًا، أن وزارة الدفاع مستعدة لقبول بعض البنود التي اقترحها، بينما رفضناها حينها.
وهذا هو السبب في أن OpenAI يمكنها إبرام عقد، ونحن لا نستطيع.
السبب الحقيقي وراء عدم رضا وزارة الدفاع وإدارة ترامب عنا هو: أننا لم نقدم تبرعات سياسية لترامب (بينما فعلت OpenAI وGreg Brockman ذلك بكثرة)، وأننا لم نمدح ترامب بشكل استبدادي، بينما فعل Sam، وأننا ندعم تنظيم الذكاء الاصطناعي، وهو ما يتعارض مع أجندتهم السياسية، وأننا نختار قول الحقيقة في العديد من قضايا سياسات الذكاء الاصطناعي (مثل تأثير الذكاء الاصطناعي على فرص العمل)، وأننا تمسكنا بالخطوط الحمراء، وليس أن نشاركهم «العروض الأمنية» لتهدئة الموظفين.
حاليًا، يحاول Sam تصوير كل ذلك على أنه: أننا صعبو التعاون، وأن مواقفنا متصلبة، وأننا نفتقر للمرونة. وأريد من الجميع أن يدرك أن هذا نوع من «التلاعب النفسي» (gaslighting).
القول إن «التعاون مع شخص معين صعب» غالبًا ما يُستخدم لإخفاء الأسباب الحقيقية، وهي كما ذكرت: التبرعات السياسية، الولاء السياسي، والعروض الأمنية.
على الجميع أن يفهم ذلك، وأن يناقش مع موظفي OpenAI بشكل سري ويواجه هذه الرواية.
بمعنى آخر، Sam يستخدم «دعمنا» كغطاء لضعف موقفنا. وأريد من الجميع أن يظلوا يقظين: لأنه من خلال تقليل الدعم العام لنا، يسهل على الحكومة معاقبتنا. وحتى أشتبه أنه ربما يساهم بشكل غير مباشر في ذلك، رغم أني لا أملك أدلة مباشرة على ذلك حتى الآن.
على مستوى الجمهور ووسائل الإعلام، يبدو أن هذه الخطابات والتلاعب قد فقدت فعاليتها. أغلب الناس يرون أن صفقة OpenAI مع وزارة الدفاع مقلقة، وربما مقلقة جدًا، ويعتبروننا نحن الطرف المتمسك بالمبادئ (وبالمناسبة، نحن الآن في المركز الثاني على متجر التطبيقات).
【ملاحظة: بعد ذلك، تصدر Claude المركز الأول على المتجر.】
بالطبع، هذه الرواية أثرت على بعض المغردين السذج، لكن هذا لا يهم. ما يهم هو أن نضمن ألا تؤثر على موظفي OpenAI من الداخل.
وبسبب الاختيار الطبيعي، هم في الأصل مجموعة سهلة الإقناع. لكن من المهم جدًا أن نرد على هذه الرواية التي يروج لها Sam أمام موظفيه.