Anthropic และ OpenAI ปรับปรุงคำอธิบายกฎความปลอดภัยในบริบทการแข่งขันด้าน AI ที่เร่งตัวขึ้น

robot
ดำเนินการเจนเนเรชั่นบทคัดย่อ

Odaily Planet Daily News Anthropic ได้ลบความมุ่งมั่นด้านความปลอดภัยหลักออกจากนโยบายการขยายตัวอย่างมีความรับผิดชอบ โดยจะไม่มุ่งมั่นที่จะระงับการฝึกอบรมอีกต่อไปเมื่อมาตรการลดความเสี่ยงยังไม่ครบถ้วน Jared Kaplan ประธานเจ้าหน้าที่ฝ่ายวิทยาศาสตร์ของ Anthropic บอกกับ TIME ว่าในบริบทของการพัฒนาอย่างรวดเร็วของ AI การให้คํามั่นเพียงฝ่ายเดียวที่จะระงับการฝึกอบรมหากคู่แข่งยังคงก้าวหน้าต่อไป

OpenAI ยังแก้ไขพันธกิจเพื่อลบคําว่า “อย่างปลอดภัย” ออกจากการยื่น IRS ปี 2024 ซึ่งก่อนหน้านี้ระบุว่าสร้าง AI เอนกประสงค์ที่ “เป็นประโยชน์ต่อมนุษยชาติอย่างปลอดภัย” และตอนนี้มีการเปลี่ยนแปลงเพื่อ “ทําให้แน่ใจว่า AI เอนกประสงค์เป็นประโยชน์ต่อมวลมนุษยชาติ”

Edward Geist นักวิจัยนโยบายอาวุโสของ RAND Corporation กล่าวว่า AI ขั้นสูงที่ผู้สนับสนุนด้านความปลอดภัย AI ในยุคแรกๆ จินตนาการไว้นั้นแตกต่างจากโมเดลภาษาขนาดใหญ่ในปัจจุบันโดยพื้นฐาน และการเปลี่ยนแปลงคําศัพท์ยังสะท้อนให้เห็นถึงความปรารถนาของบริษัทที่จะส่งสัญญาณไปยังนักลงทุนและผู้กําหนดนโยบายว่าจะไม่ถอยห่างจากการแข่งขันทางเศรษฐกิจเนื่องจากความกังวลด้านความปลอดภัย

Anthropic เพิ่งเสร็จสิ้นการระดมทุน 30 พันล้านดอลลาร์โดยมีมูลค่าประมาณ 380 พันล้านดอลลาร์ OpenAI กําลังก้าวไปข้างหน้าด้วยรอบการระดมทุนสูงถึง 100 พันล้านดอลลาร์ ซึ่งได้รับการสนับสนุนจาก Amazon, Microsoft และ Nvidia ในขณะเดียวกัน Anthropic เผชิญกับความไม่แน่นอนเกี่ยวกับสัญญาด้านกลาโหมเนื่องจากความขัดแย้งต่อสาธารณชนกับ Pete Hegseth รัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ เกี่ยวกับการปฏิเสธที่จะเปิดให้ Claude เข้าถึงเพนตากอนอย่างเต็มที่ (ถอดรหัส)

ดูต้นฉบับ
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • รางวัล
  • แสดงความคิดเห็น
  • repost
  • แชร์
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น
  • ปักหมุด