บริษัทด้านปัญญาประดิษฐ์ Anthropic กับรัฐบาลสหรัฐฯ ยังคงมีความขัดแย้งที่ทวีความรุนแรงขึ้นอย่างต่อเนื่อง ตามรายงานของ Reuters กระทรวงกลาโหมสหรัฐฯ (Pentagon) ได้ประกาศเมื่อไม่นานมานี้ว่าได้จัดตั้ง Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” (supply-chain risk) ซึ่งเป็นการจำกัดการใช้งานเทคโนโลยี AI ของบริษัทในสัญญาทางทหาร Anthropic โต้แย้งว่าการตัดสินใจนี้ไม่มีพื้นฐานทางกฎหมาย และได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินดังกล่าว
(ข้อมูลเบื้องต้น: Anthropic กลับมาเจรจาใหม่กับ Pentagon พยายามรักษาความร่วมมือด้านความมั่นคงของ Claude แต่ยังคงยืนหยัดในเส้นทางจริยธรรม)
(ข้อมูลเสริม: CEO ของ Anthropic โจมตีว่า สัญญากับ OpenAI และ Pentagon เป็นคำโกหกทั้งหมด และ Altman ปลอมตัวเป็นทูตสันติภาพ)
สารบัญบทความ
Toggle
ความขัดแย้งระหว่างบริษัทด้านปัญญาประดิษฐ์ Anthropic กับรัฐบาลสหรัฐฯ ได้เข้าสู่ช่วงการดำเนินคดีทางกฎหมายอย่างเป็นทางการ กระทรวงกลาโหมสหรัฐฯ ได้ประกาศว่าได้จัดตั้ง Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งเป็นการจำกัดการใช้งานโมเดล AI ของบริษัทในสัญญาทางทหาร โดย Anthropic ได้โต้แย้งอย่างรุนแรงว่า การตัดสินใจนี้ “ไม่เป็นไปตามกฎหมายและไม่มีพื้นฐานทางกฎหมาย” และได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินดังกล่าว รวมทั้งสั่งห้ามรัฐบาลดำเนินการตามมาตรการจำกัดดังกล่าว
จากรายงานของ Reuters ก่อนหน้านี้ กระทรวงกลาโหมสหรัฐฯ ได้แจ้งอย่างเป็นทางการต่อ Anthropic ว่า บริษัทและเทคโนโลยี AI ของบริษัทได้รับการจัดเป็น “ความเสี่ยงในห่วงโซ่อุปทาน” ซึ่งการตัดสินใจนี้มีผลบังคับใช้ทันที การจัดประเภทนี้มักใช้เพื่อจำกัดผู้จำหน่ายที่อาจก่อให้เกิดความเสี่ยงต่อความมั่นคงของประเทศ และอาจห้ามไม่ให้ผลิตภัณฑ์ของบริษัทปรากฏในกระบวนการจัดซื้อของกองทัพหรือในสัญญาทางทหาร
ในเชิงปฏิบัติ นั่นหมายความว่า ผู้รับเหมาและซัพพลายเออร์ที่ทำงานร่วมกับกองทัพสหรัฐฯ อาจไม่สามารถใช้โมเดล AI ของ Anthropic เช่น ระบบ Claude ที่เป็นที่รู้จักได้ ข้อสังเกตจากภายนอกคือ นี่เป็นกรณีที่หาได้ยากมาก เพราะโดยปกติแล้ว การจัดประเภทเช่นนี้มักใช้กับบริษัทต่างชาติหรือซัพพลายเออร์ที่ถูกมองว่าเป็นภัยต่อความมั่นคงแห่งชาติ มากกว่าบริษัท AI ในประเทศสหรัฐฯ เอง
แก่นของความขัดแย้งนี้อยู่ที่การจำกัดการใช้งานเทคโนโลยี AI ของ Anthropic ตามรายงานของสื่อหลายแห่ง บริษัทได้ชัดเจนปฏิเสธไม่ให้โมเดล AI ของตนถูกนำไปใช้ในสองกลุ่มความเสี่ยงสูง ได้แก่:
อย่างไรก็ตาม กระทรวงกลาโหมสหรัฐฯ ในการเจรจากับบริษัท ต้องการให้โมเดล AI สามารถอนุญาตให้ใช้ใน “ทุกวัตถุประสงค์ที่ถูกกฎหมาย” ทั้งสองฝ่ายไม่สามารถบรรลุข้อตกลงในเรื่องข้อจำกัดด้านความปลอดภัยนี้ จนในที่สุดการเจรจาก็ล้มเหลวและนำไปสู่การประกาศให้ Anthropic เป็น “ความเสี่ยงในห่วงโซ่อุปทาน”
Dario Amodei ซีอีโอของ Anthropic กล่าวว่า บริษัทเชื่อว่าการตัดสินใจของกระทรวงกลาโหม “ไม่มีความชอบธรรมทางกฎหมาย” และเตือนว่าการดำเนินการนี้อาจสร้างบรรทัดฐานอันตรายให้กับรัฐบาลในการลงโทษบริษัทต่าง ๆ Anthropic ได้ยื่นฟ้องต่อศาลรัฐบาลกลางเพื่อขอให้เพิกถอนการตัดสินและสั่งห้ามรัฐบาลดำเนินการตามมาตรการจำกัดดังกล่าว
บริษัทชี้ว่า “การจัดประเภทเป็นความเสี่ยงในห่วงโซ่อุปทาน” โดยปกติแล้วใช้กับบริษัทต่างชาติ และการนำไปใช้กับบริษัท AI ในสหรัฐฯ อาจส่งผลกระทบอย่างลึกซึ้งต่ออุตสาหกรรมเทคโนโลยีและรูปแบบความร่วมมือระหว่างภาครัฐและเอกชน
นักวิเคราะห์ชี้ว่า คดีนี้สะท้อนให้เห็นถึงความท้าทายใหม่ที่อุตสาหกรรม AI กำลังเผชิญ เมื่อโมเดลขนาดใหญ่เริ่มเข้าสู่ด้านการทหารและความมั่นคงของประเทศ บริษัทจะสามารถจำกัดการใช้งานของรัฐบาลต่อเทคโนโลยีของตนได้หรือไม่?
นักนโยบายบางกลุ่มเชื่อว่า หากรัฐบาลสามารถลงโทษทางเศรษฐกิจบริษัทที่ตั้งข้อจำกัดด้านความปลอดภัยได้ ก็อาจลดอำนาจในการตัดสินใจด้านความปลอดภัยและจริยธรรมของ AI ของบริษัทเทคโนโลยีลง ในทางตรงกันข้าม ฝ่ายกองทัพมองว่าเทคโนโลยี AI มีความสำคัญเชิงกลยุทธ์ต่อความมั่นคงของชาติ และไม่ควรได้รับการจำกัดมากเกินไป
ผลลัพธ์ของคดีนี้อาจไม่เพียงแต่เป็นการตัดสินใจว่า Anthropic จะสามารถฟื้นฟูความร่วมมือกับรัฐบาลสหรัฐฯ ได้หรือไม่ แต่ยังอาจเป็นบรรทัดฐานสำคัญสำหรับโมเดลความร่วมมือในอนาคตระหว่างบริษัท AI กับรัฐบาลอีกด้วย