ปัญญาประดิษฐ์ถูกนิยามมานานด้วยขนาด—โมเดลที่ใหญ่ขึ้น การประมวลผลที่รวดเร็วขึ้น และศูนย์ข้อมูลขนาดใหญ่ แต่กลุ่มนักวิจัย นักลงทุน และผู้ปฏิบัติงานที่เพิ่มขึ้นกำลังเสนอว่าทางเดินการเติบโตแบบดั้งเดิมกำลังเจอเพดานแล้ว AI มีต้นทุนสูงขึ้นเรื่อย ๆ และถูกผูกติดอยู่กับข้อจำกัดทางกายภาพ โดยผลตอบแทนที่ลดลงปรากฏเร็วกว่าที่หลายคนคาดคิด ข้อมูลล่าสุดเน้นย้ำการเปลี่ยนแปลงนี้: ความต้องการไฟฟ้าจากศูนย์ข้อมูลทั่วโลกคาดว่าจะเพิ่มขึ้นมากกว่าสองเท่าในปี 2030 ซึ่งเป็นการพุ่งสูงที่เทียบได้กับการขยายอุตสาหกรรมทั้งภาค ในสหรัฐอเมริกา การใช้พลังงานของศูนย์ข้อมูลคาดว่าจะเพิ่มขึ้นเกิน 100% ภายในสิ้นทศวรรษ เมื่อเศรษฐศาสตร์ของ AI เข้มงวดขึ้น การลงทุนใหม่มูลค่าหลายล้านล้านดอลลาร์และการอัปเกรดโครงข่ายไฟฟ้าขนาดใหญ่กำลังรออยู่ พร้อมกับวิธีที่เทคโนโลยีฝังตัวเข้าไปในงานด้านการเงิน กฎหมาย และคริปโตเคอร์เรนซี
สาระสำคัญ
ความต้องการพลังงานที่เกี่ยวข้องกับ AI เร่งตัวขึ้น โดย IEA คาดการณ์ว่าการใช้ไฟฟ้าจากศูนย์ข้อมูลจะเพิ่มขึ้นมากกว่าสองเท่าในปี 2030 เน้นให้เห็นข้อจำกัดพื้นฐานในแนวทางการขยายขนาดในปัจจุบัน
สหรัฐอเมริกาอาจเห็นการใช้พลังงานของศูนย์ข้อมูลพุ่งขึ้นเกิน 100% ก่อนปี 2030 ซึ่งเป็นสัญญาณของความท้าทายด้านทรัพยากรและโครงสร้างพื้นฐานสำหรับภาค AI
ต้นทุนการฝึก AI ขั้นสูงพุ่งสูงขึ้น คาดว่าการรันฝึกโมเดลแต่ละครั้งอาจเกิน 1 พันล้านดอลลาร์ ทำให้การคาดการณ์และการดำเนินงานต่อเนื่องกลายเป็นค่าใช้จ่ายหลักในระยะยาว
ภาระการตรวจสอบเพิ่มขึ้นตามขนาด: เมื่อผลลัพธ์ของ AI เพิ่มขึ้น การควบคุมโดยมนุษย์จึงมีความสำคัญมากขึ้นเพื่อป้องกันข้อผิดพลาด เช่น การแจ้งเตือนเท็จในระบบ AML อัตโนมัติ
การเปลี่ยนแปลงสถาปัตยกรรมไปสู่ระบบเชิงปัญญาหรือ neurosymbolic—เน้นการใช้เหตุผล การตรวจสอบความถูกต้อง และการปรับใช้ในพื้นที่จำกัด—เป็นแนวทางลดการใช้พลังงานและเพิ่มความน่าเชื่อถือเมื่อเทียบกับการขยายขนาดแบบ brute-force
แนวคิด AI แบบกระจายศูนย์ที่ใช้บล็อกเชน อาจช่วยกระจายข้อมูล โมเดล และทรัพยากรคอมพิวเตอร์ให้กว้างขึ้น ซึ่งอาจลดความเสี่ยงจากการรวมศูนย์และสอดคล้องกับความต้องการในท้องถิ่น
ความรู้สึก: กลาง
บริบทตลาด: การบรรจบกันของ AI กับการวิเคราะห์คริปโตและเครื่องมือ DeFi ตั้งอยู่ท่ามกลางคำถามที่กว้างขึ้นเกี่ยวกับการใช้พลังงาน กฎระเบียบ และการกำกับดูแลการตัดสินใจอัตโนมัติ ขณะที่ AI ใช้ในการตรวจสอบกิจกรรมบนเชน วิเคราะห์ความรู้สึก และช่วยพัฒนาสัญญาอัจฉริยะ อุตสาหกรรมจึงเผชิญกับความเชื่อมโยงที่แน่นหนาขึ้นระหว่างประสิทธิภาพ การตรวจสอบ และความรับผิดชอบ
ทำไมถึงสำคัญ
การถกเถียงเรื่องการขยายขนาดของ AI ไม่ใช่เรื่องทฤษฎี—แต่มันเกี่ยวข้องกับวิธีและตำแหน่งที่ AI ถูกนำไปใช้ในภาคที่มีความเสี่ยงสูง โมเดลภาษาใหญ่ (LLMs) ได้พัฒนาความสามารถโดยการจับแพทเทิร์นจากข้อมูลจำนวนมหาศาล ซึ่งทำให้สามารถทำงานได้ดี แต่ไม่เสมอไปที่จะแน่ใจในความน่าเชื่อถือและความสมบูรณ์ของเหตุผล เมื่อระบบเหล่านี้ฝังตัวในกระบวนการทางกฎหมาย การบริหารความเสี่ยงทางการเงิน และการดำเนินงานในคริปโต ผลลัพธ์ที่ผิดพลาดจะมีค่าใช้จ่ายและผลกระทบที่รุนแรงมากขึ้น
การฝึกโมเดล AI ขั้นสูงยังคงเป็นภารกิจสำคัญและมีค่าใช้จ่ายสูง นักวิเคราะห์อิสระประมาณการว่าค่าใช้จ่ายรวมในการฝึกอาจแตะหลักพันล้านดอลลาร์ในอนาคตอันใกล้ แต่สิ่งที่สำคัญยิ่งกว่าคือค่าใช้จ่ายในการคาดการณ์ผลลัพธ์—การรันโมเดลในระดับใหญ่ด้วยความล่าช้าต่ำ ความพร้อมใช้งานสูง และความต้องการการตรวจสอบอย่างเข้มงวด แต่ละคำถามใช้พลังงาน และแต่ละการใช้งานต้องการโครงสร้างพื้นฐาน เมื่อการใช้งานเพิ่มขึ้น การใช้พลังงานก็เพิ่มขึ้นตามไปด้วย ซึ่งกดดันทั้งผู้ดำเนินการและโครงข่ายไฟฟ้า ในบริบทคริปโต ระบบ AI ยิ่งใช้ในการตรวจสอบกิจกรรมบนเชน วิเคราะห์ความรู้สึก สร้างโค้ดสำหรับสัญญาอัจฉริยะ แจ้งเตือนธุรกรรมที่น่าสงสัย และอัตโนมัติการตัดสินใจ การผิดพลาดที่นี่สามารถเคลื่อนย้ายทุนและทำลายความเชื่อมั่นในตลาดได้
อุตสาหกรรมเริ่มตระหนักแล้วว่า ความสามารถในการพูดได้ดีเพียงอย่างเดียวไม่เพียงพอ เมื่อ AI สามารถสร้างข้อสรุปที่น่าเชื่อถือแต่ผิดพลาด การตรวจสอบจึงกลายเป็นภาระที่เพิ่มขึ้น ตัวอย่างเช่น การแจ้งเตือนเท็จใน AML แสดงให้เห็นว่าผลลัพธ์ที่ไม่น่าเชื่อถือสามารถสิ้นเปลืองทรัพยากรมนุษย์และทำลายความเชื่อมั่นเมื่อใช้อย่างแพร่หลาย แนวโน้มนี้จึงสนับสนุนการเปลี่ยนไปสู่สถาปัตยกรรมที่ผสมผสานเหตุผลแบบสาเหตุ กฎเกณฑ์ชัดเจน และกลไกการตรวจสอบตนเอง ซึ่งเป็นแนวทางที่มีแนวโน้มให้ความน่าเชื่อถือสูงขึ้นและใช้พลังงานน้อยลงเมื่อเทียบกับการขยายขนาดแบบ brute-force
นอกจากสถาปัตยกรรมแล้ว ยังมีแนวโน้มที่กว้างขึ้นในการกระจายการพัฒนา AI เอง บางแพลตฟอร์มสำรวจโมเดลที่ใช้บล็อกเชนเพื่อสนับสนุนการแบ่งปันข้อมูล โมเดล และทรัพยากรคอมพิวเตอร์ ซึ่งช่วยลดความเสี่ยงจากการรวมศูนย์และปรับให้สอดคล้องกับความต้องการในท้องถิ่น ในระบบนิเวศนี้ บทบาทของการกำกับดูแลจะมีความสำคัญมากขึ้น: แพลตฟอร์มต้องรองรับการตรวจสอบ การปรับแต่ง และการทำงานร่วมกันโดยไม่ลดทอนความปลอดภัยหรือประสิทธิภาพ การเปลี่ยนไปสู่การใช้เหตุผลที่ซับซ้อนมากขึ้น พร้อมกับความมุ่งมั่นในผลลัพธ์ที่สามารถตรวจสอบได้ เป็นการเปลี่ยนแปลงที่สำคัญจากการขยายขนาดเพื่อการขยายขนาดเท่านั้น หากอุตสาหกรรมสามารถนำสถาปัตยกรรมเชิงปัญญาไปใช้ในระดับใหญ่ได้ เศรษฐศาสตร์ของ AI ก็อาจดีขึ้น—ลดการใช้พลังงานต่อการตัดสินใจและภาระการตรวจสอบของมนุษย์
ในวงการคริปโต การเปลี่ยนแปลงนี้มีความสำคัญ ระบบ AI ที่ช่วยวิเคราะห์บนเชน ค้นหาการฉ้อโกง และเครื่องมือสัญญาอัจฉริยะจะส่งผลต่อความเชื่อมั่นของนักลงทุนและความสมบูรณ์ของตลาด เส้นทางข้างหน้าจึงไม่ใช่แค่โมเดลที่ใหญ่ขึ้น แต่เป็นระบบที่ฉลาดขึ้น—ระบบที่สามารถตรวจสอบ แก้ไข และพัฒนาการทำงานของตนเองโดยชุมชนกว้าง ระบบเหล่านี้จะไม่ใช่แค่เรื่องของการเติบโต แต่เป็นการเติบโตอย่างมีความรับผิดชอบและตรวจสอบได้ ซึ่งสอดคล้องกับแนวทางการสร้างและใช้งานปัญญาที่เน้นความน่าเชื่อถือ การกำกับดูแล และความโปร่งใส
บทความนี้เคยเผยแพร่ครั้งแรกในหัวข้อ Scaling Next-Gen AI Is Increasing Risks, Not Benefits บน Crypto Breaking News—แหล่งข่าวที่เชื่อถือได้สำหรับข่าวคริปโต ข่าว Bitcoin และอัปเดตบล็อกเชน