คำอธิบายแนวโน้มของ B200 และ B300 จาก NVIDIA [GPU]



ในช่วงไม่กี่ปีที่ผ่านมา ความสามารถของ AI พัฒนาอย่างก้าวกระโดด หลายคนที่ใช้คอมพิวเตอร์หรือสมาร์ทโฟนสามารถสัมผัสประสบการณ์ AI สร้างสรรค์ได้ฟรี การพัฒนาความสามารถของ AI ต้องอาศัย GPU ประสิทธิภาพสูงจำนวนมหาศาล





แน่นอนว่าต้องใช้เงินลงทุนมหาศาล แต่หากไม่มีปัญหาใดเกิดขึ้น ก็เป็นความจริงที่ทุกปีจะมี GPU รุ่นใหม่ที่มีประสิทธิภาพสูงขึ้นออกมา และความจริงที่ว่าสหรัฐอเมริกาคือประเทศที่ครอบครอง GPU จำนวนมากและดำเนินธุรกิจ AI ระดับโลก
จากเหตุผลเหล่านี้ ผมจึงเขียนเกี่ยวกับโมเดล GPU ที่ค่อนข้างเฉพาะทาง




1. สาเหตุของการขาดแคลนทั่วโลกและความต้องการ B200 ของ NVIDIA




ชิป B200 ของ NVIDIA คือ GPU สำหรับ AI ที่ใช้สถาปัตยกรรม Blackwell และกำลังเผชิญการขาดแคลนทั่วโลก

จะอธิบายสาเหตุให้เข้าใจง่าย ๆ

ฝั่งความต้องการ: ท่ามกลางกระแส AI ที่พุ่งสูงอย่างรวดเร็ว บริษัท hyperscaler ใหญ่ ๆ อย่าง Meta, Microsoft, Google, Amazon ต่างเร่งสั่งซื้อจำนวนมาก

บริษัทเหล่านี้ใช้ B200 ในการเทรนและอนุมานของ AI สร้างสรรค์และโมเดลภาษาขนาดใหญ่ (LLM)
ต้องการประสิทธิภาพสูงกว่า H100 ถึง 4 เท่า (20PFLOPS)

ขายหมดจนถึงสิ้นปี 2025 คำสั่งซื้อใหม่ต้องรอถึง 12 เดือน บริษัทขนาดกลางและเล็กแทบหาซื้อไม่ได้ มีความกังวลว่าความสามารถในการแข่งขันจะลดลง



เกี่ยวกับการขาดแคลนและความตึงตัวของ B200 ของ NVIDIA




ฝั่งอุปทาน: ความล่าช้าในการเปลี่ยนไปใช้เทคโนโลยีแพ็กเกจจิ้ง CoWoS-L ของ TSMC เป็นสาเหตุหลัก

ช่วงปลายปี 2024 ถึงต้นปี 2025 การผลิตต่ำ เนื่องจากแผ่นดินไหวและขาดแคลนชิ้นส่วน (หน่วยความจำ HBM3e)

นอกจากนี้ NVIDIA ให้ความสำคัญกับการผลิต GB200 (ซูเปอร์ชิปที่ติดตั้ง B200 หลายตัว) ทำให้การจัดหา B200 รุ่น PCIe ตัวเดียวถูกจำกัด

ความเสี่ยงทางภูมิรัฐศาสตร์ เช่น กฎระเบียบการส่งออกจากความขัดแย้งทางการค้าระหว่างสหรัฐฯ-จีน ทำให้ห่วงโซ่อุปทานทั่วโลกปั่นป่วน

ผลคือ การลงทุนในศูนย์ข้อมูล AI ยังคงเร่งตัวต่อในปี 2025 แต่การผลิตตามไม่ทัน คาดว่าการขาดแคลนจะต่อเนื่องหลายไตรมาส สถานการณ์นี้เป็นสัญลักษณ์ของการเติบโตของอุตสาหกรรม AI พร้อมเผยให้เห็นความท้าทายของทั้งอุตสาหกรรม






2. ความสำคัญของการนำ B200 ของ NVIDIA มาใช้ ช่วยยกระดับความสามารถ AI




การใช้ชิป B200 ของ NVIDIA จะให้ประโยชน์มหาศาลต่อการพัฒนา AI


ด้านประสิทธิภาพของ B200


ประสิทธิภาพการเทรนสูงกว่า H100 3 เท่าประสิทธิภาพการอนุมานสูงกว่า 15 เท่า มีทรานซิสเตอร์ 208 พันล้านตัวและหน่วยความจำ HBM3e 192GB สามารถจัดการ LLM ระดับล้านล้านพารามิเตอร์ได้อย่างมีประสิทธิภาพ

ทำให้เกิดความก้าวหน้าในสาขาวิทยาศาสตร์ เช่น การค้นพบยา, การจำลองการเปลี่ยนแปลงสภาพภูมิอากาศ, คอมพิวติ้งควอนตัม เช่น เวลาในการวิเคราะห์โครงสร้างโมเลกุลที่ซับซ้อนลดลงอย่างมาก ทำให้การพัฒนายาใหม่เร็วขึ้น


ประโยชน์คือ ลดต้นทุนการอนุมานและการใช้ไฟฟ้าได้ 25%

การเพิ่มประสิทธิภาพพลังงานช่วยลดค่าใช้จ่ายในการดำเนินงานศูนย์ข้อมูล ทำให้สามารถดำเนินการ AI อย่างยั่งยืน นอกจากนี้ยังมีโอกาสที่ AI สร้างสรรค์แบบเรียลไทม์จะเข้าถึงได้ง่ายขึ้น

สามารถสร้างแชทบอทหรือระบบแนะนำด้วยต้นทุนต่ำ ทำให้บริษัทขนาดกลางและเล็กสามารถตั้งโรงงาน AI ได้ง่ายขึ้น ผลกระทบต่อการยกระดับความสามารถ AI ชัดเจนมาก การนำ FP4 มาใช้ทำให้แบนด์วิดท์เพิ่ม 2 เท่า ความแม่นยำในการเรียนรู้แบบหลายโหมด (ข้อความ+ภาพ+เสียง) สูงขึ้นอย่างมาก

NVLink รุ่นที่ 5 เพิ่มความสามารถในการขยาย ทำให้การทำงานร่วมกันของ GPU หลายตัวราบรื่น การเทรนโมเดลระดับ AGI (ปัญญาประดิษฐ์สากล) กลายเป็นจริงได้ ผลคือ กระตุ้นการเปลี่ยนแปลงอุตสาหกรรม และเกิดแอปพลิเคชันที่สร้างสรรค์ในด้านการศึกษา การแพทย์ และความบันเทิง B200 คือกุญแจสำคัญที่ส่งเสริมการเปลี่ยนแปลงอุตสาหกรรมและขยายอนาคตของ AI





3. แนวโน้มการขาดแคลนทั่วโลกของ B300 ของ NVIDIA ในปี 2026



ชิป NVIDIA B300 (Blackwell Ultra) ในปี 2026 มีแนวโน้มขาดแคลนสูง

เริ่มส่งมอบเต็มรูปแบบปลายปี 2025 แต่ได้รับผลกระทบจากความล่าช้าในการเพิ่มกำลังการผลิตของ TSMC (ปัญหาต่อเนื่องของ CoWoS-L และผลกระทบจากแผ่นดินไหว) รวมถึงการขาดแคลนชิ้นส่วนจากการที่ความต้องการ HBM3e เพิ่มขึ้นเป็นสองเท่า

นักวิเคราะห์คาดว่ารายได้ศูนย์ข้อมูล FY26 ที่ 154.7 พันล้านดอลลาร์ 80% มาจาก Blackwell การส่งมอบ rack GB300 ลดลงจาก 50-80,000 เป็น 15-20,000 คาดแน่นอนว่าจะขาดสต็อกหลายไตรมาส

สาเหตุความต้องการคือ การลงทุน AI ยังคงเร่งตัวต่อ การขยายขนาดการเทรน LLM และแม้ Meta จะหันไปใช้ ASIC/AMD แต่ยังคงพึ่งพา NVIDIA รวมถึงโอกาสที่ตลาดจีนจะกลับมาเมื่อสถานการณ์ภูมิรัฐศาสตร์คลี่คลาย



NVIDIA B300 มีความต้องการสูงกว่า B200




B300 มีหน่วยความจำ 288GB (1.5 เท่าของ B200 ที่ 192GB) และแบนด์วิดท์เกิน 8TB/s เหมาะกับการประมวลผลโมเดลขนาดใหญ่ ประสิทธิภาพ FP4 14PFLOPS (ดีขึ้น 55% จาก 9PFLOPS ของ B200)


ด้วยการออกแบบความหนาแน่นสูง TDP 1100W กลายเป็นพื้นฐานของ AGI รุ่นถัดไปและ AI ระดับผู้เชี่ยวชาญ ครองคำสั่งซื้อจำนวนมากจาก hyperscaler

B200 เหมาะกับการอนุมานและการคำนวณทางวิทยาศาสตร์ ส่วน B300 เน้นการเทรนที่มีขนาดใหญ่ขึ้น 2 เท่า NVLink ที่ดีขึ้นทำให้ ROI โดดเด่น
ราคาสูงกว่า 400,000 ดอลลาร์ แต่การโมดูลแบบ SXM Puck เพิ่มความยืดหยุ่น การออกแบบห่วงโซ่อุปทานใหม่กระตุ้นความต้องการระดับพรีเมียม ผลคือ การขาดแคลนจะรุนแรงกว่าปี 2025 ของ B200 และจะยิ่งกระตุ้นการเติบโตของระบบนิเวศ AI




4. ความเป็นไปได้ของ B300 ของ NVIDIA และการยกระดับความสามารถ AI





ชิป B300 ของ NVIDIA (Blackwell Ultra) จะนำประโยชน์ที่ปฏิวัติวงการมาสู่การพัฒนา AI

เมื่อเทียบกับ B200 ประสิทธิภาพ FP4 สูงขึ้น 1.5 เท่า (เกิน 15PFLOPS) ประสิทธิภาพ attention สูงขึ้น 2 เท่า หน่วยความจำ HBM3e 288GB สามารถประมวลผลโมเดลขนาดใหญ่พิเศษ (เกินล้านล้านพารามิเตอร์)

ทำให้การอนุมาน AI เร็วขึ้น 11 เท่า (เทียบกับ Hopper) การเทรนเร็วขึ้น 4 เท่า สามารถทำ reasoning แบบเรียลไทม์ได้ (เช่น การสร้างวิดีโอเร็วขึ้น 30 เท่า)
ประโยชน์คือ ประสิทธิภาพพลังงานดีขึ้น ลดการใช้ไฟต่อ TPS ลง 5 เท่า ลดค่าใช้จ่ายศูนย์ข้อมูลอย่างมาก


ความเป็นไปได้ขยายออกไปในการสร้างโรงงาน AI การวิเคราะห์พันธุกรรมทางการแพทย์ การวิเคราะห์พยากรณ์การเงิน ตัวแทน AI อีคอมเมิร์ซสามารถตอบสนองทันที เพิ่มผลผลิตให้กับทั้งอุตสาหกรรม


ผลกระทบต่อการยกระดับความสามารถ AI ชัดเจนมาก ความแม่นยำของโมเดลสูงขึ้นด้วย test-time scaling ความสามารถในการขยายสูงขึ้นกว่า 2 เท่าด้วย NVLink ที่ดีขึ้น ผลคือ AI การอนุมานขั้นสูงระดับ AGI จะใกล้เข้ามา และเร่งการเปลี่ยนแปลงสังคม ชิปนี้คือกุญแจสำคัญที่จะทำให้อนาคตของ AI สว่างไสวยิ่งขึ้น






 สาเหตุของการขาดแคลนทั่วโลกและความต้องการ B200
・Hyperscaler (Meta, MS, Google, Amazon) สั่งซื้อจำนวนมากจนผูกขาด<br>
・ประสิทธิภาพสูงกว่า H100 4 เท่า การเทรนและอนุมาน AI เร็วอย่างมหาศาล
・TSMC ล่าช้าเปลี่ยนไปใช้ CoWoS-L + แผ่นดินไหว + ขาด HBM
・NVIDIA ให้ความสำคัญผลิต GB200 → B200 ตัวเดียวไม่พอ
・ความขัดแย้งสหรัฐฯ-จีนทำให้ห่วงโซ่อุปทานวุ่นวาย
จุดสำคัญ
“ทุกคนต้องการมากเกินไป แต่ผลิตไม่ทัน” สถานการณ์นี้จะต่อเนื่องถึงสิ้นปี 2025
 ประโยชน์และความเป็นไปได้เมื่อใช้ B200
・เทรนเร็ว 3 เท่า อนุมานเร็ว 15 เท่า
・หน่วยความจำใหญ่ 192GB จัดการ LLM ระดับล้านล้านพารามิเตอร์ได้สบาย
・การค้นพบยาใหม่และการจำลองสภาพอากาศเร็วขึ้นอย่างน่าทึ่ง
・ลดต้นทุนอนุมานและไฟฟ้า 25% → ศูนย์ข้อมูลประหยัด
・AI สร้างสรรค์เรียลไทม์ใช้ได้แม้ในบริษัทขนาดเล็ก
・ความแม่นยำหลายโหมด (ภาพ+เสียง+ข้อความ) พุ่งสูงมาก
・การพัฒนา AGI (AI เทียบเท่ามนุษย์) ใกล้ความจริงมากขึ้น
จุดสำคัญ
“AI เร็ว-ถูก-ฉลาด” ชิปในฝันที่ครบสามข้อ
 แนวโน้มความต้องการ B300 ในปี 2026
・เริ่มส่งมอบปลายปี 2025 แต่คาดว่าจะขายหมดทันทีเพราะผลิตช้า
・หน่วยความจำ 288GB (1.5 เท่าของ B200), แบนด์วิดท์เกิน 8TB/s
・เน้นการเทรน เหมาะสุดสำหรับสร้าง AGI รุ่นถัดไป
・Hyperscaler สั่งจำนวนมาก “ต้องเป็น B300 เท่านั้น”
・ราคาเกิน 400,000 ดอลลาร์แต่ ROI ดีเยี่ยม
・มีโอกาสระเบิดความต้องการเมื่อตลาดจีนกลับมา
จุดสำคัญ
“แม้คนที่พอใจกับ B200 พอเห็น B300 แล้วต้องอยากได้แน่นอน”
 ประโยชน์และความเป็นไปได้ของ B300 (การพัฒนาในอนาคต)
・ประสิทธิภาพพลังงานดีขึ้น 5 เท่า (TPS/MW) ลดต้นทุน
・การประมวลผลเรียลไทม์เช่นการสร้างวิดีโอเร็วขึ้น 30 เท่า
・การแพทย์ (การวิเคราะห์พันธุกรรม)
・การเงิน (การพยากรณ์)
・นวัตกรรมอีคอมเมิร์ซ (AI Agent)
・โรงงาน AI รองรับผู้ใช้หลายคนพร้อมกัน บริการความหน่วงต่ำ
จุดสำคัญ
“สู่โลกที่ AI มีบทบาทในทุกฉากของชีวิตประจำวัน”





อันดับประเทศที่มี B200




 อันดับ 1  สหรัฐอเมริกา

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 2,500,000 - 3,000,000 ตัว  70-80%

- AWS: Project Ceiba มากกว่า 20,000 ตัว (คลัสเตอร์ AI 400 exaflops เปิดตัวไตรมาส 4 ปี 2025)
- Microsoft Azure: มากกว่า 1 ล้านตัว (ใช้ DGX B200/GB200 เพื่อเทรน AI)
- Google Cloud: 800,000 ตัว (รวมกับ TPU)
- ANL(Argonne National Lab): Solstice 100,000 ตัว (1,000 exaflops, โปรเจกต์วิทยาศาสตร์ DOE)
- CoreWeave/Lambda: หลายแสนตัว (ขยาย CSP)。

- ปัจจัยขับเคลื่อน: การลงทุน AI โดย hyperscaler (OpenAI/Meta/Google)。

ความท้าทาย: การใช้พลังงาน (1,000W/GPU), ขาดแคลนศูนย์ข้อมูลระบายความร้อนด้วยของเหลว






 อันดับ 2  ไต้หวัน

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 10,000 ตัว (ใช้งานจริง)  0.3%

- Foxconn (Hon Hai): 10,000 ตัว (ซูเปอร์คอมพิวเตอร์โรงงาน AI สำหรับงานวิจัย/สตาร์ตอัป เสร็จไตรมาส 3 ปี 2025)
- NYCU(มหาวิทยาลัยแห่งชาติหยางหมิงเจียวทง): นำเข้า DGX B200 เบื้องต้น (หลายร้อยตัว แพลตฟอร์มวิจัย AI)。

- ปัจจัยขับเคลื่อน: การร่วมผลิตระหว่าง TSMC/NVIDIA ระบบนิเวศเซมิคอนดักเตอร์

ความท้าทาย: การออกแบบทนแผ่นดินไหว



 อันดับ 3  เกาหลีใต้

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 5,000 - 10,000 ตัว (วางแผน/ใช้งานบางส่วน)  0.2-0.3%

- รัฐบาลนำ: วางแผนมากกว่า 50,000 ตัว (ส่วนใหญ่ผสม H100 คาดส่วน B200 5,000-10,000 ตัว คลาวด์อธิปไตย/โรงงาน AI)
- Samsung/SK Group/Hyundai: หลายพันตัว (โรงงานผลิต/วิจัย AI เปิดตัวไตรมาส 2 ปี 2025)。 - PYLER (AdTech): หลายร้อยตัว (วิเคราะห์วิดีโอเรียลไทม์ ประสิทธิภาพสูงขึ้น 30 เท่า)
- มหาวิทยาลัยแห่งชาติโซล: เข้าถึงเครือข่าย 4,000 ตัว (ผสม H200 กำลังเปลี่ยนเป็น B200)。

- ปัจจัยขับเคลื่อน: อุตสาหกรรมเซมิคอนดักเตอร์ (Samsung จัดหา HBM), กลยุทธ์ AI ของรัฐบาล

ความท้าทาย: ลดการพึ่งพาทางเลือก Huawei ด้วยการหันมาใช้ NVIDIA



 อันดับ 4  ญี่ปุ่น

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 4,000 - 10,000 ตัว (ใช้งาน/วางแผน)  0.1-0.3%

- Sakura Internet: 10,000 ตัว (ได้รับเงินอุดหนุนรัฐบาล “Koukaryoku” คลาวด์ ระบบ HGX B200 เปิดตัวมีนาคม 2025-2026)
- SoftBank: มากกว่า 4,000 ตัว (DGX B200 SuperPOD คลัสเตอร์ AI ขนาดใหญ่ที่สุดในโลก)。 - Tokyo University of Technology: <100 ตัว (ซูเปอร์คอมพิวเตอร์ AI 2 exaflops)
- AIST (สถาบันเทคโนโลยีอุตสาหกรรมครบวงจร): ขยาย ABCI-Q (2,000 ตัวผสม H100 เพิ่ม B200)。

- ปัจจัยขับเคลื่อน: โครงการ AI แห่งชาติ (เงินอุดหนุนกว่า 1.3 หมื่นล้านเยน), งานวิจัยแผ่นดินไหว/สภาพอากาศ

ความท้าทาย: ข้อจำกัดด้านการจ่ายไฟฟ้า (พึ่งพาพลังงานหมุนเวียน)



 อันดับ 5  เยอรมนี

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 1,000 - 5,000 ตัว (เริ่มต้น/วางแผน)  <0.1%

- Deutsche Telekom/NVIDIA: วางแผน 10,000 ตัว (คลาวด์ AI อุตสาหกรรม สำหรับ Siemens/Ansys สร้างปี 2025-เสร็จ 2026 ส่วนเริ่มต้น B200 1,000-5,000 ตัว)
- โครงการ AI อธิปไตย EU: ทดลองนำเข้า (หลายร้อยตัว โครงการอุตสาหกรรม)。

- ปัจจัยขับเคลื่อน: สนับสนุนการผลิตของ EU (Industry 4.0), การปกป้องข้อมูลอธิปไตย

ความท้าทาย: ความล่าช้าในการย้ายข้อมูลให้สอดคล้องกับ GDPR




 อันดับ 6  ยุโรปอื่น ๆ (เนเธอร์แลนด์/ฝรั่งเศส/สเปน/อังกฤษ)

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 2,000 - 5,000 ตัว (กระจาย/เริ่มต้น)  <0.1%

- เนเธอร์แลนด์ (TU/e Eindhoven): นำเข้า DGX B200 เบื้องต้น (หลายร้อยตัว งานวิจัย AI)
- ฝรั่งเศส (Scaleway): หลายพันตัว (คลาวด์ AI ครึ่งหลังปี 2025)
- สเปน/อังกฤษ: ผ่าน Oracle EU/UK Government Cloud (หลายร้อยตัว บริการ Blackwell)
- ทั้ง EU: ศูนย์ข้อมูล Global Scale (คัดเลือก US/EU คลัสเตอร์ทดสอบ)。

- ปัจจัยขับเคลื่อน: การลงทุนโครงสร้างพื้นฐานอธิปไตยที่สอดคล้องกับ EU AI Act

ความท้าทาย: กฎระเบียบการโอนข้อมูลข้ามพรมแดน





 อันดับ 7  ออสเตรเลีย

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 500 - 1,000 ตัว (เริ่มต้น)  <0.05%

- Oracle Australian Government Cloud: หลายร้อยตัว (บริการ Blackwell ครึ่งหลังปี 2025)
- ศูนย์ข้อมูล NEXTDC: ทดสอบขนาดเล็ก (กำลังเปลี่ยนจาก H200)。

- ปัจจัยขับเคลื่อน: ขยายคลาวด์ของรัฐบาล งานวิจัยแบบจำลองสภาพอากาศ

ความท้าทาย: ความล่าช้าจากการแยกตัวทางภูมิศาสตร์




 อันดับ 8  จีน

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 100 - 500 ตัว (อยู่ภายใต้ข้อจำกัด/รุ่นดัดแปลง)  <0.01%

- รุ่น B20/B30A (สอดคล้องกับกฎการส่งออก รุ่นจำกัดประสิทธิภาพของ B200 ผ่าน Inspur เปิดตัวไตรมาส 2 ปี 2025)
- การเปลี่ยนไปใช้ทางเลือก Huawei: พึ่งพานอก NVIDIA สูง (ชิป Ascend ได้ผลผลิต 5-20%)。


- ปัจจัยขับเคลื่อน: การพึ่งพาตนเองด้าน AI ในประเทศ

ความท้าทาย: กฎการส่งออกของสหรัฐฯ (จำกัด TPP ที่ 600 TFLOPS หรือ 1/7.5 ของ B200 มาตรฐาน)





 อันดับ 9  UAE/อินโดนีเซีย/สิงคโปร์ (อื่น ๆ)

จำนวนติดตั้งโดยประมาณ (B200 GPU) ประมาณ 500 - 1,000 ตัว (กระจาย)  <0.05%

- UAE (MorphwareAI): หลายร้อยตัว (ขยาย AI อาบูดาบี)
- อินโดนีเซีย (Indosat): เริ่มต้นคลาวด์อธิปไตย (หลายร้อยตัว)
- สิงคโปร์ (Singtel): ผ่าน Yotta/Shakti Cloud (ทดสอบ)

- ปัจจัยขับเคลื่อน: การลงทุน AI ในตลาดเกิดใหม่

ความท้าทาย: โครงสร้างพื้นฐานยังไม่สมบูรณ์








เกี่ยวกับประสิทธิภาพ ความต้องการ และประโยชน์ของ B200・B300 จาก NVIDIA



อ้างอิงผลลัพธ์จาก xAI ในการสร้าง

 เกี่ยวกับข้อควรระวัง


เนื้อหาในเว็บไซต์นี้จัดทำด้วยความระมัดระวังเพื่อไม่ให้มีข้อผิดพลาด แต่ไม่รับประกันความถูกต้อง
อาจมีความแตกต่างอย่างมากขึ้นอยู่กับสเปก (ประสิทธิภาพ) ของคอมพิวเตอร์หรือสมาร์ทโฟนของผู้เข้าชม รวมถึงระบบปฏิบัติการและเวอร์ชันของเบราว์เซอร์

หากปิดการใช้งาน javascript หน้าเว็บอาจแสดงผลไม่ปกติ

เพื่อเพิ่มความถูกต้อง กรุณาตรวจสอบข้อมูลจากแหล่งข้อมูลที่เหมาะสม

 นอกจากนี้ ห้ามคัดลอก ใช้ซ้ำ หรือเผยแพร่ภาพและข้อความในเว็บไซต์นี้