Radxa AICore DX-M1M : โมดูลเร่งความเร็ว AI แบบ M.2 2242 ประหยัดพลังงาน ให้ประสิทธิภาพสูงถึง 25 TOPS ใช้ไฟเพียง 3W

Radxa AICore DX-M1M เป็นโมดูลเร่งความเร็ว Edge AI แบบ M.2 ขนาดกะทัดรัดและใช้พลังงานต่ำ ที่ใช้ neural processing unit (NPU) รุ่น DeepX DX-M1M ให้ประสิทธิภาพ AI สูงสุดถึง 25 TOPS (INT8) ขณะที่ใช้พลังงานเพียง 3 วัตต์เท่านั้น

โมดูลนี้ถูกออกแบบมาสำหรับงาน เช่น หุ่นยนต์แขนกลอุตสาหกรรม, หุ่นยนต์เคลื่อนที่อัตโนมัติ (AMR), Edge server, โดรน และอุปกรณ์ AIoT โดยให้ความสามารถด้าน AI และ Machine Learning ประสิทธิภาพสูงโดยไม่กินพลังงานมาก รองรับการเชื่อมต่อผ่าน PCIe Gen3 x2 และใช้งานได้ทั้งกับระบบ x86 และ Arm รวมถึงบอร์ดยอดนิยมอย่าง Raspberry Pi 5 และ Radxa ROCK SBC

Radxa AICore DX M1M M.2 module 2

สเปค่ของ AICore DX-M1M :

  • AI Accelerator – DeepX DX-M1M neural processing unit (NPU) ให้ประสิทธิภาพ AI สูงสุด 25 TOPS
  • หน่วยความจำ AI – 1GB LPDDR4X @ 4266 MT/s (อยู่บนชิป รองรับสูงสุด 8GB ตามข้อมูล DeepX)
  • หน่วยเก็บข้อมูล – 1Gbit QSPI NAND / NOR Flash
  • อินเทอร์เฟซโฮสต์ –PCIe Gen 3.0 x4 (รองรับ Gen1/2/3 และ x1/x2) ผ่านคอนเนกเตอร์ M.2 M + B Key
  • การใช้พลังงาน – ประมาณ 3W
  • ขนาด – 42 x 22 มม. (ฟอร์มแฟกเตอร์ M.2 2242) รองรับสล็อต M.2 2280 ผ่านอะแดปเตอร์
  • ช่วงอุณหภูมิการทำงาน
    • -25°C ถึง 65°C (ประสิทธิภาพคงที่ ไม่มีการลดความเร็ว)
    • 65°C ถึง 85°C (มีระบบป้องกันความร้อน และลดความเร็วการทำงาน)
Radxa AICore DX-M1M
Radxa AICore DX-M1M ด้านหน้า (ซ้าย) และด้านหลัง (ขวา)

Radxa AICore DX-M1M ใช้งานร่วมกับ DEEPX DXNN SDK ซึ่งรองรับการคอมไพล์, ปรับแต่งโมเดล AI และ การประมวลผล inference ด้วย DEEPX NPU แล้วยังรองรับเฟรมเวิร์กยอดนิยม PyTorch, ONNX, TensorFlow และ Keras โดยใช้ DX-COM compiler แปลงโมเดลเป็นฟอร์แมต DXNN เฉพาะของ DeepX

เครื่องมือใน SDK ประกอบด้วย DXRT-NPU-Driver (ไดรเวอร์ PCIe สำหรับเคอร์เนล), DX-RT runtime สำหรับสื่อสารกับ NPU, DX-APP ตัวอย่าง C++ / Python, DX-STREAM, ปลั๊กอิน GStreamer สำหรับวิดีโอแบบเรียลไทม์, DX Model Zoo (โมเดลสำเร็จรูป เช่น ตรวจจับใบหน้า, จำแนกภาพ, ตรวจจับวัตถุ, segmentation และ pose estimation) และ DX-Tron สำหรับแสดงผลและวิเคราะห์โมเดล นอกจากนี้ยังรองรับระบบปฏิบัติการ Windows 10 / 11 และ Ubuntu Linux (20.04 / 22.04 / 24.04 LTS) รวมถึง Docker พร้อมทั้งมีชุดติดตั้งแบบรวดเร็ว

Radxa ยังมี DX-All Suite เป็นแพ็กเกจติดตั้งแบบง่ายที่รวมทั้งตัวคอมไพเลอร์และ runtime ไว้ในชุดเดียว ช่วยให้นักพัฒนาสามารถตั้งค่า DXNN environment ได้ง่ายผ่าน Docker หรือการติดตั้งแบบโลคอล โดยสามารถดูรายละเอียดเพิ่มเติมได้จากคู่มือเริ่มต้นใช้งาน

DX-M1M Installation
DX-M1M สามารถติดตั้งบนบอร์ด Radxa ROCK 5 ITX (RK3588)

DX-M1M Raspberry Pi Install
Radxa AICore DX-M1M AI accelerator ใช้งานร่วมกับ Raspberry Pi 5 ผ่าน M.2 HAT+ M-Key
ก่อนหน้านี้เราเคยนำเสนอเกี่ยวกับ iMX8M Mini DX-M1 SOM และ ALPON X5 Edge AI computer ทั้งสองรุ่นใช้ชิป DeepX DX-M1 เช่นเดียวกัน และ Radxa ก็เคยเปิดตัวโมดูล DX-M1 ที่ใช้ DX-M1 มาก่อน โดยความแตกต่างคือ DX-M1 เป็นชิปเร่ง AI แบบ standalone ที่ต้องใช้หน่วยความจำ LPDDR5 ภายนอกและต้องการการออกแบบฮาร์ดแวร์ที่ซับซ้อนกว่า ในขณะที่ DX-M1M เป็นโซลูชันแบบรวมที่ผสาน NPU เดียวกันเข้ากับหน่วยความจำ LPDDR4X บนชิป ทำให้นำไปใช้งานได้ง่ายขึ้นในรูปแบบขนาดกะทัดรัดแบบ plug-and-play เช่น โมดูล M.2 แม้ว่าทั้งสองจะให้ประสิทธิภาพ AI ใกล้เคียงกันสูงสุดถึง 25 TOPS แต่ DX-M1 เหมาะสำหรับงานออกแบบเฉพาะทางที่ต้องการความยืดหยุ่น ส่วน DX-M1M ถูกออกแบบมาเพื่อการรวมระบบที่รวดเร็ว นอกจากนี้ DEEPX ยังมีชิปรุ่น DX-M1ML และโมดูล M.2 ซึ่งเป็นเวอร์ชันเบาของ DX-M1M ที่ให้ประสิทธิภาพ 13 TOPS แต่ขณะนี้ยังไม่พบว่ามีวางจำหน่าย

Radxa AICore DX-M1M มีวางจำหน่ายผ่าน Arace Tech ในราคา $85.00 (~2,800฿) และ Radxa ยังระบุว่าเพื่อให้ได้ประสิทธิภาพที่เสถียรภายใต้การใช้งานต่อเนื่อง ควรใช้ระบบระบายความร้อนแบบแอคทีฟ เช่น Radxa Heatsink 2012B หรือใช้เคสโลหะพร้อมแผ่นระบายความร้อน (thermal pads) โดยสามารถดูรายละเอียดเพิ่มเติมได้จากหน้าผลิตภัณฑ์

Applications
การนำไปใช้งาน

แปลจากบทความภาษาอังกฤษ : Radxa AICore DX-M1M M.2 2242 low-power AI module delivers 25 TOPS of edge AI performance for just 3W of power

Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
โฆษณา