• ToddlerBot เป็น แพลตฟอร์มหุ่นยนต์ฮิวแมนนอยด์ โอเพนซอร์สราคาประหยัด ออกแบบมาเพื่อรองรับ การเรียนรู้นโยบายและการขยายการทดลอง ในงานวิจัยด้านหุ่นยนต์และ AI
  • เวอร์ชันใหม่ (2.0) รองรับฟีเจอร์ใหม่หลากหลาย เช่น ตีลังกาข้าง, คลาน, เดินเร็ว, ควบคุมระยะไกลด้วย VR, การประเมินความลึกแบบสเตอริโอเรียลไทม์
  • เน้น ความสามารถในการทำซ้ำและความทนทาน ด้วย การออกแบบ 30 องศาอิสระ, end-effector หลายแบบ (แบบฝ่ามือและ gripper) และการซ่อมแซมรวดเร็วด้วยการพิมพ์ 3D
  • พิสูจน์แล้วว่ารองรับ ML ผ่าน การเดิน การใช้สองมือ การจัดการทั้งร่างกาย และการเชื่อมต่อทักษะ (skill chaining) ที่ใช้การเรียนรู้แบบเสริมกำลังและ diffusion model
  • ให้ คู่มือและโค้ดโอเพนซอร์ส แบบครบถ้วน ทำให้ทุกคนสามารถสร้าง ทดสอบการถ่ายโอนนโยบาย และทำการทดลองความร่วมมือของหุ่นยนต์หลายตัวได้

ความสำคัญของโปรเจกต์โอเพนซอร์ส Toddlerbot

  • Toddlerbot เป็นโปรเจกต์หุ่นยนต์ฮิวแมนนอยด์โอเพนซอร์สที่ทุกคนสามารถนำซอร์สไปใช้เพื่อ ประกอบและดัดแปลง ได้ด้วยตนเอง
  • จุดเด่นคือมีต้นทุนการสร้างต่ำกว่าเมื่อเทียบกับหุ่นยนต์ฮิวแมนนอยด์เชิงพาณิชย์ และมีโครงสร้างกับจำนวนชิ้นส่วนน้อย ทำให้เริ่มต้นได้ง่าย
  • สามารถนำไปใช้ได้หลากหลายวัตถุประสงค์ เช่น การออกแบบฮาร์ดแวร์หุ่นยนต์ การควบคุมซอฟต์แวร์ และการฝึกอัลกอริทึม
  • มีชุมชนที่เคลื่อนไหวอย่างต่อเนื่องและเอกสารประกอบที่ดี ทำให้ใช้งานได้ตั้งแต่มือใหม่จนถึงผู้เชี่ยวชาญ
  • เป็นแพลตฟอร์มหุ่นยนต์ที่เหมาะสำหรับงานวิจัยและพัฒนา การศึกษา และการทำต้นแบบ

ฟีเจอร์หลักและข้อดี

  • สร้างได้ง่ายผ่าน 3D printer, แผงวงจรโอเพนซอร์ส และซอฟต์แวร์สาธารณะ
  • โครงสร้างแบบ modular design ทำให้สามารถออกแบบและเปลี่ยนหัว แขน ลำตัว ฯลฯ ได้อย่างอิสระ
  • เชื่อมต่อกับหลายภาษาโปรแกรม เช่น Python ทำให้ทดลอง ยุทธวิธีการควบคุม ได้หลากหลาย
  • รองรับการขยายเพิ่มเติมแบบเลือกได้ เช่น sensor, motor และ camera

ฟีเจอร์หลักของ ToddlerBot 2.0

  • ตีลังกาข้าง: แสดงความคล่องตัวและความสามารถในการทรงตัวสูง และแทบไม่เสียหายแม้ล้มเหลว
  • คลาน: การเคลื่อนไหวแบบคลานสี่ขาโดยใช้แขนและขาเหมือนเด็กเล็ก
  • เดินเร็ว: ความเร็วการเดินรอบทิศทาง 0.25m/s และหมุนอยู่กับที่ได้สูงสุด 1rad/s
  • ควบคุมระยะไกลด้วย VR: ควบคุมแบบเรียลไทม์บนพื้นฐาน Meta Quest 2
  • การประเมินความลึกแบบสเตอริโอ: ติดตั้ง Jetson Orin NX 16GB และประมวลผลแบบเรียลไทม์ที่ 10Hz

ลักษณะการออกแบบ

  • 30 องศาอิสระ (DoF): แขน 7, ขา 6, คอ 2, เอว 2
  • เซนเซอร์·อุปกรณ์อิเล็กทรอนิกส์: กล้องตาปลา 2 ตัว, ลำโพง, ไมโครโฟน 2 ตัว, IMU, Jetson Orin NX
  • end-effector: มี 2 ตัวเลือกคือแบบฝ่ามือยืดหยุ่นและ parallel-jaw gripper

การทดลองประสิทธิภาพ

  • ทดสอบความยาวแขน: สามารถจับวัตถุที่มีขนาดใหญ่กว่าปริมาตรลำตัว 14 เท่าได้
  • ทดสอบการรับน้ำหนัก: ยกน้ำหนัก 1.48kg ซึ่งเท่ากับ 40% ของน้ำหนักรวมทั้งตัว พร้อมรักษาสมดุลได้
  • ทดสอบความต่อเนื่องในการทำงาน: เดินได้นาน 19 นาทีด้วยนโยบายการเดินที่ใช้การเรียนรู้แบบเสริมกำลัง ล้ม 7 ครั้งโดยไม่เสียหาย และซ่อมได้ภายใน 35 นาที (พิมพ์ 3D + ประกอบ)

การเคลื่อนไหวที่ขับเคลื่อนด้วย AI

  • สนทนา·วิดพื้น: เชื่อมต่อ OpenAI Realtime API + GPT-4o
  • โหนบาร์ดึงข้อ: การระบุตำแหน่งด้วย AprilTag และถ่ายโอนนโยบายจากซิมูเลชันสู่เครื่องจริง
  • การเดิน·การจัดการวัตถุ: ใช้การเรียนรู้แบบเสริมกำลังและ diffusion policy ที่อิง RGB เพื่อทำการจัดการด้วยสองมือและทั้งร่างกาย
  • การเชื่อมต่อทักษะ (Skill Chaining): จับที่จับ (diffusion policy) → ดันรถเข็น (นโยบายการเรียนรู้แบบเสริมกำลัง)

ความสามารถในการทำซ้ำและการขยายต่อ

  • การถ่ายโอนนโยบาย: สามารถถ่ายโอนนโยบายการจัดการที่ฝึกบน ToddlerBot ตัวหนึ่งไปยังอีกตัวได้โดยไม่สูญเสียประสิทธิภาพ
  • ความร่วมมือของหุ่นยนต์หลายตัว: หุ่นยนต์ 2 ตัวสามารถร่วมกันทำงานระยะยาว (จัดห้อง) ได้
  • ประกอบง่าย: ทุกคนสามารถสร้างได้จากคู่มือและวิดีโอโอเพนซอร์ส

การสนับสนุนงานวิจัย

ยังไม่มีความคิดเห็น

ยังไม่มีความคิดเห็น