ติดตามการแข่งขัน Thailand Robot @Home กันต่อในวันที่ 2

ความเดิมจากตอนที่แล้วที่เราได้พาไปชมการแข่งขัน Thailand Robot @Home ประจำปี 2554 รอบแรก ในวันแรก คราวนี้เราพาไปดูการแข่งขันรอบแรก ในวันที่สองกัน ซึ่งกติกาหลักๆ เหมือนเดิม ทุกทีมแข่งขัน 5 ภารกิจ และรวมคะแนนทุกภารกิจตั้งแต่วันแรก วันที่สอง และรอบชิงชนะเลิศเข้าด้วยกัน ชมวิดิโอการแข่งขันด้านในข่าวเลยครับ

ภารกิจ Navigation วันนี้แตกต่างจากวันแรกเล็กน้อยคือ แทนที่หุ่นต้องเดินจากห้องนั่งเล่นไปยังห้องนอน วันนี้ให้เดินจากห้องครัวไปยังห้องรับแขก

CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ใช้ Laser range finder ในการทำแผนที่และนำทาง ผ่านได้ฉลุยเหมือนวันแรกครับ

ดงยาง –  มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Navigation – ทีมนี้ใช้ Kinect ครับ ไปได้ถึงห้องทำงาน อีกนิดเดียวเอง (ไม่ได้เริ่มถ่ายแต่ต้น เพราะสลับไปถ่ายไปมาระหว่าง Navigation และ Follow me ซึ่งแข่งพร้อมกันครับ)

RoboSiam 1 –  มหาวิทยาลัยสยาม – Navigation – ทีมนี้ใช้แค่ ultrasonic range finder 3 ตัวครับ มาได้ไกลจนเกือบถึงห้องนั่งเล่น เยี่ยมยอดมากเลยครับ

Skuba –  มหาวิทยาลัยเกษตรศาสตร์ – Navigation – ทีมนี้ใช้ Kinect และล้อเป็นแบบ omni-directional ครับ เดินมาติดเก้าอี้ที่โต๊ะกินข้าว

TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ทีมนี้ใช้ Kinect และล้อเป็นแบบ omni-directional ครับ เคลื่อนที่ได้อย่างนิ่มนวลมาก ไปได้เกือบพ้นบริเวณโต๊ะกินข้าวละ อีกนิดเดียว

ฮาจิโกะ – สถาบันวิทยาการหุ่นยนต์ภาคสนาม มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ใช้ Kinect นำทาง น่าจะเป็นทีมพี่ทีมน้องกับ TRCC สถาบันเดียวกัน เดินมาติดที่เดียวกันเลย

ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ใช้ Laser range finder ทำแผนที่และนำทางครับ ไปถึงห้องนั่งเล่นได้สำเร็จ

@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ทีมนี้มีทั้ง Laser range finer และ Kinect ผมไม่แน่ใจว่าเค้าใช้อะไรนำทาง ทีมนี้ใช้ล้อแบบ mecanum ไปได้จนถึงห้องทำงานละ น่าเสียดายเดินไปติดขา partition ที่ใช้ทำกำแพง กรรมการถือว่าชน ผมว่าน่าจะให้ผ่านได้น้า มันไม่ได้ชนกำแพงอะ ถ้าเป็นบ้านจริงๆ มันก็คงผ่านไปได้

ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Navigation – ทีมนี้มีทั้ง Laser range finer และ Kinect เช่นกัน ผมไม่แน่ใจว่าเค้าใช้อะไรนำทาง ทีมนี้ใช้ระบบขับเคลื่อนแบบ swerve drive (แต่มีวงจรขับมอเตอร์เลี้ยวแค่ 2 ล้อหน้า) และมีระบบกันสะเทือน (suspension) แบบ double wish bone อิสระ 4 ล้อ (ทีมนี้ทำหุ่นยนต์กู้ภัยมาก่อน ระบบขับเคลื่อนทำได้ดีมาก) ไปได้ไกลถึงห้องทำงาน

BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Navigation – ใช้ Kinect ครับ มาได้ถึงห้องทำงาน

ภารกิจ Follow me ให้หุ่นเดิมตามคนครับ อันนี้กติกาเหมือนเดิม ไม่มีอะไรเปลี่ยน

@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – น่าจะใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง

ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี -Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทางเช่นกัน

มะพร้าวหอม – มหาวิทยาลัยบูรพา – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ไม่ไกลเท่าไหร่

BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทางเช่นกัน

M.U.T.แจ๋ว – มหาวิทยาลัยเทคโนโลยีมหานคร – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ประมาณครึ่งทางเช่นกัน

Arrive-SoLate – มหาวิทยาลัยแม่ฟ้าหลวง – Follow me – ใช้ Kinect หาตำแหน่งคน ถึงจะ arrive so late แต่ก็ arrive นะครับ ทำภารกิจได้สำเร็จ

CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Follow me – ใช้ Laser range finder หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ

ดงยาง –  มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ไม่ไกลเท่าไหร่

RoboSiam 1 –  มหาวิทยาลัยสยาม – Follow me – ทีมนี้น่าจะมีแค่ ultrasonic range finder กับ webcam ผมจึงเดาว่าใช้ webcam หาตำแหน่งคนครับ ไปได้ไม่ไกลมาก

Skuba –  มหาวิทยาลัยเกษตรศาสตร์ –  Follow me – ใช้ Kinect หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ

TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me  – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง

ฮาจิโกะ – สถาบันวิทยาการหุ่นยนต์ภาคสนาม มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง

ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Follow me – ใช้ Laser range finder หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ

ภารกิจ Who is who ให้หุ่นยนต์จำใบหน้า และชื่อ ของคน 3 คน แล้วจะสุ่มมาถาม 1 คนว่าชื่ออะไร วันนี้มีกติกาเพิ่มเติมเล็กน้อยคือ ไม่อนุญาตให้ใช้ไมค์ลอย/headset ไร้สาย มาติดกับคน หรือใช้โทรศัพท์มือถือในการสั่งการหุ่น เพราะถือว่าต้องสัมผัสตัวหุ่นยนต์ตลอดเวลา

CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย -Who is who – ทำภารกิจได้สำเร็จครับ แต่กว่าจะ recognize ชื่อ Richard ได้ ฟังเป็น Michael อยู่นาน

ดงยาง –  มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Who is who – ทีมนี้ในวันแรกใช้ headset ไร้สายครับ วันนี้ต้องปรับปรุงระบบเล็กน้อย แต่ปรากฏว่าพอไมค์อยู่ไกลขึ้น กลับทำงานได้ดีขึ้น ทำภารกิจได้สำเร็จ เยี่ยมยอดไปเลยครับ

RoboSiam 1 –  มหาวิทยาลัยสยาม – Who is who – ตะกุกตะกักเล็กน้อย แต่ก็สำเร็จได้ด้วยดีครับ

ภารกิจ Manipulation ให้หยิบของตามที่จับฉลากได้ มีน้ำขวดพลาสติกฉลากสีน้ำเงิน โค้กกระป๋อง และปริงเกิ้ลกระป๋องสีเขียว

@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี –  Manipulation – ทีมนี้ใช้แขนที่ลักษณะคล้ายมนุษย์ (การเรียงตัวของข้อต่อคล้ายมนุษย์) ขับด้วยมอเตอร์ Dynamixel หยิบปริงเกิ้ลได้สำเร็จ

BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Manipulation – ทีมนี้ใช้แขนจากหุ่นยนต์กู้ภัยเอามาดัดแปลง โดยรวมแล้วมีลักษณะแบบ SCARA สามารถหยิบขวดน้ำพลาสติกได้สำเร็จครับ

พอดีตอนบ่ายมีธุระต่อ เลยอยู่ถ่ายมาได้แค่นี้ครับ แล้วจะหา link วิดิโอที่รุ่นน้องถ่ายไว้มาให้ดูกันอีกทีครับ

แต่โดยรวมนับว่าทำได้ดีเลยสำหรับปีแรก สู้กันต่อไป หวังว่าจะได้เห็นการพัฒนาฝีมือขึ้นอีกในรอบชิงชนะเลิศครับ โชคดีทุกๆ ทีมครับ

LINE it!
Loading Facebook Comments ...
Loading Disqus Comments ...