ความเดิมจากตอนที่แล้วที่เราได้พาไปชมการแข่งขัน Thailand Robot @Home ประจำปี 2554 รอบแรก ในวันแรก คราวนี้เราพาไปดูการแข่งขันรอบแรก ในวันที่สองกัน ซึ่งกติกาหลักๆ เหมือนเดิม ทุกทีมแข่งขัน 5 ภารกิจ และรวมคะแนนทุกภารกิจตั้งแต่วันแรก วันที่สอง และรอบชิงชนะเลิศเข้าด้วยกัน ชมวิดิโอการแข่งขันด้านในข่าวเลยครับ
ภารกิจ Navigation วันนี้แตกต่างจากวันแรกเล็กน้อยคือ แทนที่หุ่นต้องเดินจากห้องนั่งเล่นไปยังห้องนอน วันนี้ให้เดินจากห้องครัวไปยังห้องรับแขก
CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ใช้ Laser range finder ในการทำแผนที่และนำทาง ผ่านได้ฉลุยเหมือนวันแรกครับ
ดงยาง – มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Navigation – ทีมนี้ใช้ Kinect ครับ ไปได้ถึงห้องทำงาน อีกนิดเดียวเอง (ไม่ได้เริ่มถ่ายแต่ต้น เพราะสลับไปถ่ายไปมาระหว่าง Navigation และ Follow me ซึ่งแข่งพร้อมกันครับ)
RoboSiam 1 – มหาวิทยาลัยสยาม – Navigation – ทีมนี้ใช้แค่ ultrasonic range finder 3 ตัวครับ มาได้ไกลจนเกือบถึงห้องนั่งเล่น เยี่ยมยอดมากเลยครับ
Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Navigation – ทีมนี้ใช้ Kinect และล้อเป็นแบบ omni-directional ครับ เดินมาติดเก้าอี้ที่โต๊ะกินข้าว
TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ทีมนี้ใช้ Kinect และล้อเป็นแบบ omni-directional ครับ เคลื่อนที่ได้อย่างนิ่มนวลมาก ไปได้เกือบพ้นบริเวณโต๊ะกินข้าวละ อีกนิดเดียว
ฮาจิโกะ – สถาบันวิทยาการหุ่นยนต์ภาคสนาม มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ใช้ Kinect นำทาง น่าจะเป็นทีมพี่ทีมน้องกับ TRCC สถาบันเดียวกัน เดินมาติดที่เดียวกันเลย
ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ใช้ Laser range finder ทำแผนที่และนำทางครับ ไปถึงห้องนั่งเล่นได้สำเร็จ
@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Navigation – ทีมนี้มีทั้ง Laser range finer และ Kinect ผมไม่แน่ใจว่าเค้าใช้อะไรนำทาง ทีมนี้ใช้ล้อแบบ mecanum ไปได้จนถึงห้องทำงานละ น่าเสียดายเดินไปติดขา partition ที่ใช้ทำกำแพง กรรมการถือว่าชน ผมว่าน่าจะให้ผ่านได้น้า มันไม่ได้ชนกำแพงอะ ถ้าเป็นบ้านจริงๆ มันก็คงผ่านไปได้
ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Navigation – ทีมนี้มีทั้ง Laser range finer และ Kinect เช่นกัน ผมไม่แน่ใจว่าเค้าใช้อะไรนำทาง ทีมนี้ใช้ระบบขับเคลื่อนแบบ swerve drive (แต่มีวงจรขับมอเตอร์เลี้ยวแค่ 2 ล้อหน้า) และมีระบบกันสะเทือน (suspension) แบบ double wish bone อิสระ 4 ล้อ (ทีมนี้ทำหุ่นยนต์กู้ภัยมาก่อน ระบบขับเคลื่อนทำได้ดีมาก) ไปได้ไกลถึงห้องทำงาน
BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Navigation – ใช้ Kinect ครับ มาได้ถึงห้องทำงาน
ภารกิจ Follow me ให้หุ่นเดิมตามคนครับ อันนี้กติกาเหมือนเดิม ไม่มีอะไรเปลี่ยน
@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – น่าจะใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง
ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี -Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทางเช่นกัน
มะพร้าวหอม – มหาวิทยาลัยบูรพา – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ไม่ไกลเท่าไหร่
BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทางเช่นกัน
M.U.T.แจ๋ว – มหาวิทยาลัยเทคโนโลยีมหานคร – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ประมาณครึ่งทางเช่นกัน
Arrive-SoLate – มหาวิทยาลัยแม่ฟ้าหลวง – Follow me – ใช้ Kinect หาตำแหน่งคน ถึงจะ arrive so late แต่ก็ arrive นะครับ ทำภารกิจได้สำเร็จ
CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Follow me – ใช้ Laser range finder หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ
ดงยาง – มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Follow me – ใช้ Kinect หาตำแหน่งคน ไปได้ไม่ไกลเท่าไหร่
RoboSiam 1 – มหาวิทยาลัยสยาม – Follow me – ทีมนี้น่าจะมีแค่ ultrasonic range finder กับ webcam ผมจึงเดาว่าใช้ webcam หาตำแหน่งคนครับ ไปได้ไม่ไกลมาก
Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Follow me – ใช้ Kinect หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ
TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง
ฮาจิโกะ – สถาบันวิทยาการหุ่นยนต์ภาคสนาม มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – ใช้ Kinect หาตำแหน่งคนครับ ไปได้ประมาณครึ่งทาง
ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Follow me – ใช้ Laser range finder หาตำแหน่งคน ทำภารกิจได้สำเร็จครับ
ภารกิจ Who is who ให้หุ่นยนต์จำใบหน้า และชื่อ ของคน 3 คน แล้วจะสุ่มมาถาม 1 คนว่าชื่ออะไร วันนี้มีกติกาเพิ่มเติมเล็กน้อยคือ ไม่อนุญาตให้ใช้ไมค์ลอย/headset ไร้สาย มาติดกับคน หรือใช้โทรศัพท์มือถือในการสั่งการหุ่น เพราะถือว่าต้องสัมผัสตัวหุ่นยนต์ตลอดเวลา
CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย -Who is who – ทำภารกิจได้สำเร็จครับ แต่กว่าจะ recognize ชื่อ Richard ได้ ฟังเป็น Michael อยู่นาน
ดงยาง – มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Who is who – ทีมนี้ในวันแรกใช้ headset ไร้สายครับ วันนี้ต้องปรับปรุงระบบเล็กน้อย แต่ปรากฏว่าพอไมค์อยู่ไกลขึ้น กลับทำงานได้ดีขึ้น ทำภารกิจได้สำเร็จ เยี่ยมยอดไปเลยครับ
RoboSiam 1 – มหาวิทยาลัยสยาม – Who is who – ตะกุกตะกักเล็กน้อย แต่ก็สำเร็จได้ด้วยดีครับ
ภารกิจ Manipulation ให้หยิบของตามที่จับฉลากได้ มีน้ำขวดพลาสติกฉลากสีน้ำเงิน โค้กกระป๋อง และปริงเกิ้ลกระป๋องสีเขียว
@HOME RIM NAM – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Manipulation – ทีมนี้ใช้แขนที่ลักษณะคล้ายมนุษย์ (การเรียงตัวของข้อต่อคล้ายมนุษย์) ขับด้วยมอเตอร์ Dynamixel หยิบปริงเกิ้ลได้สำเร็จ
BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Manipulation – ทีมนี้ใช้แขนจากหุ่นยนต์กู้ภัยเอามาดัดแปลง โดยรวมแล้วมีลักษณะแบบ SCARA สามารถหยิบขวดน้ำพลาสติกได้สำเร็จครับ
พอดีตอนบ่ายมีธุระต่อ เลยอยู่ถ่ายมาได้แค่นี้ครับ แล้วจะหา link วิดิโอที่รุ่นน้องถ่ายไว้มาให้ดูกันอีกทีครับ
แต่โดยรวมนับว่าทำได้ดีเลยสำหรับปีแรก สู้กันต่อไป หวังว่าจะได้เห็นการพัฒนาฝีมือขึ้นอีกในรอบชิงชนะเลิศครับ โชคดีทุกๆ ทีมครับ


