การแข่งขัน Thailand Robot @Home เป็นการแข่งขันการพัฒนาหุ่นยนต์ที่จะนำมาใช้ในบ้าน ซึ่งเมื่อกล่าวถึงหุ่นยนต์ที่ใช้งานในบ้าน คุณสมบัติที่ต้องมีก็ได้แก่ สามารถติดต่อสื่อสารกับคนได้โดยง่าย จดจำคน สิ่งของ สถานที่ในบ้านได้ เคลื่อนที่ไปในบ้านได้ หยิบจับสิ่งของ ทำงานช่วยเหลือคนได้ ปีนี้สมาคมวิชาการหุ่นยนต์แห่งประเทศไทย ร่วมกับมหาวิทยาลัยมหิดล และเครือซีเมนต์ไทย ได้จัดการแข่งขัน Thailand Robot@Home ขึ้นเป็นครั้งแรก การแข่งขันในรอบแรกจัดขึ้นวันที่ 24-25 ธันวาคม 2554 ที่มหาวิทยาลัยมหิดล ศาลายา เชิญชมวิดิโอการแข่งขันด้านในครับ
การแข่งขันในปีนี้ เดิมทีจะแข่งรอบคัดเลือก แล้วคัดเอา 8 ทีมที่ดีที่สุดเข้าแข่งขันรอบชิงชนะเลิศต่อไป แต่เนื่องจากปัญหาอุทกภัยทำให้หลายๆ ทีมมีเวลาเตรียมตัวไม่เพียงพอ กรรมการจึงไม่ตัดทีมใดทิ้ง ให้นำคะแนนการแข่งขันรอบแรกรวมกับคะแนนรอบที่สอง เพื่อหาผู้ชนะเลิศ
กติกาการแข่งขันในปีแรกนี้ก็ง่ายหน่อย (ก็ไม่หน่อยเท่าไหร่) แบ่งออกเป็น 5 ภารกิจ ซึ่งแต่ละภารกิจเน้นความสามารถอย่างใดอย่างหนึ่ง (ในระดับต่างประเทศ แต่ละภารกิจจะต้องใช้ความสามารถหลายอย่างร่วมกัน)
- Navigation คือ หุ่นยนต์ต้องเคลื่อนที่จากจุดหนึ่ง ไปยังอีกจุดหนึ่งได้ โดยผังของบ้านไม่เปลี่ยนแปลง แต่ตำแหน่งเฟอร์นิเจอร์ในบ้านอาจเปลี่ยนแปลงได้บ้าง
- Follow me คือ หุ่นยนต์ต้องเคลื่อนที่ตามคนได้
- Who is who คือ หุ่นยนต์ต้องจดจำใบหน้าและชื่อคนได้ โดยจะให้จำ 3 คน และจะสุ่มเอา 1 คนมาถามหุ่นยนต์ว่าคนนั้นชื่ออะไร
- Manipulation คือ หุ่นยนต์ต้องจดจำ แยกแยะวัตถุได้ โดยการการแข่งขันจะใช้ น้ำขวดพลาสติกฉลากสีฟ้า โค้กกระป๋อง และปริงเกิ้ลกระป๋องสีเขียว และจะต้องหยิบวัตถุที่กำหนดให้ได้
- Open challenge คือ การแสดงความสามารถของหุ่นยนต์อย่างอิสระ ผู้เข้าแข่งขันสามารถนำอะไรมาแสดงก็ได้ ที่แสดงถึงความสามารถของหุ่นยนต์
โดยในทุกภารกิจ หุ่นยนต์ต้องรับคำสั่งจากเสียง (ถ้าต้องไปกดอะไรที่หุ่นจะโดนตัดคะแนน)
มาดูการแข่งขันกัน เริ่มจากสนามแข่ง Navigation ก่อน วันแรกให้วิ่งจากห้องนั่งเล่นไปยังห้องนอน
มาดูวิดิโอกันครับ (เค้ากั้นไม่ให้ไปยืนถ่ายข้างสนาม เลยต้องถ่ายจากชั้นลอย ถ่ายด้วยกล้องมือถือ ซูมตอนถ่ายวิดิโอไม่ได้ -_-‘ ไว้จะหา link วิดิโอที่น้องอีกคนถ่ายมาให้ดูทีหลังครับ) ถ่ายมาได้แค่บางทีมนะครับ เพราะมันแข่งขนานกัน แล้วก็ไม่ได้ไปตั้งแต่เริ่ม
Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Navigation – ทีมนี้ใช้ Kinect ครับ ช่วงแรกๆ วิ่งชนโซฟา จนต้องเริ่มใหม่หลายครั้ง ครั้งสุดท้ายผ่านห้องนั่งเล่นไปได้นิดนึงแล้ว แต่หมดเวลาเสียก่อน น่าเสียดาย
RoboSiam – มหาวิทยาลัยสยาม – Navigation – พ้นห้องนั่งเล่นไปได้ แต่ไปหลงทางในห้องทำงาน ทำได้ดีมากครับ เมื่อเทียบกับว่าทีมนี้ใช้แค่ ultrasonic นำทาง ในขณะที่ทีมอื่นๆ ส่วนมากใช้ Kinect หรือ Laser range finder
CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ทำภารกิจสำเร็จ (มีแค่ 2 ทีมที่ทำได้ อีกทีมคือ ขอไข่ จาก จุฬาลงกรณ์มหาวิทยาลัย เช่นกัน) ทีมนี้ใช้ Laser range finder ในการทำแผนที่และนำทาง
มะพร้าวหอม – มหาวิทยาลัยบูรพา – Follow me – ทำภารกิจสำเร็จครับ ใช้ Kinect หาตำแหน่งคนครับ
ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Follow me – ใช้ Kinect ครับ ตามไปได้ครึ่งทาง คนหลุดจากมุมมองที่ Kinect มองได้ เลยตามต่อไม่ได้ครับ
@Home Rim Nam – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – น่าจะใช้ Kinect ครับ ไปได้ครึ่งทาง คนหลุดมุมมองของ Kinect เลยตามต่อไม่ได้
TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Manipulation – แขนเป็นแขนคล้ายมนุษย์ (ลักษณะการเรียงตัวของข้อต่อเหมือนมนุษย์) ขับด้วย Dynamixel สามารถหยิบปริงเกิ้ลได้สำเร็จครับ
RoboSiam – มหาวิทยาลัยสยาม – Manipulation – แขนเป็นแบบ articulate arm (คล้ายแขนหุ่นยนต์อุตสาหกรรม) ขับด้วย Dynamixel สามารถหยิบขวดน้ำได้สำเร็จครับ
BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Manipulation – แขนเป็นลักษณะแบบ scara (เป็นแขนจากหุ่นยนต์กู้ภัยเอามาวางตะแคง และใส่กลไกเคลื่อนที่แนวดิ่งเพิ่ม) หยิบขวดน้ำได้สำเร็จครับ
Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Who is who – ไม่สามารถรับคำสั่งด้วยเสียงได้ วิดิโอนี้แสดงให้เห็นว่ารับคำสั่งด้วยเสียงไม่ใช่เรื่องง่ายเลย (ลองฟังเสียงในวิดิโอดูนะครับ) ผู้พูดต้องพูดย้ำหลายครั้ง แต่หุ่นก็ไม่เข้าใจ เป็นไปได้หลายอย่างมากครับ ตั้งแต่เสียงรบกวน สำเนียงของผู้พูด การฝึกระบบมาด้วยเสียงแบบหนึ่ง แต่ผู้พูดมีสำเนียงอีกแบบ คลังคำศัพท์ที่ระบบรู้จัก เป็นต้น
สุดท้ายของวันแรกเป็น Open challenge ครับ แต่ละทีมแสดงความสามารถได้น่าสนใจครับ
M.U.T.แจ๋ว – มหาวิทยาลัยเทคโนโลยีมหานคร – Open challenge – ให้หุ่นยนต์ดูดฝุ่นครับ แต่พอดีมันวิ่งไม่ได้ เลยเคลื่อนไหวแขนเฉยๆ
BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Open challenge – ติดอุปกรณ์วัดชีพจรไว้บนหุ่น ผู้ใช้สามารถไปวัดชีพจรได้ แล้วหุ่นยนต์อาจส่งข้อมูลไปให้แพทย์อีกที
ISDR – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Open challenge – แสดงความสามารถของระบบกันสะเทือน (suspension) ทำได้ดีครับ ทีมนี้ทำหุ่นยนต์กู้ภัยมาก่อน
prAIM~pre – มหาวิทยาลัยมหิดล – Open challenge – แสดงการรับคำสั่งด้วยเสียงภาษาไทยครับ
ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Open challenge – แสดงการให้หุ่นไปต้อนรับแขกหน้าบ้าน พอมานั่งที่โต๊ะกินข้าว ถามว่าจะดื่มน้ำอะไร แล้วไปเอาให้ (ให้คนวางลงบนหุ่นให้ ไม่ได้หยิบเอง ต้องพัฒนาต่อไป) แล้วส่งแขกไปที่หน้าบ้าน (พอดีเมมโมรีมือถือเต็มครับ ถ่ายมาได้ไม่หมด)
TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Open challenge – แสดงการ render ภาพ avatar หุ่นโดยอ้างอิงตามอารมณ์ต่างๆ
RoboSiam – มหาวิทยาลัยสยาม – Open challenge – แสดงการสั่งให้หุ่นเคลื่อนที่โดยการพูด forward, turn left, turn right
ดงยาง – มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Open challenge – แสดงการสั่งหุ่นด้วยเสียงในหลายลักษณะ เช่น ถามเวลา, สั่งให้ search ใน google, สั่งให้เปลี่ยนหน้า slide powerpoint (บนตัวมี iPad remote desktop ไปยังเครื่องที่เปิด powerpoint อยู่)
CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย- Open challenge – แสดงการสั่งหุ่นด้วยท่าทาง เช่น กวักมือให้เดินตาม โบกมือบ๊าย บาย ให้หยุดเดินตาม
ผ่านไปสำหรับวันแรกครับ นับว่าทำได้ดีกันทีเดียวสำหรับการแข่งขันในปีแรก
เดี๋ยวจะมีวันที่สองต่อครับ อดใจรออีดนิด (update ดูของวันที่ 2 ได้ที่นี่ครับ)