พาไปดูการแข่งขัน Thailand Robot@Home รอบแรก วันที่ 1

การแข่งขัน Thailand Robot @Home เป็นการแข่งขันการพัฒนาหุ่นยนต์ที่จะนำมาใช้ในบ้าน ซึ่งเมื่อกล่าวถึงหุ่นยนต์ที่ใช้งานในบ้าน คุณสมบัติที่ต้องมีก็ได้แก่ สามารถติดต่อสื่อสารกับคนได้โดยง่าย จดจำคน สิ่งของ สถานที่ในบ้านได้ เคลื่อนที่ไปในบ้านได้ หยิบจับสิ่งของ ทำงานช่วยเหลือคนได้ ปีนี้สมาคมวิชาการหุ่นยนต์แห่งประเทศไทย ร่วมกับมหาวิทยาลัยมหิดล และเครือซีเมนต์ไทย ได้จัดการแข่งขัน Thailand Robot@Home ขึ้นเป็นครั้งแรก การแข่งขันในรอบแรกจัดขึ้นวันที่ 24-25 ธันวาคม 2554 ที่มหาวิทยาลัยมหิดล ศาลายา เชิญชมวิดิโอการแข่งขันด้านในครับ

การแข่งขันในปีนี้ เดิมทีจะแข่งรอบคัดเลือก แล้วคัดเอา 8 ทีมที่ดีที่สุดเข้าแข่งขันรอบชิงชนะเลิศต่อไป แต่เนื่องจากปัญหาอุทกภัยทำให้หลายๆ ทีมมีเวลาเตรียมตัวไม่เพียงพอ กรรมการจึงไม่ตัดทีมใดทิ้ง ให้นำคะแนนการแข่งขันรอบแรกรวมกับคะแนนรอบที่สอง เพื่อหาผู้ชนะเลิศ

กติกาการแข่งขันในปีแรกนี้ก็ง่ายหน่อย (ก็ไม่หน่อยเท่าไหร่) แบ่งออกเป็น 5 ภารกิจ ซึ่งแต่ละภารกิจเน้นความสามารถอย่างใดอย่างหนึ่ง (ในระดับต่างประเทศ แต่ละภารกิจจะต้องใช้ความสามารถหลายอย่างร่วมกัน)

  1. Navigation คือ หุ่นยนต์ต้องเคลื่อนที่จากจุดหนึ่ง ไปยังอีกจุดหนึ่งได้ โดยผังของบ้านไม่เปลี่ยนแปลง แต่ตำแหน่งเฟอร์นิเจอร์ในบ้านอาจเปลี่ยนแปลงได้บ้าง
  2. Follow me คือ หุ่นยนต์ต้องเคลื่อนที่ตามคนได้
  3. Who is who คือ หุ่นยนต์ต้องจดจำใบหน้าและชื่อคนได้ โดยจะให้จำ 3 คน และจะสุ่มเอา 1 คนมาถามหุ่นยนต์ว่าคนนั้นชื่ออะไร
  4. Manipulation คือ หุ่นยนต์ต้องจดจำ แยกแยะวัตถุได้ โดยการการแข่งขันจะใช้ น้ำขวดพลาสติกฉลากสีฟ้า โค้กกระป๋อง และปริงเกิ้ลกระป๋องสีเขียว และจะต้องหยิบวัตถุที่กำหนดให้ได้
  5. Open challenge คือ การแสดงความสามารถของหุ่นยนต์อย่างอิสระ ผู้เข้าแข่งขันสามารถนำอะไรมาแสดงก็ได้ ที่แสดงถึงความสามารถของหุ่นยนต์

โดยในทุกภารกิจ หุ่นยนต์ต้องรับคำสั่งจากเสียง (ถ้าต้องไปกดอะไรที่หุ่นจะโดนตัดคะแนน)

มาดูการแข่งขันกัน เริ่มจากสนามแข่ง Navigation ก่อน วันแรกให้วิ่งจากห้องนั่งเล่นไปยังห้องนอน

ในช่วงเช้าแข่ง Navigation และ Follow me ขนานกันไป ทีมนึงแข่ง Navigation ในสนาม อีกทีมแข่ง Follow me อยู่ข้างๆ สนาม ส่วนตอนบ่ายเป็นการแข่ง Who is who และ Manipulation ขนานกันไป โดยที่ Who is who แข่งที่ห้องนั่งเล่น และ Manipulation แข่งในครัว

มาดูวิดิโอกันครับ (เค้ากั้นไม่ให้ไปยืนถ่ายข้างสนาม เลยต้องถ่ายจากชั้นลอย ถ่ายด้วยกล้องมือถือ ซูมตอนถ่ายวิดิโอไม่ได้ -_-‘ ไว้จะหา link วิดิโอที่น้องอีกคนถ่ายมาให้ดูทีหลังครับ) ถ่ายมาได้แค่บางทีมนะครับ เพราะมันแข่งขนานกัน แล้วก็ไม่ได้ไปตั้งแต่เริ่ม

Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Navigation – ทีมนี้ใช้ Kinect ครับ ช่วงแรกๆ วิ่งชนโซฟา จนต้องเริ่มใหม่หลายครั้ง ครั้งสุดท้ายผ่านห้องนั่งเล่นไปได้นิดนึงแล้ว แต่หมดเวลาเสียก่อน น่าเสียดาย

RoboSiam – มหาวิทยาลัยสยาม – Navigation – พ้นห้องนั่งเล่นไปได้ แต่ไปหลงทางในห้องทำงาน ทำได้ดีมากครับ เมื่อเทียบกับว่าทีมนี้ใช้แค่ ultrasonic นำทาง ในขณะที่ทีมอื่นๆ ส่วนมากใช้ Kinect หรือ Laser range finder

CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย – Navigation – ทำภารกิจสำเร็จ (มีแค่ 2 ทีมที่ทำได้ อีกทีมคือ ขอไข่ จาก จุฬาลงกรณ์มหาวิทยาลัย เช่นกัน) ทีมนี้ใช้ Laser range finder ในการทำแผนที่และนำทาง

มะพร้าวหอม – มหาวิทยาลัยบูรพา – Follow me – ทำภารกิจสำเร็จครับ ใช้ Kinect หาตำแหน่งคนครับ

ISDR –  มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Follow me – ใช้ Kinect ครับ ตามไปได้ครึ่งทาง คนหลุดจากมุมมองที่ Kinect มองได้ เลยตามต่อไม่ได้ครับ

@Home Rim Nam – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Follow me – น่าจะใช้ Kinect ครับ ไปได้ครึ่งทาง คนหลุดมุมมองของ Kinect เลยตามต่อไม่ได้

TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Manipulation – แขนเป็นแขนคล้ายมนุษย์ (ลักษณะการเรียงตัวของข้อต่อเหมือนมนุษย์) ขับด้วย Dynamixel สามารถหยิบปริงเกิ้ลได้สำเร็จครับ

RoboSiam – มหาวิทยาลัยสยาม – Manipulation – แขนเป็นแบบ articulate arm (คล้ายแขนหุ่นยนต์อุตสาหกรรม) ขับด้วย Dynamixel สามารถหยิบขวดน้ำได้สำเร็จครับ

BART LAB/BCI AssistBot  – มหาวิทยาลัยมหิดล – Manipulation – แขนเป็นลักษณะแบบ scara (เป็นแขนจากหุ่นยนต์กู้ภัยเอามาวางตะแคง และใส่กลไกเคลื่อนที่แนวดิ่งเพิ่ม) หยิบขวดน้ำได้สำเร็จครับ

Skuba – มหาวิทยาลัยเกษตรศาสตร์ – Who is who – ไม่สามารถรับคำสั่งด้วยเสียงได้ วิดิโอนี้แสดงให้เห็นว่ารับคำสั่งด้วยเสียงไม่ใช่เรื่องง่ายเลย (ลองฟังเสียงในวิดิโอดูนะครับ) ผู้พูดต้องพูดย้ำหลายครั้ง แต่หุ่นก็ไม่เข้าใจ เป็นไปได้หลายอย่างมากครับ ตั้งแต่เสียงรบกวน สำเนียงของผู้พูด การฝึกระบบมาด้วยเสียงแบบหนึ่ง แต่ผู้พูดมีสำเนียงอีกแบบ คลังคำศัพท์ที่ระบบรู้จัก เป็นต้น

สุดท้ายของวันแรกเป็น Open challenge ครับ แต่ละทีมแสดงความสามารถได้น่าสนใจครับ

M.U.T.แจ๋ว – มหาวิทยาลัยเทคโนโลยีมหานคร – Open challenge – ให้หุ่นยนต์ดูดฝุ่นครับ แต่พอดีมันวิ่งไม่ได้ เลยเคลื่อนไหวแขนเฉยๆ

BART LAB/BCI AssistBot – มหาวิทยาลัยมหิดล – Open challenge – ติดอุปกรณ์วัดชีพจรไว้บนหุ่น ผู้ใช้สามารถไปวัดชีพจรได้ แล้วหุ่นยนต์อาจส่งข้อมูลไปให้แพทย์อีกที

ISDR –  มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าพระนครเหนือ วิทยาเขตปราจีนบุรี – Open challenge – แสดงความสามารถของระบบกันสะเทือน (suspension) ทำได้ดีครับ ทีมนี้ทำหุ่นยนต์กู้ภัยมาก่อน

prAIM~pre – มหาวิทยาลัยมหิดล – Open challenge – แสดงการรับคำสั่งด้วยเสียงภาษาไทยครับ

ขอไข่ – จุฬาลงกรณ์มหาวิทยาลัย – Open challenge – แสดงการให้หุ่นไปต้อนรับแขกหน้าบ้าน พอมานั่งที่โต๊ะกินข้าว ถามว่าจะดื่มน้ำอะไร แล้วไปเอาให้ (ให้คนวางลงบนหุ่นให้ ไม่ได้หยิบเอง ต้องพัฒนาต่อไป) แล้วส่งแขกไปที่หน้าบ้าน (พอดีเมมโมรีมือถือเต็มครับ ถ่ายมาได้ไม่หมด)

TRCC 422R – มหาวิทยาลัยเทคโนโลยีพระจอมเกล้าธนบุรี – Open challenge – แสดงการ render ภาพ avatar หุ่นโดยอ้างอิงตามอารมณ์ต่างๆ

RoboSiam – มหาวิทยาลัยสยาม – Open challenge – แสดงการสั่งให้หุ่นเคลื่อนที่โดยการพูด forward, turn left, turn right

ดงยาง – มหาวิทยาลัยสงขลานครินทร์วิทยาเขตหาดใหญ่ – Open challenge – แสดงการสั่งหุ่นด้วยเสียงในหลายลักษณะ เช่น ถามเวลา, สั่งให้ search ใน google, สั่งให้เปลี่ยนหน้า slide powerpoint (บนตัวมี iPad remote desktop ไปยังเครื่องที่เปิด  powerpoint อยู่)

CUttonBlood – จุฬาลงกรณ์มหาวิทยาลัย- Open challenge – แสดงการสั่งหุ่นด้วยท่าทาง เช่น กวักมือให้เดินตาม โบกมือบ๊าย บาย ให้หยุดเดินตาม

ผ่านไปสำหรับวันแรกครับ นับว่าทำได้ดีกันทีเดียวสำหรับการแข่งขันในปีแรก

เดี๋ยวจะมีวันที่สองต่อครับ อดใจรออีดนิด (update ดูของวันที่ 2 ได้ที่นี่ครับ)

LINE it!
Loading Facebook Comments ...
Loading Disqus Comments ...