รีวิว Real Steel : ศึกกําปั้นหุ่นเหล็กถล่มปฐพี ในแบบคนทำหุ่น (ตอนที่ 1)

ในที่สุดก็ได้ไปดูมาแล้ว หลังจากที่โดนโรคเลื่อนมาถึง 3 ครั้ง อยากดูเรื่อง Real Steel มาตั้งแต่ที่ BotJunkie และ IEEE Spectrum Automaton ได้กล่าวถึงหนังเรื่องนี้ไว้ว่ามีการสร้างหุ่นยนต์สูงกว่า 2.4 เมตร 19 ตัวขึ้นมาในการถ่ายทำจริงๆ แต่ไปดูมาแล้วก็ดูไม่ออกอยู่ดีว่าฉากไหนหุ่นจริง ฉากไหน computer graphic -_-‘ โดยรวมก็เป็นหนังที่ดีครับ แต่ถ้าจะให้มาวิจารณ์ว่าโครงเรื่องเป็นยังไง นักแสดงสมบทบาทมั้ย ฉากและดนตรีประกอบดีรึเปล่าคงไม่สามารถ เอาเป็นว่ามารีวิวในแบบคนทำหุ่นยนต์ดีกว่า

หุ่นยนต์เหมือนมนุษย์ (humanoid robot)

มนุษย์เราก็เอาตัวเองเป็นใหญ่ พัฒนาหุ่นยนต์ทั้งทีก็พยายามทำให้เหมือนตัวเอง จริงๆ แล้วการทำให้หุ่นยนต์เดิน 2 ขา มี 2 แขนเหมือนมนุษย์มันก็มีประโยชน์ เพราะเราสร้างสภาพแวดล้อมรอบๆ ตัวเราเพื่ออำนวยความสะดวกให้แก่ตัวเราเอง ไม่ว่าจะเป็นความสูงของโต๊ะ เก้าอี้ ความกว้างทางเดิน ความสูงขั้นบันได หูหิ้วต่างๆ ล้วนออกแบบมาให้มนุษย์หยิบจับใช้งานได้ง่ายทั้งนั้น การที่จะให้หุ่นยนต์มาช่วยเหลือ อำนวยความสะดวกในสภาพแวดล้อมของเรา หุ่นยนต์ก็จำเป็นต้องมีสรีระเหมาะกับสภาพแวดล้อมด้วย นั่นก็คือเหมือนมนุษย์นั่นเอง (ยกเว้นจะยอมปรับสภาพแวดล้อมเพื่ออำนวยความสะดวกให้แก่หุ่นยนต์)

humanoid robot ได้รับการพัฒนามาเป็นเวลายาวนานแล้ว ตัวที่ดังๆ ที่คนทั่วไปรู้จักก็เห็นจะเป็น ASIMO จาก Honda ซึ่งเดิน วิ่ง หยิบจับของ จดจำผู้คนได้ ถ้าเป็นนักพัฒนาหุ่นยนต์หน่อยจะอาจรู้จัก NAO จาก Aldebaran platform หุ่นยนต์สำหรับการวิจัย QRIO หุ่นยนต์ของเล่นจาก Sony HUBO จากเกาหลี Kondo Bioloid หุ่นยนต์สำหรับการพัฒนา มากมายจริงๆ ตั้งแต่ตัวเล็กๆ ไปจนถึงตัวใหญ่ๆ แต่ทั้งหมดยังไม่สามารถเคลื่อนไหวได้รวดเร็ว คล่องแคล่วเหมือนกับหุ่นยนต์จาก Hollywood เพราะการเดินนั้นต้องใช้การควบคุมต้นกำลังจำนวนมาก ต้องควบคุมการถ่ายน้ำหนัก การวางเท้า การวางเส้นทางการเดินเพื่อหลบหลีกสิ่งกีดขวาง ดังนั้นเราจึงยังคงไม่เห็นหุ่นยนต์ต่อยมวยแบบใน Real Steel ในเร็วๆ นี้ สำหรับผม ถ้าให้ยกหุ่น humanoid ที่ผมประทับใจซักตัวขึ้นมา ผมจะเลือก PETMAN จาก Boston Dynamics ถึงแม้จะยังพัฒนาไม่เสร็จสมบูรณ์ ยังมีสายระโยงระยางอยู่ แต่ผมว่าการเคลื่อนไหวของมันค่อนข้างคล่องตัว คล้ายคนมาก (vdo ด้านล่าง ผมชอบตอนมันย่อเข่า แล้วหมุนตัวมากๆ)

การควบคุมหุ่นยนต์ด้วยรีโมทจากระยะไกล (teleoperated robot)

หุ่นยนต์แทบทุกตัวในเรื่องจะสามารถควบคุมผ่าน joystick ได้ แต่การควบคุมหุ่นยนต์ซึ่งมีองศาอิสระเยอะขนาดนั้นด้วยปุ่มไม่กี่ปุ่มคงเป็นไปไม่ได้เลยถ้าจะต้องมากดปุ่มควบคุมแขนแต่ละท่อน ขาแต่ละท่อน ถ้าจำไม่ผิดในเรื่อง เบย์ลีได้บอกแมกซ์ว่ากดแป้นควบคุมนี้สำหรับเดินหน้าถอยหลัง อันนี้สำหรับเลี้ยว อันนี้สำหรับต่อย เหมือนเล่นเกม อะไรทำนองนี้ นั่นแสดงถึงความอัตโนมัติบนหุ่นยนต์ในระดับหนึ่ง ซึ่งสามารถแปลงคำสั่งเดินหน้า ถอยหลัง หมุนตัว ต่อย ไปเป็นการควบคุมระดับข้อต่อแต่ละข้อของหุ่นยนต์ได้ (joint level control) และยังมีท่าไม้ตายต่างๆ อีก (combination) ซึ่งก็คือการโปรแกรมท่าทางเข้าไปล่วงหน้าแล้วเล่นซ้ำนั่นเอง (pre-defined) ซึ่งเทคนิคแบบนี้มีใช้กันอยู่แล้วในปัจจุบัน ในหุ่นยนต์อุตสาหกรรมก็จะมีโหมดสอนและเล่นซ้ำ (teach and play) คือบังคับหุ่นไปยังท่าทางต่างๆ จากนั้นให้หุ่นจำไว้ เมื่อมีอินพุตจากเซนเซอร์เข้ามาในรูปแบบที่กำหนดไว้ก็จะสั่งให้หุ่นขยับไปยังท่าที่จำไว้

การสั่งงานด้วยเสียง (voice command, voice recognition)

ในเรื่องมีหุ่นยนต์หลายตัวที่สั่งงานด้วยเสียงซึ่งเป็นเทคโนโลยีที่มีมาได้ซักพักแล้ว แต่ก็ยังมีความท้าทายให้พัฒนากันต่อไป เช่น การจดจำเสียงในสภาพแวดล้อมที่เสียงดัง ระบบจะแยกได้ยากว่าเสียงไหนเป็นเสียงผู้ใช้ เสียงไหนเป็นเสียงรบกวน มีหลายเทคนิคที่ใช้แก้ปัญหานี้ เช่น ใช้ไมโครโฟนที่ฟังเสียงบางทิศได้ดีกว่าทิศอื่นๆ หรือใช้ไมโครโฟนเพื่อแยกแยะทิศทางของเสียง หรือใช้ไมโครโฟนบางตัวฟังเสียงสภาพแวดล้อมและมาหักลบกับไมโครโฟนตัวที่ใกล้ผู้พูดเพื่อหักล้างเสียงรบกวนออกไป (noise cancellation) การฟังผู้พูดที่มีสำเนียงแตกต่างกันออกไปก็แยกแยะได้ยาก แต่ในสภาพแวดล้อมที่จำกัด เช่นผู้พูดใกล้ไมโครโฟนมากๆ ก็สามารถทำงานได้ดี และมีให้ใช้กันในชีวิตประจำวันแล้ว ไม่ใกล้ไม่ไกล ก็ Siri ใน iPhone4S, Voice Action ใน Android ระบบสั่งงานด้วยเสียงใน smartphone ต่างๆ และใน Windows

Shadow function

แต่ที่พิเศษในเจ้า Atom คือ มันมี shadow function สามารถสะท้อนท่าทางของผู้ฝึกสอนได้ (เน้นว่าสะท้อน ไม่ได้เลียนแบบ เพราะมันทำท่าทางกลับซ้ายเป็นขวาตลอดทั้งเรื่องเลยนะเอ้อ…. พยายามจับผิดอยู่ ฮ่าฮ่า) เทคโนโลยีแนวๆ นี้ก็มีแล้ว เรียกกันว่า motion capture ซึ่งสมัยก่อนจะใช้สัญลักษณ์ (marker) แปะตามตัวนักแสดงที่เป็นแบบ และใช้กล้องอย่างน้อย 2 ตัวจับตำแหน่งสัญลักษณ์นั้นๆ เพื่อประมวลผลหาตำแหน่งในสามมิติของจุดต่างๆ บนร่างกายที่สัญลักษณ์นั้นแปะอยู่ หรืออีกวิธีคือการใช้เซนเซอร์ประเภท inertial sensor ได้แก่ gyrometer, accelerometer, megnetometer แปะตามตัวแล้ววัดมุมของแต่ละส่วนของร่างกาย เพื่อประมวลผลหาท่าทางของนักแสดง แต่เมื่อมี Kinect เกิดขึ้น ใครๆ ก็ใช้ Kinect กัน Kinect สามารถให้ภาพความลึก (depth image) ได้ ซึ่งสามารถนำมาประมวลผลได้เลยว่าส่วนไหนเป็นแขน ลำตัว ขา ทำให้รู้ท่าทางของนักแสดงได้ในราคาแสนถูกกว่าระบบแบบก่อนๆ แต่ใน Real Steel นั้นไม่ต้องใช้อุปกรณ์อะไรเลย (หรือมันใช้อะไรก็ไม่รู้) เจ้า Atom ก็ทำทางเลียนแบบได้ อันนั้นน่าจะเป็นความสามารถของ Hollywood ซึ่งนักวิจัยและพัฒนาทั้งหลายต้องไล่ตามกันต่อไป

motion capture แบบติดสัญลักษณ์
motion capture ด้วยภาพความลึกจาก Kinect

เริ่มยาวละ ตัดจบตอนแล้วต่อตอน 2 คราวหน้าดีกว่า (update – อ่านตอนที่ 2 ต่อได้ที่นี่ครับ)

ภาพจาก real-steel–trailer.blogspot.com, Wikipedia, codasign

LINE it!
Loading Facebook Comments ...
Loading Disqus Comments ...