Trolley problem ปัญหาจริยธรรมกับปัญญาประดิษฐ์ในยุครถไร้คนขับ

การพัฒนาปัญญาประดิษฐ์โดยไม่คำนึงถึงจริยธรรมอาจก่อให้เกิดภัยได้ ก่อนหน้านี้เคยกล่าวถึงการทดลองทางความคิด Paperclip maximizer สถานการณ์นี้อาจดูไกลความจริงไปหน่อย ลองขยับมาดูสถานการณ์ที่ใกล้ขึ้นมา นั่นก็คือ Trolley problem ซึ่งถูกนำกลับมาพูดถึงกันมากขึ้นในยุคที่รถไร้คนขับเริ่มถูกใช้งานจริงจัง

Trolley problem เป็นการทดลองทางความคิดที่มีต้นกำเนิดมานานแล้ว มักใช้ในการทดสอบด้านจริยธรรม กล่าวถึงสถานการณ์ที่มีรถรางเสียความควบคุมวิ่งไปบนราง ข้างหน้ามีทางแยกซึ่งตรงไปจะชนคน 5 คน หรือถ้าสับราง จะชนคนเพียง 1 คน คุณจะเลือกไม่ทำอะไรแล้วมีผู้เสียชีวิต 5 ราย หรือเข้าไปสับรางเพื่อช่วย 5 คน แต่ฆ่าคน 1 คนโดยเจตนา ปัญหานี้เรียกว่าเป็นไปได้มากที่จะเกิดขึ้นกับเทคโนโลยีไร้คนขับ ในสถานการณ์ที่ระบบควบคุมรถรู้ว่าไม่สามารถหลีกเลี่ยงอุบัติเหตุได้ จะเลือกให้เกิดอุบัติเหตุแบบไหน ชนคนแก่ ชนเด็ก ชนคนหมู่มาก หรือยอมให้ผู้โดยสารในรถเสียชีวิต และเมื่อเกิดอุบัติเหตุขึ้นแล้ว ใครเป็นผู้รับผิดชอบความเสียหาย บริษัทรถ ผู้โดยสารในรถ หรือผู้พัฒนาระบบควบคุมรถ

MIT Media Lab ได้พัฒนาเว็บ Moral Machine มาให้ผู้สนใจทดลองเผชิญสถานการณ์ Trolley problem แล้วตัดสินใจว่าจะทำอย่างไรดู

ถึงแม้ตัวเทคโนโลยีรถไร้คนขับจะเริ่มทำงานได้ดีมาก ๆ และดีกว่ามนุษย์ แต่การนำมาใช้จริงยังต้องผ่านประเด็นทางจริยธรรมและกฎหมายอยู่อีกมาก

LINE it!