เทคโนโลยีควบคุมยานยนต์แห่งอนาคต Multimodal Interaction

อัปเดตล่าสุด 26 ต.ค. 2561
  • Share :

เมื่อวันที่ 25 ตุลาคม Nagoya University ร่วม University of Tokushima และ Aisin Seiki ประกาศพัฒนาเทคโนโลยีควบคุมยานยนต์ด้วย Multimodal Interaction เช่น คำสั่งเสียง สายตา และอื่น ๆ โดยใช้ “Autoware” ซอฟต์แวร์ควบคุมยานยนต์แบบโอเพ่นซอร์สที่พัฒนาโดย Tier IV ผู้พัฒนาเทคโนโลยีอิเล็กทรอนิกส์ยานยนต์ในจังหวัดนาโกย่า ร่วมกับเทคโนโลยีจดจำใบหน้า เทคโนโลยีเกสเจอร์ และเทคโนโลยีสั่งการด้วยเสียง โดยคาดการณ์ว่าเทคโนโลยีควบคุมชนิดนี้ จะถูกนำไปพัฒนาต่อเพื่อใช้ในการควบคุมหุ่นยนต์อุตสาหกรรมต่อไปในอีก 3 ปีนับจากนี้ 

โดยระบบควบคุมแบบ Multimodal Interaction จะถูกทดสอบในเขตของ Nagoya University และด้วยเทคโนโลยี Driver Monitoring ของ Aisin Seiki ทำให้การควบคุมด้วยคำสั่งเสียงดำเนินได้โดยง่าย แม้จะมีเสียงเครื่องยนต์ดังแทรก ซึ่งในการทดสอบ จะประกอบด้วยการสั่งการรูปแบบต่าง ๆ เช่น สั่งให้เลี้ยวด้วยคำพูด ใช้สายตามองแผนที่จาก GPS แล้วถามว่าจุดที่มองอยู่คืออะไร หรือกระทั่งใช้สัญญาณมือในการควบคุมยานยนต์

ปัจจุบัน เทคโนโลยีนี้ยังอยู่ระหว่างการพัฒนา ซึ่งศาสตราจารย์ Kazuya Takeda จาก Nagoya University ได้กล่าวแสดงความต้องการที่จะพัฒนาเทคโนโลยีนี้เพื่อให้ใช้งานในภาคอื่น ๆ ได้ต่อไป