คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมพัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” - ข่าวเด่นวันนี้ | Today Highlight News

Breaking

Home Top Ad

Post Top Ad

วันเสาร์ที่ 29 พฤษภาคม พ.ศ. 2564

คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมพัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย”

คณะวิศวฯ และคณะอักษรฯ จุฬาฯ ร่วมพัฒนา “ชุดข้อมูลและโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย” ปัญญาประดิษฐ์แยกแยะอารมณ์จากเสียงพูด เปิดให้ดาวน์โหลดฟรีแล้ว หวังเสริมประสิทธิภาพงานขายและระบบบริการที่ต้องเข้าถึงใจลูกค้า 

เทคโนโลยีด้านเสียงก้าวขึ้นไปอีกขั้น จากเดิมที่เราคุ้นเคยกับการใช้เสียงพูดเพื่อป้อนข้อมูลหรือออกคำสั่งกับหุ่นยนต์ปัญญาประดิษฐ์ บังคับการทำงานของอุปกรณ์ภายในรถยนต์หรือระบบบ้านอัจฉริยะ โปรแกรมแปลภาษาหรือถอดคำพูดเป็นตัวอักษรโดยใช้เสียง ฯลฯ ตอนนี้ปัญญาประดิษฐ์ได้รับการพัฒนาให้เข้าใจและจำแนกอารมณ์จากเสียงและตอบสนองข้อมูลด้านความรู้สึกของมนุษย์ผู้สื่อสารได้ดียิ่งขึ้น

โมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Recognition Model) ปัญญาประดิษฐ์สุดล้ำโดยอาจารย์จุฬาฯ ที่เปิดให้ผู้สนใจดาวน์โหลดเพื่อใช้งานแล้ววันนี้ เป็นฝีมือการทำงานวิจัยข้ามศาสตร์ระหว่าง อาจารย์ ดร.เอกพล ช่วงสุวนิช นักวิชาการด้านวิศวกรรมคอมพิวเตอร์จากคณะวิศวกรรมศาสตร์ และผู้ช่วยศาสตราจารย์ ดังกมล ณ ป้อมเพชร พร้อมด้วยอาจารย์ภัสสร์ศุภางค์ คงบำรุง สองนักวิชาการด้านศิลปการละครจากคณะอักษรศาสตร์

อาจารย์ ดร.เอกพล ช่วงสุวนิช ภาควิชาวิศวกรรมคอมพิวเตอร์ 
คณะวิศวกรรมศาสตร์ จุฬาฯ

“การสร้างปัญญาประดิษฐ์ที่สามารถตีความอารมณ์จากเสียงพูดได้นั้นนำไปพัฒนาต่อยอดได้หลายทาง เช่น ระบบคอลเซ็นเตอร์ที่สามารถประเมินอารมณ์ลูกค้าที่โทรศัพท์เข้ามารับบริการว่ามีอารมณ์เช่นไร โกรธหรือหงุดหงิด แล้วบันทึกความรู้สึกจากน้ำเสียงตลอดการพูดคุยเป็นสถิติได้ว่ามีลูกค้าที่ไม่พอใจการให้บริการจำนวนเท่าใด หรือสร้างเป็นระบบปัญญาประดิษฐ์ที่สามารถแสดงอารมณ์ขณะการสื่อสารกับผู้ใช้ได้อย่างเป็นธรรมชาติมากขึ้น แทนที่จะพูดด้วยน้ำเสียงเรียบๆ แบบโมโนโทนที่เราคุ้นเคย” อาจารย์ ดร.เอกพลเผยเป้าหมายการพัฒนาผลงาน ซึ่งพัฒนาร่วมกับสถาบันวิทยสิริเมธี (VISTEC) และได้รับการสนับสนุนงบประมาณจากสำนักงานส่งเสริมเศรษฐกิจดิจิทัล (depa) และบริษัท แอดวานซ์ อิน โฟร์ เซอร์วิส (AIS)

คลังข้อมูลเสียงหลากอารมณ์จากนักแสดง

ก่อนจะทำโมเดลจำแนกอารมณ์ จำเป็นต้องมีคลังข้อมูลเสียงเสียก่อน และตรงนี้เองที่ศาสตร์การละครเข้ามาช่วยได้เป็นอย่างดีในการทำชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย (Thai Speech Emotion Dataset)

นักแสดงจำนวน 200 คน ทั้งหญิงและชาย เป็นต้นเสียงสื่ออารมณ์ 5 แบบ ได้แก่ อารมณ์โกรธ เศร้า หงุดหงิด สุข และน้ำเสียงยามปกติ โดยนักแสดงแต่ละคนจะบันทึกเสียงที่แสดงอารมณ์ทั้ง 5 อารมณ์ แบบพูดเดี่ยว และแบบโต้ตอบเป็นบทสนทนา

ผู้ช่วยศาสตราจารย์ ดังกมล ณ ป้อมเพชร ภาควิชาศิลปการละคร 
คณะอักษรศาสตร์ จุฬาฯ

“เสียงที่นำไปใช้งานได้จะต้องเป็นเสียงที่แสดงอารมณ์จริงเหมือนที่เกิดขึ้นในชีวิตประจำวันของเรา ไม่ใช่การใช้เสียงที่ล้นเกินกว่าอารมณ์ในความเป็นจริง ดังนั้นจึงต้องมีทีมกำกับการแสดงช่วยแนะนำเพื่อให้นักแสดงรู้สึกตามอารมณ์นั้นๆ อย่างแท้จริง” ผศ.ดังกมล เล่ารายละเอียดการบันทึกเสียงเพื่อทำชุดข้อมูล

“นอกจากนี้ เมื่อต้องเปลี่ยนเสียงสำหรับบันทึกอารมณ์อีกแบบ แต่อารมณ์ของนักแสดงบางคนยังคงติดค้างกับอารมณ์เดิมอยู่ ฝ่ายกำกับการแสดงจะทำหน้าที่กำกับอารมณ์ใหม่กระทั่งนักแสดงสื่ออารมณ์นั้นออกมาในน้ำเสียงดูสมจริงที่สุด”

จากน้ำเสียงนักแสดง สู่โมเดลจำแนกเสียงสารพัดอารมณ์

หลังจากเก็บบันทึกเสียงนักแสดงทั้งหมดไว้แล้ว ชุดข้อมูลเสียงจะถูกนำไปสร้างเป็นรูปแบบเสียงของอารมณ์ทั้ง 5 ประเภท เพื่อนำไปพัฒนาเป็นโมเดลจำแนกอารมณ์จากเสียงพูด ซึ่ง อ. ดร. เอกพล นักวิชาการด้านวิศวกรรมคอมพิวเตอร์ กล่าวว่ามีความแม่นยำถึง 60-70%       

“เรารับรู้อารมณ์ของผู้พูดโดยสังเกตจากองค์ประกอบของเสียงพูด ทั้งน้ำเสียง ความดังของเสียง จังหวะการพูด เสียงสะอื้น เสียงหัวเราะ ปัญญาประดิษฐ์ก็มีลักษณะการทำงานที่คล้ายๆ กันกับการรับรู้อารมณ์ของเรา” อาจารย์ ดร.เอกพล อธิบาย

“ปัญญาประดิษฐ์มีหน้าที่แยกเสียงพูดที่ป้อนเข้าไปว่าตรงกับความรู้สึกใด โดยเทียบเคียงกับน้ำเสียงมาตรฐานแต่ละอารมณ์ พอปัญญาประดิษฐ์ได้เรียนรู้จากชุดข้อมูลที่ป้อนให้ ก็จะจับรูปแบบได้ เสียงเศร้ามีระดับเสียงค่อนข้างเบากว่าน้ำเสียงปกติ เสียงมีความสุขก็จะมีเสียงหัวเราะปนอยู่ ขณะที่เสียงโกรธก็จะมีระดับเสียงดังกว่าปกติ”

AI จำแนกอารมณ์ ต่อยอดอย่างไรได้บ้าง

อาจารย์ ดร. เอกพล ชี้โอกาสการนำโมเดลจำแนกอารมณ์จากเสียงพูดไปใช้ในหลายประเภทงาน ตามแต่จินตนาการของผู้ใช้ว่าต้องการเข้าถึงอารมณ์ผู้พูดเพื่ออะไร

“การนำไปใช้งานไม่จำกัดว่าจะต้องเป็นคนทำงานด้านคอมพิวเตอร์เท่านั้น ต้องมองว่าผู้ใช้อยากเอาการประเมินอารมณ์ไปใช้ทำอะไร เช่น เอาไปใช้ใน call center เพื่อประเมินอารมณ์ลูกค้าที่โทรเข้ามาแล้วอารมณ์เสีย อารมณ์เสียเรื่องอะไรมากที่สุด แล้วก็ไปดูว่าคนที่อารมณ์เสียพูดถึงอะไร หรือนำไปพัฒนาทำให้อวาตาร์หรือหุ่นยนต์ปัญญาประดิษฐ์ที่เป็นหน้าคนขยับปากพูดได้ ก็ทำให้มีสีหน้าและแสดงอารมณ์ออกมาตอบสนองให้เข้ากับผู้ใช้งานก็ได้”

นอกจากนั้น อาจารย์ ดร. เอกพล ยังกล่าวอีกว่า ปัญญาประดิษฐ์แยกอารมณ์จากเสียงยังเป็นประโยชน์ในงานสายด่วนต่างๆ โดยเฉพาะสายด่วนสุขภาพจิต

“ในอนาคต เรามีแผนที่จะพัฒนาเพื่อไปใช้กับสายด่วนสุขภาพจิตกับผู้ป่วยที่มีภาวะซึมเศร้า และนำไปพัฒนาเพื่อให้หุ่นยนต์สามารถตอบสนองทางอารมณ์กับมนุษย์ได้”

โมเดลในอนาคต เพิ่มความหลากหลายทั้งเสียงและอารมณ์

แน่นอน อารมณ์ 5 แบบในฐานข้อมูลย่อมไม่มากและหลากหลายพอต่อการตรวจวัดอุณหภูมิความรู้สึกของมนุษย์ อีกทั้งแต่ละเพศวัยก็แสดงอารมณ์แต่ละแบบแตกต่างกัน โจทย์ใหม่ที่คณะนักวิจัยกำลังเตรียมขยายผลคือการพัฒนาประสิทธิภาพของระบบให้รายงานผลอารมณ์ด้วยความแม่นยำ ครอบคลุมคนทุกเพศทุกวัย

“ตอนนี้มีแผนที่จะพัฒนาโมเดลปัจจุบันเพื่อให้ใช้งานได้อย่างมีประสิทธิภาพและครอบคลุมกลุ่มคนมากขึ้น เนื่องจากนักแสดงที่มาบันทึกเสียงส่วนใหญ่จะเป็นนิสิตและวัยทำงาน โมเดลจึงอาจจะทำงานไม่ดี หากนำเสียงพูดเด็กและผู้สูงอายุมาใช้ และเนื่องจากทำการบันทึกเสียงในห้องอัด โมเดลจึงอาจจะทำงานได้ไม่ดีเท่าที่ควรในกรณีที่มีเสียงรอบข้างรบกวน” อ. ดร. เอกพล กล่าว  

ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย และโมเดลจำแนกอารมณ์จากเสียงพูดภาษาไทย เปิดให้ทดลองใช้แล้ว ไม่มีค่าใช้จ่าย โดยดาวน์โหลดผ่านเว็บไซต์สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (AIResearch) https://airesearch.in.th/releases/speech-emotion-dataset/

การบันทึกเสียงนักแสดงแบบพูดเดี่ยว
การบันทึกเสียงนักแสดงแบบพูดโต้ตอบ
บรรยากาศการบันทึกเสียงนักแสดง

ไม่มีความคิดเห็น:

แสดงความคิดเห็น

Post Bottom Ad