วันที่ 4 มีนาคม พ.ศ.2564 เอไอเอส ร่วมกับสถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย(AIResearch) เผยถึงความสำเร็จของทีมนักวิจัยไทย หลังใช้เวลาเพียง 2 ปี พัฒนาชุดข้อมูล (Dataset) จำแนกอารมณ์จากเสียงพูดภาษาไทย (Speech Emotion Recognition หรือ THAI SER) ได้เป็นครั้งแรกของโลก ด้วยการพัฒนาเทคโนโลยี AI เข้าสู่กระบวนการเรียนรู้(Deep Learning) มาประยุกต์ใช้ในการประมวลผลสัญญาณเสียง ช่วยให้เข้าใจคุณลักษณะของเสียง ขึ้นแท่นเป็น SER ที่พัฒนาจาก Dataset ที่ใหญ่เป็นอันดับที่ 3 ของโลก โดยอันดับ1 และ2 เป็นภาษาอังกฤษ ที่พัฒนามา
จากชุด Dataset เสียงจาก Podcast และ YouTube ที่จะสามารถนำไปประยุกต์ใช้เพื่อเพิ่มประสิทธิภาพด้านงานบริการที่ตอบโจทย์ความต้องการของลูกค้าได้มากยิ่งขึ้นทั้งนี้ ผู้ที่สนใจ สามารถศึกษารายละเอียดเพิ่มเติม พร้อมดาวน์โหลดชุดข้อมูล THAI SER ไปพัฒนาต่อยอดได้ฟรีแล้ว ทางเว็บไซต์ https://airesearch.in.th ตั้งแต่วันนี้เป็นต้นไป
นายซันเจย์ แอนดรูว์ โทมัส หัวหน้าคณะผู้บริหารด้านเทคโนโลยีสารสนเทศ เอไอเอสกล่าวว่า “ในปัจจุบัน เทคโนโลยี AI ด้านภาษา ถูกนำมาใช้งานอย่างกว้างขวางมากขึ้น โดยเฉพาะอย่างยิ่งภาษาอังกฤษ ซึ่งถือเป็นประโยชน์อย่างมหาศาลในเรื่องการสร้างความเข้าใจลูกค้าในมุมมองด้านอารมณ์และความรู้สึก ซึ่งจะช่วยให้ภาคธุรกิจสามารถประเมินสภาวะทางอารมณ์ของลูกค้า เพื่อนำไปใช้เป็นข้อมูลในการเพิ่มประสิทธิภาพด้านงานบริการได้ดียิ่งขึ้น โดยพิจารณาจาก Customer insight ด้านอารมณ์ของลูกค้า ที่มาจากการให้บริการในด้านต่างๆ
ด้วยเหตุนี้ AIS ในฐานะ Digital Service Provider เล็งเห็นถึงความสำคัญในการพัฒนาโครงสร้างพื้นฐาน AI ภาษาไทย โดยเฉพาะการตรวจจับอารมณ์โดยเสียงภาษาไทยซึ่งเป็นการพัฒนาที่ต้องการ Expert Domain และ ดาต้าขนาดใหญ่ เพื่อให้เกิดการใช้งานได้จริง ดังนั้น ความร่วมมือระหว่างเอไอเอส และ AIResearch จึงถือเป็นจุดเริ่มต้นของการก่อร่าง ecosystem ในแวดวง Deep Tech ในประเทศไทย ให้เติบโตได้อย่างแข็งแกร่ง ทัดเทียมกับนานาชาติ มีบุคลากรที่มีความรู้ ความเชี่ยวชาญในด้านต่างๆเข้ามาร่วมทำงานสร้างนวัตกรรมที่เกิดประโยชน์ต่อคนไทยทุกภาคส่วน เพื่อสร้างโอกาสในการแข่งขันในเวทีโลก เราเชื่อมั่นว่า ด้วยความเชี่ยวชาญ ความคิดสร้างสรรค์ของคนไทย จะเป็นจุดเชื่อมโยงผลักดันให้ผลงานต่างๆ ของนักวิจัยไทย เป็นที่จดจำและยอมรับในสายตาโลกได้อย่างแน่นอน”
ชุดข้อมูล THAI SER สามารถจำแนนอารมณ์จากเสียงได้ 5 อารมณ์ ได้แก่ โกรธ / เศร้า / สุข /หงุดหงิด และปกติ โดยมีความแม่นยำอยู่ที่ 70% และมีความพร้อมที่จะใช้งานสูงถึง 80% ส่วนที่เหลืออีก
20% เพื่อให้แบบจำลองพื้นฐาน มีผลการวิเคราะห์ที่ความแม่นยำสุงสูงขึ้น และพร้อมใช้งานในสภาพแวดล้อมการทำงานจริงขององค์กรต่างๆ ที่จะต้องพัฒนาตามแต่ละบริบทต่อไป
ตัวอย่างของการนำเทคโนโลยี ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือTHAI SER ไปใช้งานจริง ได้แก่
1. การวิเคราะห์อารมณ์ของลูกค้า จาก ‘เสียงพูด’
2. การจัดลำดับการให้บริการลูกค้า จาก ‘อารมณ์’ ของลูกค้า
3. มอบหมายสายลูกค้าให้กับ CSR ตามความสามารถในการรับมืออารมณ์ต่าง ๆ
4. ฝึกสอน และเตรียมความพร้อมให้กับ CSR ในการปฏิบัติงานจริง
5. ช่วยเพิ่มความสามารถในการเข้าใจสถานการณ์ และเพิ่มโอกาสในการปิดการขาย
ซึ่งในขณะนี้ ชุดข้อมูลจำแนกอารมณ์จากเสียงพูดภาษาไทย หรือ THAI SER พร้อมแล้วที่จะให้นักพัฒนา, กลุ่ม Startup, ผู้ประกอบการ SME, ผู้ให้บริการ และองค์กรต่างๆเข้ามาศึกษาข้อมูลเพิ่มเติม และนำแพลตฟอร์มนี้ไปต่อยอดในการออกแบบแอปพลิเคชันหรือโซลูชั่นต่างๆ ที่รองรับ AI ภาษาไทย
มากขึ้น โดยไม่เสียค่าใช้จ่ายใดๆ ทั้งสิ้น โดยเข้าไปที่เว็บไซต์ https://airesearch.in.thได้แล้วตั้งแต่วันนี้