ChatGPT เตรียมขยายตัวเลือกเสียงด้วยเสียงสมจริง 8 เสียงใหม่

BigGo Editorial Team
ChatGPT เตรียมขยายตัวเลือกเสียงด้วยเสียงสมจริง 8 เสียงใหม่

OpenAI กำลังจะยกระดับความสามารถด้านเสียงของแชทบอท AI ยอดนิยม ChatGPT อย่างมีนัยสำคัญ ตามรายงานล่าสุด บริษัทกำลังพัฒนาตัวเลือกเสียงใหม่ 8 เสียง ซึ่งจะทำให้จำนวนเสียงที่มีให้เลือกทั้งหมดเพิ่มขึ้นเป็น 12 เสียง เปิดโอกาสให้ผู้ใช้มีตัวเลือกที่หลากหลายมากขึ้นสำหรับการโต้ตอบกับ AI

เสียงที่เป็นธรรมชาติและแสดงออกได้มากขึ้น

ตัวเลือกเสียงใหม่ที่กำลังจะมาถึงนี้ มีรายงานว่าจะใช้ชื่อว่า Fathom, Glimmer, Harp, Maple, Orbit, Rainbow, Reef, Ridge และ Vale ซึ่งออกแบบมาเพื่อให้ประสบการณ์เสียงที่เป็นธรรมชาติและแสดงออกได้มากขึ้น เสียงใหม่เหล่านี้คาดว่าจะโดดเด่นในหลายด้านสำคัญ:

  • เสียงที่ไม่ใช่คำพูดที่ดีขึ้น: เสียงเหล่านี้จะสามารถเลียนแบบเสียงสัตว์และสร้างเสียงอื่นๆ ที่ไม่ใช่คำพูดได้แม่นยำมากขึ้น
  • การแสดงออกทางอารมณ์: โดยการตีความรูปแบบข้อความ เช่น ตัวหนาหรือตัวเอียง เสียงสามารถปรับโทนเสียงเพื่อสื่อถึงอารมณ์และการเน้นย้ำที่เหมาะสมได้
  • ความเป็นธรรมชาติที่เพิ่มขึ้น: โดยรวมแล้ว เสียงใหม่นี้มีจุดมุ่งหมายที่จะฟังดูเหมือนมนุษย์มากขึ้น ทำให้เส้นแบ่งระหว่าง AI และการโต้ตอบของมนุษย์เลือนรางลงไปอีก

ต่อยอดจากคุณสมบัติที่มีอยู่

การขยายตัวนี้ต่อยอดมาจากการรองรับเสียงปัจจุบันของ ChatGPT ซึ่งอนุญาตให้ผู้ใช้สามารถสนทนาด้วยเสียงกับ AI หรือให้ AI อ่านข้อความออกเสียงได้ เสียงที่มีอยู่ 4 เสียง (Juniper, Ember, Cove และ Breeze) จะได้รับการเสริมด้วยตัวเลือกใหม่เหล่านี้ ทำให้ผู้ใช้มีเสียงที่แตกต่างกันทั้งหมด 12 เสียงให้เลือก

ความพร้อมใช้งานและกำหนดเวลา

แม้ว่าเสียงใหม่เหล่านี้ถูกค้นพบผ่านการวิศวกรรมย้อนกลับ แต่ OpenAI ยังไม่ได้ประกาศการเปิดตัวอย่างเป็นทางการ ขณะนี้ยังไม่มีกำหนดเวลาสาธารณะว่าตัวเลือกเสียงเพิ่มเติมเหล่านี้จะพร้อมใช้งานสำหรับผู้ใช้ ChatGPT เมื่อใด

ในขณะที่เทคโนโลยี AI ยังคงก้าวหน้าอย่างต่อเนื่อง การปรับปรุงเช่นตัวเลือกเสียงใหม่เหล่านี้แสดงให้เห็นถึงความมุ่งมั่นของ OpenAI ในการสร้างการโต้ตอบกับ AI ที่เป็นธรรมชาติและหลากหลายมากขึ้น ช่วงเสียงที่ขยายออกไปนี้อาจทำให้ ChatGPT เป็นเครื่องมือที่ทรงพลังยิ่งขึ้นสำหรับการใช้งานหลากหลาย ตั้งแต่คุณสมบัติด้านการเข้าถึงไปจนถึงโครงการสร้างสรรค์

ผู้ใช้ที่กระตือรือร้นที่จะสัมผัสประสบการณ์เสียงใหม่เหล่านี้จะต้องรอการประกาศอย่างเป็นทางการจาก OpenAI เกี่ยวกับการเปิดตัวสู่สาธารณะ ในระหว่างนี้ ชุมชน AI จะจับตาดูอย่างใกล้ชิดว่าความก้าวหน้าเหล่านี้จะช่วยกำหนดรูปแบบของ AI สนทนาต่อไปอย่างไร