การเปิด-ปิด การแก้ไข การดูสถิติการใช้ และจำนวน tokens ที่เหลือ
เมื่อสร้างผู้ช่วยเสร็จแล้ว ผู้ช่วยจะปรากฏใน My Assistance และ Left Sidebar Menu อาจารย์สามารถจัดการ เปิด-ปิด แก้ไข ดูสถิติการใช้งาน และตรวจสอบจำนวน tokens ที่เหลือได้ดังนี้
หากเปิดใช้งาน นักศึกษาที่ได้รับสิทธิ์จะเห็นและใช้ได้ (สถานะเป็น สีเขียวสว่าง)
หากผู้ช่วยยังทำงานได้ไม่ตรงตามความต้องการ สามารถกด แก้ไข เพื่อเข้าสู่ Edit Assistance Menu ซึ่งมีการตั้งค่าเหมือนกับการสร้าง New Assistance
ดูวิธีการสร้าง AI assistant ที่ การสร้างผู้ช่วยสอน AI (AI Teaching Assistant)
ดูจำนวนครั้งที่นักศึกษาใช้งาน ทั้งแบบภาพรวมและรายบุคคล (หมายเหตุ : อาจารย์ไม่สามารถดูเนื้อหาที่นักศึกษาพิมพ์ได้)
โดยสามารถดูสถานะการใช้งานของแต่ละ ผู้ช่วย AI ดังนี้
Context Tokens: จำนวนโทเคนของข้อมูลที่ป้อนเข้าไป (ดูความหมายของ tokens ที่ #token)
Response Tokens: จำนวนโทเคนของคำตอบที่ AI สร้างขึ้น
Users: จำนวนผู้ใช้ที่เข้าถึงระบบ
Conversations: จำนวนการสนทนาที่เกิดขึ้น
Token คือ หน่วยย่อยของข้อความ ที่ AI ใช้ในการประมวลผล ซึ่งอาจเป็นคำ พยางค์ หรือแม้แต่อักษรแต่ละตัว ขึ้นอยู่กับภาษาและระบบที่ใช้
ลองนึกถึงการตัดคำในประโยคหนึ่งให้เป็นส่วนเล็ก ๆ เพื่อให้ AI เข้าใจ เช่น
ประโยค: "I love cats."
Token อาจเป็น: ["I", "love", "cats", "."]
(4 token)
ประโยค: "ฉันชอบกินข้าว"
Token อาจเป็น: ["ฉัน", "ชอบ", "กิน", "ข้าว"]
(4 token)
1 คำในภาษาอังกฤษอาจมี มากกว่า 1 token เนื่องจาก AI ใช้การตัดคำที่ละเอียดกว่าที่มนุษย์เข้าใจ เช่น:
คำง่าย ๆ: "dog" = 1 token
คำยาวหรือซับซ้อน: "important" อาจแบ่งเป็น ["im", "por", "tant"] = 3 token
คำที่มีสัญลักษณ์พิเศษ: "Hello!" อาจแบ่งเป็น ["Hello", "!"] = 2 token
การประมาณว่า 1 คำ ≈ 1.3 token ในภาษาอังกฤษมาจากการประเมินโดยรวมของข้อความทั่วไป ซึ่งมักประกอบด้วย:
คำยาวหลายพยางค์
สัญลักษณ์พิเศษ เช่น ".", ",", หรือ "!"
เครื่องหมายเว้นวรรคที่ถูกนับเป็น token
ตัวอย่าง: ประโยค "I love cats." มี 3 คำ แต่ระบบนับเป็น 4 token เพราะจุด "." ก็ถูกนับเป็น token ด้วย
โดยทั่วไป 1 คำไทย ≠ 1 Token เนื่องจากภาษาไทยมีลักษณะเฉพาะ เช่น:
ไม่มีการเว้นวรรคระหว่างคำ
การประมวลผลต้องใช้วิธีตัดคำแบบเฉพาะเจาะจง
ตัวอย่างเช่น "ฉันชอบกินข้าว" ["ฉัน", "ชอบ", "กิน", "ข้าว"] = 4 token ในกรณีนี้ แต่ละคำในภาษาไทยตรงกับ 1 token เพราะเป็นคำสั้น ๆ และไม่ซับซ้อน อย่างไรก็ตาม หากเป็นคำยาวหรือมีคำเชื่อมต่อ เช่น คำซับซ้อน หรือคำประสม อาจถูกแบ่งเป็น มากกว่า 1 token
ในกรณีที่ประโยคยาวและซับซ้อน "ประเทศไทยเป็นประเทศที่มีความหลากหลายทางวัฒนธรรม" Token อาจถูกแบ่งเป็น ["ประเทศไทย", "เป็น", "ประเทศ", "ที่", "มี", "ความ", "หลาก", "หลาย", "ทาง", "วัฒนธรรม"] = 10 token
สรุปโดยเฉลี่ย
สำหรับภาษาไทย 1 คำ ≈ 1 Token หากเป็นคำง่าย ๆ หรือคำเดี่ยว
แต่สำหรับคำซับซ้อน คำยาว หรือคำประสม 1 คำ อาจมากกว่า 1 Token ขึ้นอยู่กับโครงสร้างของคำ
โดยทั่วไป ข้อความภาษาไทยมีจำนวน Token ใกล้เคียงกับจำนวนคำ มากกว่าภาษาอังกฤษ
หากปิด นักศึกษาจะไม่สามารถเข้าถึงได้ (สถานะเป็น สีเทา)