- พัฒนาขึ้นเพื่อคลายความกังวลในแวดวงการศึกษาว่า ChatGPT ช่วยให้เกิดการเรียนรู้จริง หรือเพียงแค่ให้คำตอบ
- สนับสนุนกระบวนการเรียนรู้แทนการให้คำตอบ ด้วยการแนะนำเป็นลำดับขั้นและการโต้ตอบ
- ปรับคำถามชี้นำตามเป้าหมายและระดับทักษะ เพื่อส่งเสริมการมีส่วนร่วม การทำความเข้าใจเชิงลึก และการสะท้อนคิด
- ร่วมมือกับครู นักวิทยาศาสตร์ และผู้เชี่ยวชาญด้านการศึกษา เพื่อฝังแนวทางระบบแบบปรับให้เหมาะเฉพาะบุคคลตามหลักวิทยาศาสตร์การเรียนรู้ เช่น การกระตุ้นการมีส่วนร่วมเชิงรุก การจัดการภาระทางการรับรู้ เมตาคอกนิชัน และการสะท้อนตนเอง
- มีฟีเจอร์ด้านการศึกษาหลากหลาย เช่น บทเรียนเฉพาะบุคคล แบบทดสอบตรวจความรู้ ฟีดแบ็ก และการติดตามความคืบหน้า
- ยังคงปรับปรุงอย่างต่อเนื่องจากฟีดแบ็กของนักศึกษาในมหาวิทยาลัยและระดับอุดมศึกษา และมีแผนเพิ่มฟีเจอร์อย่างการแสดงภาพ การติดตามเป้าหมาย และการปรับแต่งเชิงลึกเพิ่มเติม**
ฟีเจอร์หลัก
- Interactive prompts: ผสานคำถามแบบโสเครตีส คำใบ้ และการตรวจสอบตนเอง เพื่อกระตุ้นให้คิดด้วยตัวเอง
- การตอบกลับเพื่อการสนับสนุนเพิ่มเติม: ให้ข้อมูลเป็นลำดับขั้นโดยคำนึงถึงความเชื่อมโยงระหว่างหัวข้อ เพื่อลดภาระทางการรับรู้ที่มากเกินไป
- การสนับสนุนแบบเฉพาะบุคคล: ประเมินระดับทักษะ จดจำบทสนทนาก่อนหน้า และมอบบทเรียนที่ปรับให้เหมาะกับผู้ใช้
- การตรวจสอบความรู้: ติดตามความคืบหน้าด้วยควิซ คำถามปลายเปิด และฟีดแบ็กเฉพาะบุคคล เพื่อเสริมทั้งความจำและความสามารถในการประยุกต์ใช้
- ความยืดหยุ่น: เปิด/ปิดโหมด Study ได้ทุกเมื่อระหว่างการสนทนา
ลองใช้ใน ChatGPT
1 ความคิดเห็น
ความเห็นจาก Hacker News
คิดว่า LLM ยังถูกประเมินค่าต่ำไปในฐานะคู่หูสำหรับการเรียน เพราะเราสามารถถามคำถาม "โง่ ๆ" ได้อย่างอิสระโดยไม่ต้องอาย โหมดที่อธิบายทีละขั้นอย่างค่อยเป็นค่อยไปแทนการตอบสั้น ๆ นั้นให้ความรู้สึกเหมือนเวทมนตร์จริง ๆ เหมือนมีผู้ช่วยที่เก่งและพร้อมตลอด 24 ชั่วโมง จึงมองว่าเป็นเครื่องมือในฝันสำหรับการเรียนคนเดียว เมื่อก่อนการหาความรู้ออนไลน์มีปัญหามาก ทั้งข้อมูลไม่แม่น ล้าสมัย ไม่มีฟีดแบ็ก และคอมมูนิตี้ที่ไม่เป็นมิตร แต่ตอนนี้ประสบการณ์มันก้าวหน้าไปไกลจนเทียบกับยุคนั้นแทบไม่ได้ แน่นอนว่าไม่ได้หมายความว่าต้องเชื่อข้อมูลจาก AI ไปทั้งหมด ยังจำเป็นต้องตรวจสอบด้วยตัวเอง อาจมีคนใช้มันอย่างขี้เกียจ แต่ก็เหมือนกับหนังสือหรือแบบเรียนเก่า ๆ ว่ามันจะช่วยได้มากแค่ไหนก็ขึ้นอยู่กับท่าทีของผู้ใช้เอง รู้สึกตื่นเต้นและทึ่งมากที่ได้อยู่ในยุคที่มีเครื่องมือแบบนี้
เห็นด้วยว่าเมื่อหลายปีก่อน การเรียนรู้อะไรสักอย่างทางออนไลน์เต็มไปด้วยปัญหา ทั้งข้อมูลผิด คำตอบที่มีเจตนาร้าย และการขาดฟีดแบ็กแบบทันที แต่ AI ทุกวันนี้ก็ทำให้ต้องคอยสงสัยทุกครั้งว่าคำตอบนั้นถูกไหม หรือกำลังเพ้อข้อมูลขึ้นมาเอง เคยเจอหลายครั้งที่มันตอบผิดในคำถามที่อิงข้อเท็จจริง และพอชี้ปัญหานี้ก็จะมีแต่คำบอกว่าโมเดลล่าสุดดีขึ้นแล้ว พร้อมเรียกเก็บค่าสมาชิกราคาแพง สิ่งที่แย่กว่าคือ AI ยอมถอยง่ายเกินไปเวลาเราค้านคำตอบของมัน มันปกป้องคำตอบของตัวเองไม่ได้ ซึ่งไม่ใช่คุณสมบัติที่ครูควรมี สุดท้าย AI ก็เป็นเพียงเครื่องมือที่มีประโยชน์ แต่ไม่ควรเชื่อมากเกินไป จึงต้องมีความสงสัยอย่างเหมาะสมอยู่เสมอ จริง ๆ แล้วเรื่องนี้ก็ไม่ต่างจากการศึกษาแบบเดิม
โหมดที่อธิบายเนื้อหาทีละขั้นนั้นน่าสนใจ แต่ก็ยังรู้สึกว่าระบบพวกนี้ยังมีปัญหาเรื่องโกหกอย่างมั่นใจอยู่ ตัวอย่างเช่น มี easter egg ที่โลโก้ของ DuckDuckGo เปลี่ยนไปตามคำค้น แต่พอถาม Copilot มันกลับบอกว่าไม่ใช่ พอเถียงกลับก็เปลี่ยนเป็นบอกว่าใช่ พร้อมยกตัวอย่างมั่ว ๆ อีก เช่น อธิบายว่าถ้าค้นหาแมวจะมีโลโก้รูปแมวขึ้นมา ปัญหาคือ Copilot ไม่รู้คำตอบที่ชัดเจนแต่ก็ไม่ยอมบอกว่าไม่รู้ กลับตอบแบบโกหกแทน
รู้สึกว่าความกลัวที่จะถามคำถามโง่ ๆ เป็นเรื่องจริง โดยเฉพาะถ้าเคยมีแผลจากครูหรืออาจารย์ที่ทำให้นักเรียนอับอายมาก่อน เคยหยุดดูการสอนของศาสตราจารย์ชื่อดังคนหนึ่งหลังจากเห็นวิดีโอที่เขาทำให้นักเรียนขายหน้า
ถ้ามองจากการนำ IT เข้าโรงเรียนที่ผ่านมา สหรัฐฯ ทุ่มเงินหลายหมื่นล้านไปกับการศึกษา แต่ผลลัพธ์การเรียนจริงกลับไม่ได้ดีขึ้น นี่จึงเป็นที่มาของความสงสัย อีกอย่างคือก่อนจะใช้เงินถึง 1 แสนล้านดอลลาร์ ก็ควรพิสูจน์ก่อนว่ามันได้ผลจริง ตอนนี้ยังมองว่ายังไม่มีหลักฐานชี้ขาด
ตอนนี้มีภาษาสเปนระดับ B1 และกำลังใช้ ChatGPT สร้างบทเรียนเฉพาะตัว ถามเรื่องนัยของภาษา และฝึกพูดด้วยเสียง ทำให้ได้ประสบการณ์การเรียนที่ดีกว่าแอปแบบเดิมมาก
พูดได้อย่างมั่นใจว่า LLM เป็นเครื่องมือที่น่าเหลือเชื่อมากสำหรับการเรียนรู้สิ่งใหม่ด้วยตัวเองหลังเรียนจบมหาวิทยาลัย เมื่อก่อนถ้าไม่เข้าใจแนวคิดอะไรสักอย่าง ก็มักเหมือนมองไม่เห็นทางออกเลย ถ้าไม่ใช่คำถามที่พบบ่อยบน Stack Exchange ก็ต้องคลำทางเอง ตอนนี้เหมือนมีผู้ช่วยสอนส่วนตัว (TA) อยู่ตลอดเวลา มีคนบอกว่าการเรียนมันง่ายเกินไปหรือผิวเผินเกินไป แต่คงมีไม่กี่คนที่จะคิดว่านักศึกษาจะเรียนได้ดีกว่าโดยไม่มี TA
ส่วนตัวจากประสบการณ์ของผม ไม่ได้รู้สึกว่ามันเป็นเหมือน TA ที่ทุกคนเข้าถึงได้ตลอดเวลาเสมอไป พอลงลึกถึงระดับหนึ่ง LLM ก็หมดประโยชน์ทันที โดยเฉพาะเมื่อจำเป็นต้องหาแหล่งอ้างอิงทางวิชาการที่น่าเชื่อถือ หรือเมื่อต้องจัดการกับหัวข้อที่ซับซ้อนและมีข้อถกเถียง
ตอนซ่อมและตรวจสอบอุปกรณ์เก่าที่ใช้ Intel CPU รุ่นที่ 9 ปี 2020 เมื่อไม่นานมานี้ LLM อธิบายเรื่องแต่ละเจเนอเรชันและความเข้ากันได้ของซ็อกเก็ตได้อย่างง่ายดาย จนรู้สึกเหมือนตัวเองไม่คู่ควรกับความสะดวกของเครื่องมือแบบนี้ มันอาจไม่เก่งในบางเรื่อง แต่กับบางด้านก็น่าทึ่งจริง ๆ
หลังจาก ChatGPT ออกมา ก็รู้สึกเหมือนได้ Google แบบสมัยก่อนกลับคืนมา เมื่อก่อนเวลาจะเรียนภาษาโปรแกรมใหม่ ๆ สามารถหาเรื่องสำคัญบน Google ได้ง่าย แต่ช่วงหลายปีที่ผ่านมา Google ใช้งานไม่ค่อยได้แล้ว แม้จะมีข้อมูลที่ต้องการ มันก็มักถูกฝังกลบอยู่ในผลการค้นหา
ChatGPT ช่วยวางแผนการเรียนที่เหมาะกับผม และคอยกระตุ้นให้จดโน้ตกับเขียนบทความ จนผมเรียน Rust ได้ภายใน 12 สัปดาห์ ผ่านกระบวนการนี้ ผมทำ https://rustaceo.es เป็นภาษาสเปนจากโน้ตของตัวเอง และรู้สึกว่าศักยภาพของวิธีแบบนี้ไร้ขีดจำกัด
เมื่อก่อนเคยทุกข์มากเพราะไม่เข้าใจปัญหา IPv6 ที่บ้าน แต่ด้วย ChatGPT ผมวิเคราะห์ทราฟฟิกด้วย tcpdump และได้รับคำอธิบายการทำงานของเครือข่ายแบบทีละขั้น ยังได้เรียนรู้รายละเอียดของ RA และ NDP ด้วย (ซึ่งมาแทนบทบาทของ DHCP และ ARP ใน IPv4) สุดท้ายก็พบว่าอาการผิดปกติที่เกิดซ้ำในเครือข่าย mesh WiFi ของผม มาจากรีพีตเตอร์ราคาถูกตัวเดียว หาต้นตอไม่เจอมาตั้ง 5 ปีและอัดอั้นมาก แต่ในที่สุดก็แก้ได้
ลองดึง system prompt ของ ChatGPT Study Mode ออกมาดู คำสั่งแนว ๆ ว่า "อย่าตอบตรง ๆ กับคำถามของผู้ใช้หรือทำการบ้านให้ และในโจทย์คณิต/ตรรกะ อย่าเพิ่งเฉลยทันที แต่ให้ถามทีละขั้น พร้อมเปิดโอกาสให้ผู้ใช้ตอบในแต่ละขั้น" น่าประทับใจมาก ลิงก์ gist
อยากให้ผู้ให้บริการ LLM แต่ละเจ้าช่วยเพิ่มคำสั่งว่าให้ตอบแบบ "กระชับและไม่เยิ่นเย้อ" ด้วย ผมเป็นคนอ่านช้า เลยอ่านคำอธิบายที่ไม่จำเป็นทั้งหมดได้ลำบาก บางครั้งคำตอบที่ไหลมายาวและเร็วเกินไปกลับทำให้กังวลด้วย ถ้าทำแบบนี้น่าจะลดปัญหาเรื่องบริบทได้ด้วย
น่าสนใจที่ตัวพิมพ์ใหญ่ทั้งหมด (CAPS) มีความหมายต่อ LLM จริง ๆ
สงสัยว่าถ้านำพรอมป์ต์นี้ไปใช้กับโมเดลอื่นจะได้ผลอย่างไร อยากรู้ว่า ChatGPT Study Mode มีแค่ system prompt พิเศษเท่านั้นหรือมีอย่างอื่นต่างไปด้วย เพราะเคยลองใช้พรอมป์ต์คล้าย ๆ กันเพื่อเรียนแบบเจาะลึกหัวข้อ แล้วรู้สึกว่าได้ผลดี
น่าสนใจที่คำสั่งภายในแบบนี้ถูกเปิดเผยได้ง่าย ดูเหมือน OpenAI จะตั้งใจไม่เปิดเผย system prompt แต่เมื่อใคร ๆ ก็เข้าถึงเนื้อหาได้ง่ายแบบนี้ ก็เลยเผลอคิดว่ามันอาจถูกปล่อยออกมาโดยตั้งใจ
ผมก็ดึง system prompt ที่คล้ายกันออกมาเหมือนกัน ดูได้ที่ลิงก์นี้
ในฐานะคนเรียนรู้ตลอดชีวิต รู้สึกว่าเวลาส่วนใหญ่ของการเรียนหมดไปกับการค้นหาสื่อ AI ดูจะช่วยให้การค้นหานี้มีประสิทธิภาพขึ้น ในทางกลับกัน กระบวนการสร้างแบบจำลองเชิงตรรกะของหัวข้อที่เรียน ถ้าพึ่ง AI มากเกินไปจะรู้สึกเหมือนสิ่งที่มีไม่ใช่สิ่งที่เราเรียนรู้เอง แต่เป็นแค่การรวบรวม "embedding" ของ AI ไว้ และสุดท้ายจะดึงผลลัพธ์ออกมาเองไม่ได้หากไม่มี AI ผมคิดว่าสิ่งสำคัญคือการเก็บแบบจำลองที่สอดคล้องกันไว้ในสมองของตัวเองแบบออฟไลน์
เห็นด้วยว่า "การเรียนส่วนใหญ่คือการค้นหา" ความสามารถในการค้นหาเองก็เคยเป็นทักษะสำคัญ และระหว่างค้นหาก็ได้เรียนรู้อะไรที่เกี่ยวข้องแต่ไม่คาดคิดด้วย เลยรู้สึกเสียดายนิดหน่อยที่คนรุ่นต่อไปอาจอ่อนลงในทักษะนี้
คิดว่าเป้าหมายของ Study Mode เองไม่ใช่การให้คำตอบ แต่คือการนำทางกระบวนการที่ทำให้ผู้เรียนหาคำตอบได้ด้วยตัวเอง หลายคนจริง ๆ แล้วไม่รู้วิธีเรียนแบบนี้
มีความเห็นว่าการมอบหมายความเข้าใจให้คนอื่นแทนเป็นท่าทีที่อันตรายในระยะยาว และควรมีสุขอนามัยทางความคิดด้วยการคิดเอง
จุดแข็งอีกอย่างคือ AI สามารถช่วยหาโยงความสัมพันธ์ใหม่ ๆ ที่สดใหม่ ซึ่งคีย์เวิร์ดอย่างเดียวจับไม่ได้
อยากเห็นการทดสอบผลของ Study Mode อย่างแม่นยำด้วยการวิจัยแบบสุ่มมีกลุ่มควบคุม ว่ามันช่วยนักเรียนได้จริงไหม เหนือกว่าการเรียนด้วยตัวเองหรือไม่ และประสบการณ์จากการลองผิดลองถูกต่างจากการถูกพาแนะนำแนวคิดซ้ำ ๆ อย่างไร อยากให้ Study Mode แยกข้อมูลที่นำไปใช้กับแฟลชการ์ดและ spaced repetition (เครื่องมือทบทวนซ้ำ เช่น Mochi, Anki) ได้โดยอัตโนมัติ อ้างอิงเพิ่มเติมก็ขอแนะนำบรรยาย ของ Andy Matuschak ด้วย
Study Mode ไม่ได้มีฟังก์ชันที่พูดถึงข้างต้นจริง ๆ เป้าหมายด้านการลงทุนคือทำให้นักเรียนพูดว่า "ถ้าไม่มี Study Mode ฉันคงเรียนรู้อะไรไม่ได้เลย" และระหว่างนั้นก็เอาเอกสารการเรียนของนักเรียนมาสรุปเพื่อนำไปใช้เป็นข้อมูลของบริษัทเอง
มีงานวิจัยเรื่อง AI tutor ที่ให้ผลคล้ายกันและพิสูจน์แล้วอยู่แล้ว งานวิจัยนี้ ระบุว่ากลุ่มที่ใช้ AI tutor มีพัฒนาการในการเรียนมากกว่ากลุ่ม active learning ในห้องเรียนจริงถึงมากกว่า 2 เท่า
ยังมีงานวิจัยว่าการใช้ LLM ทำให้นักพัฒนาที่มีประสบการณ์ทำงานช้าลง ซึ่งอาจเกิดกับการเรียนด้วยตัวเองได้เหมือนกัน แต่ LLM ทำให้การเรียนสนุกขึ้น และช่วยสร้างแรงจูงใจให้ไม่ล้มเลิกกลางทาง ถ้าเรียนอย่างสนุก ถึงจะช้าลงบ้างก็มักจะเรียนได้มากกว่าและสม่ำเสมอได้นานกว่า ท้ายที่สุดแล้ว คนที่ชนะในการเรียนไม่ใช่คนที่เร็วที่สุด แต่คือคนที่ทำต่อเนื่องได้ และคิดว่า LLM ทำให้สิ่งนั้นเป็นไปได้มากขึ้น
อยากรู้ว่างานวิจัยเรื่องประสิทธิผลของการติวในมหาวิทยาลัยชั้นนำเป็นอย่างไร จากประสบการณ์ของผม นักศึกษาในมหาวิทยาลัยระดับหัวกะทิมักไม่ได้รับความช่วยเหลือจริงจากติวเตอร์มากนัก แต่กลับไปรับแค่คำตอบมาเท่านั้น (บางครั้งถึงขั้นให้ช่วยทำการบ้านด้วย) แล้วก็เข้าใจผิดว่าตัวเองได้เรียนรู้อะไร ความจริงแล้วสถานการณ์ที่ "สงสัย หลงทาง และทำผิดพลาด" ต่างหากที่ทำให้เกิดการเรียนรู้จริง แต่การใช้ LLM ก็คล้ายกัน คือพอเจออะไรยากหรือติดขัดก็รีบไปขอความช่วยเหลือจาก ChatGPT เพื่อหาคำตอบเลยโดยไม่ผ่านการลองผิดลองถูก ผลคือพอถึงสอบก็ยิ่งกังวล และความต้องการแบบฝึกหัดก็มากขึ้นเรื่อย ๆ ผมรู้สึกได้ชัดว่าทุกวันนี้มีนักศึกษาจำนวนมากขึ้นที่แม้แต่การอ่านตำราหลังเลิกเรียนก็ยังทำเองไม่ได้
มันอาจสร้างความแตกต่างได้มากสำหรับนักเรียนที่มีแรงจูงใจสูงอยู่แล้ว แต่คนแบบนั้นมีไม่มาก และทุกวันนี้ก็ดูเหมือนสัดส่วนจะลดลงเรื่อย ๆ เพราะสมาธิสั้นลง
มีคนรู้จักคนหนึ่งกำลังทำสตาร์ตอัปด้านการศึกษาที่ใช้ OpenAI อยู่ ถ้าบริษัทใหญ่แบบ OpenAI เข้าสู่ตลาดเดียวกันแบบนี้ นักพัฒนารายเล็กก็เสียเปรียบได้ทุกเมื่อ เลยรู้สึกว่าการทำธุรกิจโดยพึ่งโมเดลแบบนี้น่ากลัวและต้องระวังมาก
สงสัยว่าในยุคต้นของเทคโนโลยี ผู้คนเคยมองว่าบริษัทฮาร์ดแวร์ย่อมต้องลอกซอฟต์แวร์ เอามาบันเดิลเอง แล้วแข่งกับบริษัทซอฟต์แวร์อยู่เสมอหรือเปล่า รู้สึกว่ามันคล้ายกับตอนนี้มาก หลายคนคิดว่าบริษัทผู้ให้โมเดลจะเหนือกว่าธุรกิจที่ไปต่อยอดบนมันเสมอ แต่ผมยังไม่เห็นหลักฐานที่ชัดพอจะรองรับความคิดนั้น
โมเดลธุรกิจโฮสต์ LLM ที่คิดเงินตามโทเค็นกำไรน้อยลงเรื่อย ๆ จึงเห็นชัดว่าบริษัทใหญ่พยายามจะคัดลอก (Sherlock) สตาร์ตอัป/แอปทุกตัวที่ดูมีศักยภาพในการเติบโต
ถ้าเป็นนักพัฒนาในพื้นที่ใกล้เคียงกับ LLM ก็ควรจำเรื่องนี้ไว้เสมอ และเมื่อคิดถึงพลังในการขยายตลาดกับเงินทุนของบริษัทใหญ่ ก็รู้สึกว่าท้ายที่สุดเราเองก็เสี่ยงจะหายไปตามธรรมชาติ
ก็อดสงสัยไม่ได้ว่าทำไมผู้ก่อตั้งถึงจะไม่รู้เรื่องนี้ ทั้งที่ชัดเจนอยู่แล้วว่า OpenAI ไม่ได้ตั้งใจจะหยุดอยู่แค่การให้ LLM ธรรมดา แต่จะบุกตลาดอื่นเพิ่มอีกมาก
แน่นอนว่าความเสี่ยงมีอยู่แล้ว ดังนั้นสิ่งสำคัญคือคุณค่าจริงที่เราเพิ่มเข้าไป ถ้าเป็นธุรกิจระยะสั้นก็ต้องรีบชิงจังหวะ แต่ถ้าจะทำระยะยาว ก็ต้องทำอะไรที่ไม่ใช่สิ่งที่ใคร ๆ ก็ทำได้ทันที และควรมีความเป็นต้นฉบับมากกว่านั้น
กลยุทธ์หลักในการเรียนด้วย LLM ของผมคือใช้หนังสือเป็นแกน แล้วใช้ LLM แค่กับการเฉลยอย่างเป็นทางการ การถามบริบท และการตรวจสอบความเข้าใจ การคลี่สัญลักษณ์ทางคณิตศาสตร์ของโดเมนใหม่ หรือถามบริบทของงานปรัชญาอุดมคติเยอรมัน เป็นตัวอย่างของสิ่งที่ถ้าไม่มี LLM ผมคงหลงทางหนักมาก แต่มันกลับช่วยทำให้ชัดเจนได้ทันทีและประหยัดเวลาไปมาก โดยเฉพาะในการเรียน สิ่งสำคัญคือการตรวจสอบความเข้าใจของตัวเองได้ทันที เมื่อก่อนผมมักเดินหน้าต่อทั้งที่เข้าใจผิด แล้วต้องย้อนกลับมาทีหลัง แต่ตอนนี้ผมสามารถเรียบเรียงสัญชาตญาณของตัวเองต่อสูตรหรือแนวคิดต่าง ๆ แล้วให้ LLM ช่วยตรวจสอบ แค่ได้รับฟีดแบ็กว่า "ต่างไปนิดหน่อย" ก็ทำให้รู้ว่าควรกลับไปดูส่วนนั้นใหม่ สุดท้ายหนังสือยังคงมีความหนาแน่นของข้อมูลสูงที่สุดและดีที่สุด แต่ถ้ามี LLM ช่วยเสริมก็เร่งความเร็วได้มาก
ตอนนี้รู้สึกว่าต้องการอินเทอร์เฟซที่ถูกต้องสำหรับฟังก์ชันทั้งหมดนี้อย่างมาก Study Mode เขียนข้อมูลออกมาเป็นกำแพงข้อความและสลับด้วยตัวอย่าง/คำถาม แต่ไม่มีวิธีดูคำตอบให้เชื่อมกับคำถามเฉพาะได้ UI แบบแชตไม่เหมาะกับรูปแบบนี้ ควรมีอินเทอร์เฟซแบบ canvas/artifact แยกต่างหากที่เชื่อมคำถามกับคำตอบแต่ละอัน และจัดโครงสร้างเนื้อหาได้ ตอนนี้รู้สึกว่าเรากำลังยัดหลายสิ่งเกินไปลงในอินเทอร์เฟซสนทนาที่เรียบง่ายเกินไป
ตอนที่นักเรียนบอกว่าอยากเรียน game theory ทั้งหมด มันยิ่งชัดว่าทั้งสองฝ่ายต่างสมมติว่าจะใช้แชตเซสชันเดียวกับกระบวนการแบบเส้นตรง สุดท้ายแล้วมันไม่ใช่การเรียนรู้เชิงลึก
ผมลองทำผ่าน periplus.app แล้ว แม้จะยังไม่สมบูรณ์ แต่ UX ก็แตกต่างจากแชตอย่างชัดเจน
มีไอเดียด้าน UX หลายแบบ เช่น ให้ประเมินความเข้าใจได้ในแต่ละคำอธิบาย จากนั้นให้คำอธิบายเพิ่มเฉพาะส่วนที่ยังไม่เข้าใจ แสดงโครงสร้างความรู้เป็นต้นไม้หรือกราฟที่โต้ตอบได้ รวมถึงควิซแบบอินเทอร์แอกทีฟต่าง ๆ อาจเกินขอบเขตของ ChatGPT แต่คิดว่านี่คือโอกาสที่แอปหรือสตาร์ตอัปอื่นจะเข้ามาจับ
คิดว่าอินเทอร์เฟซที่ถูกต้องนั้นไม่มีอยู่จริง ถ้ามีความตั้งใจและความพยายามจะเรียน ไม่ว่าจะเป็นม้วนหนังสือ หนังสือ อีบุ๊ก หรือ AI สุดท้ายก็เรียนรู้ได้ทั้งนั้น
การที่นี่ไม่ใช่ฟีเจอร์พื้นฐานแต่เป็น "ผลิตภัณฑ์แยก" นั้นสะท้อนสภาพยุคสมัยได้ดี มันเป็นสิ่งที่ LLM ไหน ๆ ก็ทำได้ด้วยการประกอบพรอมป์ต์ง่าย ๆ แม้จะบอกว่า Study Mode พัฒนาร่วมกับครู นักวิทยาศาสตร์ และผู้เชี่ยวชาญด้านจิตวิทยาการศึกษา แต่ก็ยังสงสัยว่ามีผู้เชี่ยวชาญจริงเข้าร่วมไหม
ตอนนี้กำลังเรียน Janet อยู่ และรู้สึกว่าใช้ ChatGPT เป็นติวเตอร์แล้วไม่ค่อยดี แม้คำถามของผมจะเป็นเรื่องอย่าง "ถ้า
localกับvarต่างก็เป็นตัวแปรภายในขอบเขตเหมือนกัน แล้วต่างกันยังไง?" มันก็ยังตอบว่า "เป็นคำถามที่ดีมาก คุณจับประเด็นแก่นได้ดีเลย" แล้วตามด้วยคำตอบเพ้อที่ฟังดูน่าเชื่อ ผมคิดว่ามันเป็นติวเตอร์ที่ดีในสิ่งที่มันรู้ แต่ควรรู้ขีดจำกัดของตัวเองด้วยLLM มักมีแนวโน้มจะตอบดีจริง ๆ เฉพาะตัวอย่างที่เป็นที่รู้จักมาก เช่น React todo list, bootstrap form, vue tic-tac-toe เป็นต้น
ในกรณีแบบนี้ มีคำแนะนำว่าการยัดคู่มือ/เอกสารทั้งหมดเข้าไปในบริบทโดยตรงจะดีกว่า
เปรียบเทียบกับ OpenAI และบริษัทที่ได้เงินแบบ sound money ว่ามันเหมือนติวเตอร์ที่ดูต้องการเงินมากเกินไป