การผงาดขึ้นของ ‘Model Designer’: บทบาทของดีไซน์ในผลิตภัณฑ์ AI กำลังเปลี่ยนไป
(aidesignfieldguide.com)- Barron Webster ผู้มีประสบการณ์ด้าน การออกแบบผลิตภัณฑ์ AI มากกว่า 8 ปี กำลังทำหน้าที่ ‘Model Designer’ คนแรกของโลกที่ Figma ซึ่งสะท้อนการเกิดขึ้นของ ตำแหน่งงานลูกผสมรูปแบบใหม่ ที่ดีไซเนอร์ทำงานร่วมกับ LLM โดยตรง
- งานหลักของ Model Designer คือ ชดเชยข้อจำกัดของ foundation model และนำ เครื่องมือและวิธีคิดใหม่ ๆ สำหรับการออกแบบฟีเจอร์ AI เข้าสู่องค์กรออกแบบ
- ต่างจากการออกแบบ UI แบบเดิม การออกแบบผลิตภัณฑ์ AI ต้อง สร้างต้นแบบพฤติกรรมของโมเดลก่อน แล้วจึงค่อยออกแบบ UI ไม่เช่นนั้นมีความเสี่ยงที่จะได้ UI สำหรับกรณีที่ดูสมบูรณ์แบบแต่ไม่สอดคล้องกับการทำงานจริง
- การสร้างระบบประเมินผล (Evals) เป็นหัวใจของการควบคุมคุณภาพผลิตภัณฑ์ AI และจำเป็นต้องมีเครื่องมือที่ช่วยให้ดีไซเนอร์ปรับแต่งและรันเคสประเมินได้ในวงจรฟีดแบ็กที่รวดเร็ว
- ในยุค AI ดีไซเนอร์จำเป็นต้องเข้าใจโครงสร้างอินพุตและเอาต์พุตของโมเดลอย่างลึกซึ้ง และมี ความสามารถในการมองเห็นภาพรวมของทั้งระบบ ไม่ใช่เป็นเพียงผู้สร้าง UI แต่ต้องเป็นผู้มีส่วนร่วมในการตัดสินใจ
แนะนำ Barron Webster
- เป็นดีไซเนอร์ที่ มีส่วนร่วมอย่างลึกซึ้งกับผลิตภัณฑ์ AI มากว่า 8 ปี และมีมุมมองที่มองทะลุวัฏจักรความ hype ได้
- เคยร่วมออกแบบ Teachable Machine ที่เปิดตัวในปี 2017 ที่ Google Creative Lab ซึ่งเป็นเครื่องมือแรกที่เปิดให้ผู้บริโภคฝึกโมเดล AI ได้
- หลังจากนั้นทำงานด้านฟีเจอร์ AI ที่ Replit และมีส่วนช่วยให้สตาร์ตอัปเติบโตจนเป็นยูนิคอร์น
- ล่าสุดเข้าร่วม Figma ในตำแหน่ง Model Designer คนแรกของโลก
บทบาทของ Model Designer
- สังกัดทีมวิจัย AI ของ Figma และมีภารกิจหลัก 2 อย่าง
- แก้ปัญหาในสถานการณ์ที่ ต่อให้ดึงประสิทธิภาพจาก foundation model ได้มากที่สุดแล้วก็ยังไม่พอ
- เนื่องจากข้อมูลของ Figma อยู่ในฟอร์แมตเฉพาะที่เป็นกรรมสิทธิ์ ซึ่ง foundation model จัดการได้ไม่ดี จึงต้องเข้ามาอุดช่องว่างนี้
- นำ เครื่องมือใหม่และวิธีคิดแบบ AI-first เข้าสู่องค์กรออกแบบ
- Figma เป็นบริษัทขนาดใหญ่และดีไซเนอร์จำนวนมากยังไม่มีประสบการณ์ออกแบบประสบการณ์ AI
- การออกแบบฟีเจอร์ AI แตกต่างจากการออกแบบผลิตภัณฑ์แบบดั้งเดิม
- เป้าหมายคือสร้างเครื่องมือที่ช่วยให้ดีไซเนอร์ สร้างต้นแบบแก่นของฟีเจอร์ AI ได้ตั้งแต่ต้นกระบวนการ โดยไม่ต้องกลายเป็นวิศวกร
- หากออกแบบ UI ของฟีเจอร์ที่ยังไม่เคยได้สัมผัสจริง มีความเสี่ยงที่จะสร้าง UI สำหรับกรณีสมบูรณ์แบบที่ไม่ตรงกับพฤติกรรมจริงของระบบ
อนาคตของเครื่องมือออกแบบ AI
- เครื่องมือที่คาดหวังมากที่สุดคือ สิ่งที่ช่วยให้ดีไซเนอร์ปรับแต่งและรันเคสประเมินได้ในวงจรฟีดแบ็กที่รวดเร็ว
- หากฟีเจอร์ AI ใช้งานไม่ได้ในไฟล์ Figma ก็ควรเพิ่มเป็นเคสทดสอบได้ทันที
- ควรปรับ system prompt หรือลองเปลี่ยนโมเดลอื่นได้ทันที
- ปัญหาปัจจุบันคือวงจรฟีดแบ็กช้าเกินไป
- หัวใจของเครื่องมือออกแบบที่ดีทั้งหมดคือการกำจัดหรือลดวงจรฟีดแบ็ก
- งานส่วนใหญ่ในการสร้างชุดประเมินยังเป็นงานทำความสะอาดข้อมูลด้วยมือ
- กำลังคิดด้วยว่าจะทำให้ฟีเจอร์ AI ของ Figma แตกต่างได้อย่างไร
- เพราะเป็นแพลตฟอร์มออกแบบ จึงคาดหวังผลลัพธ์ที่ ออกแบบมาได้ดีกว่า Claude Code หรือ Cursor
- กลยุทธ์การประเมินแบบเจาะจงและการหา ตัวแทนของความเป็นดีไซน์ที่ดี คือกุญแจสำคัญ
- นี่ก็เป็นคำถามเชิงปรัชญาในระดับโรงเรียนศิลปะด้วย
ประสบการณ์เริ่มต้นกับ AI ของ Barron
- วิชา RISD Computer Utopias ช่วงปี 2014-2015: เป็นยุคก่อน LLM ตอนที่งานวิจัยแมชชีนเลิร์นนิงยังเน้นตัวจำแนกประเภท
- โมเดลจำแนกภาพน่าสนใจที่สุด และเป็นตัวขับเคลื่อน Snapchat face filter หรือ Google Image Search
- ประเด็นหลักในเวลานั้นคือ content moderation และระบบแนะนำ
- เป็นยุคทองของ Facebook, Twitter และ Cambridge Analytica ซึ่ง การถือกำเนิดของฟีดแบบอัลกอริทึม ได้สร้างวัสดุใหม่สำหรับการออกแบบ
- Google Creative Lab ช่วงปี 2016-2018: ทำงานกับ Google Lens, Google Assistant, Teachable Machine
- แทบทุกโปรเจกต์เกี่ยวข้องกับการนำความก้าวหน้าของโมเดลมาใช้
- ใช้โมเดลเพื่อ จัดระเบียบหรือใส่คำอธิบายให้คอนเทนต์เดิม ไม่ใช่เพื่อสร้างข้อความ
- เคยโปรโมตกรณีของเกษตรกรปลูกแตงกวาชาวญี่ปุ่นที่ใช้ TensorFlow จำแนกแตงกวา
ประสบการณ์ที่ Replit
- ทำงานมากกว่า 3 ปี โดยเริ่มในช่วงที่ยังไม่มีฟีเจอร์ AI เลย และรับหน้าที่ประเมินแนวทางการนำ AI มาใช้
- เมื่อโมเดลดีขึ้นต่อเนื่อง ก็ต้องค้นหาวิธีเพิ่มฟีเจอร์ AI ที่ ทั้งใช้ความสามารถใหม่และยังเชื่อถือได้
- เริ่มจากฟีเจอร์แบบเรียกใช้งานด้วยตนเองพื้นฐาน เช่น เลือกโค้ดแล้วให้ AI อธิบาย หรือสร้างโค้ดลงในไฟล์เดิม
- หลังปล่อยแต่ละฟีเจอร์ วงจรความคาดหวังของผู้ใช้ก็สูงขึ้นซ้ำ ๆ
- อนุญาตให้สร้าง code snippet → ผู้ใช้ต้องการทั้งไฟล์/ทั้งโปรเจกต์
- สร้างทั้งชุดได้ → ผู้ใช้ต้องการแก้ไขเฉพาะจุด
- แก้ไขเฉพาะจุดได้ → ผู้ใช้ต้องการเริ่มใหม่ทั้งหมดตั้งแต่ต้น
- มีแพตเทิร์นแบบ ลองทำฟีเจอร์ด้วยโมเดลเดิม → ถ้าไม่ได้ผลก็รอ → แล้วลองใหม่เมื่อมี foundation model รุ่นใหม่ออกมา
- ข้อจำกัดเชิงผลิตภัณฑ์ของสภาพแวดล้อมการเขียนโปรแกรม
- ต่อให้โมเดลเขียนโค้ดเก่ง ก็ยังต้องมีวิธี แก้ไขในตำแหน่งที่ถูกต้อง
- ก่อน Sonnet 3.5 โมเดลยังจัดการเลขบรรทัดได้ไม่ดี
- จำเป็นต้องพัฒนาวิธีแก้เฉพาะหน้าเพื่อให้แก้ไขได้แม่นยำ ป้องกันคอนเทนต์ซ้ำ และแทนที่ฟังก์ชันได้
- แต่งานส่วนใหญ่เหล่านี้มักหมดความจำเป็นภายใน 6 เดือนถึง 1 ปีเมื่อมีโมเดลใหม่ออกมา
กรณีเปลี่ยนไปใช้การตรวจสอบโดยผู้ใช้
- เมื่อ Replit agent สร้างไฟล์และเขียนโค้ดอัตโนมัติ ปัญหาทางเทคนิคใหญ่คือ การทดสอบแอปพลิเคชันที่ agent สร้างขึ้น
- เช่น การตรวจสอบว่าหน้าเข้าสู่ระบบทำงานหรือไม่
- แนวทางฝั่งวิศวกรรมคือเปิด sandbox สร้างระบบจับภาพหน้าจอ แล้วส่งภาพให้โมเดลมัลติโหมดเพื่อตัดสินใจว่าจะคลิกหรือพิมพ์ตรงไหน
- โดยแก่นแล้วคือการทำ การใช้คอมพิวเตอร์แบบกึ่งจำลองโดยโมเดล
- ข้อเสนอของ Barron และวิศวกรอีกคนคือ แสดงเว็บไซต์ให้ผู้ใช้ดูแล้วให้ลองทดสอบเอง
- เป็นการโยนภาระการยืนยันและการทดสอบกลับไปให้ผู้ใช้ และเลี่ยงปัญหาทางเทคนิคที่ซับซ้อนทั้งหมด
- หากมีคนที่โฟกัสที่ปัญหาผู้ใช้แทนที่จะยึดติดกับปัญหาทางเทคนิค ก็สามารถข้ามหรือลดความซับซ้อนของหลายเรื่องได้
การค้นหา product-market fit
- กลยุทธ์ผลิตภัณฑ์แบบดั้งเดิมก่อนยุค AI คือวางแผนล่วงหน้า ใช้ฐานผู้ใช้เดิม และกำหนดกลยุทธ์ขยายตลาด/หมวดหมู่
- แต่จากการเปลี่ยนแปลงอย่างรวดเร็วของ AI ทำให้ กลยุทธ์ของ Replit มีลักษณะตอบสนองต่อสถานการณ์มากกว่ามาก
- มี product-market fit ที่แข็งแรงในตลาดการศึกษา โดยเฉพาะหลังการเรียนทางไกลในช่วงโควิด
- เมื่อฟีเจอร์ AI ดีขึ้นก็เกิดภาวะกลืนไม่เข้าคายไม่ออก
- นักพัฒนาอิสระและแฮกเกอร์ชอบ AI
- แต่ครูไม่เห็นด้วย เพราะนักเรียนอาจข้ามการเรียนพื้นฐาน
- ตอนเปิดตัว Replit agent ยังไม่ชัดเจนว่าผู้ใช้เป้าหมายคือใคร
- แนวทาง ปล่อยฟีเจอร์แล้วดูปฏิกิริยา ประสบความสำเร็จมากกว่าการวางโปรเจกต์แบบ top-down
- หลังเปิดตัวจึงค้นพบผู้ใช้ผ่านบทสนทนาว่าเป็นฝ่ายปฏิบัติการในบริษัทเทค ที่ต้องการเก็บข้อมูลการขายหรือสร้างแดชบอร์ด คล้ายผู้ใช้ Zapier หรือ Retool
ระบบประเมินผล (Evals)
- ในช่วง 2 ปีแรกที่ Replit แทบไม่ได้ทำ eval มากนัก เพราะตอนนั้นยังไม่เป็นแนวปฏิบัติที่แพร่หลาย
- สำหรับ agent เริ่มใช้ eval มากขึ้น โดยใช้เป็น ตัวชี้วัดเพื่อการพัฒนาผลิตภัณฑ์ เป็นหลัก
- เมื่อมีโมเดลใหม่ออกมา ก็ดูประสิทธิภาพในการประเมินงานเขียนโปรแกรมก่อนว่าจะคุ้มค่าพอให้ทดสอบแอปหรือไม่
- ที่ Sandbar ใช้เวลามากกับการเขียน eval เกี่ยวกับบุคลิกของโมเดล
- นอกเหนือจาก eval มาตรฐานกว้าง ๆ ระดับอุตสาหกรรม การสร้าง eval เฉพาะตัวของผลิตภัณฑ์ คือรูปแบบงานออกแบบแบบใหม่
- เวิร์กโฟลว์คือ เขียน prompt → ปรับ prompt → สร้าง eval → ตรวจดูประสิทธิภาพ → ผสานกับการทดสอบด้วยมือและฟีดแบ็กเชิงอัตวิสัย
- หากไม่มี eval จะทำให้ งานตรวจสอบด้วยมือเพื่อยืนยันว่า AI ทำงานได้จริงเพิ่มขึ้นมาก
- ตัวอย่าง eval ที่ Sandbar
- หากไม่รู้คำตอบ ต้องถาม คำถามเพื่อขอความชัดเจนที่เฉพาะเจาะจงเพียงข้อเดียว แทนที่จะหลอนคำตอบขึ้นมา
- ห้ามถามเกินสองคำถามในครั้งเดียว
- ต้องตอบให้กระชับอยู่เสมอ (ยกเว้นบางกรณี)
ความยากของการประเมินผล
- การประจบผู้ใช้ (Sycophancy) เป็นหนึ่งในหัวข้อที่ยากที่สุดในการเขียน eval
- คือแนวคิดที่ว่าในบางกรณีโมเดลควรโต้แย้งผู้ใช้อย่างเหมาะสม
- การกำหนดอัตราความล้มเหลวที่ยอมรับได้จึงกลายเป็นการตัดสินใจด้านผลิตภัณฑ์และการออกแบบ และเป็นส่วนหนึ่งของปรัชญาการออกแบบของผลิตภัณฑ์
- หลายครั้งที่ผล eval ออกมาแย่ สาเหตุไม่ใช่ ประสิทธิภาพตกลง แต่เป็นเพราะเขียน eval ผิด
- เช่น ใน eval ที่กำหนดว่า “ต้องกระชับมาก” หากผู้ใช้บอกว่า “แม่ของฉันเสียชีวิตแล้ว” คำตอบว่า “เสียใจด้วยนะ” อาจได้คะแนนสูง แต่ไม่ใช่คำตอบที่ต้องการจริง
- โดยทั่วไป eval ใช้เพื่อ ป้องกัน regression และตรวจสอบว่าคุณสมบัติที่ต้องการยังอยู่ครบ
- คล้าย test coverage ในงานเขียนโปรแกรม
- สิ่งที่คล้าย test-driven development (TDD) ของการเขียนโปรแกรมแบบดั้งเดิมยังพบได้น้อยในงาน AI engineering
- คือแนวทางเขียน eval ก่อน แล้วค่อยเขียนโค้ดให้ผ่าน eval
- อาจมีอาชีพใหม่ในอนาคตอย่าง นักออกแบบ eval
- คล้ายบทบาทของ design system ที่ออกแบบแดชบอร์ดให้ทีมเข้าใจประสิทธิภาพของ AI ได้
แนวคิดฟีเจอร์ AI ที่ Figma
- กำลังพิจารณาไอเดีย “design critique as a service”
- ให้ AI ช่วยวิจารณ์งานออกแบบ
- ซึ่งก่อให้เกิดคำถามที่น่าสนใจเกี่ยวกับบุคลิกของระบบนั้น
- จะเปิดให้เลือกท่าทีได้ เช่น สไตล์ “Dieter Rams” หรือกำหนดค่าเริ่มต้นเลยดี
- จะเน้นเรื่อง accessibility หรือปัญหาคอนทราสต์ที่ให้ฟีดแบ็กได้ค่อนข้างเป็นวัตถุวิสัย หรือจะมุ่งไปกว้างกว่านั้น
- ยังไม่ชัดว่าจะสะท้อนออกมาในประสบการณ์ผลิตภัณฑ์จริงมากน้อยแค่ไหน
ทิศทางการพัฒนาเครื่องมือ eval
- ต้องการ เครื่องมือที่ลดเวลาในการวนซ้ำเพื่อสร้าง eval
- ตอนนี้ทุกคนที่ทำงาน eval ต้องทำสิ่งพื้นฐานคล้ายกัน
- เชื่อม mapping, format, pipeline และอินเทอร์เฟซที่เห็นผลลัพธ์ทั้งหมดได้ในที่เดียว
- เครื่องมือสำหรับข้อความค่อนข้างดีแล้ว แต่ สำหรับฟอร์แมตอื่นยังขาดแคลน
- มีแพลตฟอร์มประเมินคล้ายกันอย่าง Design Arena
- ที่ให้คนโหวตผลลัพธ์ที่ดีที่สุดจากการทดสอบแบบ blind side-by-side
- ต้องการทำสิ่งคล้ายกันนี้ ได้โดยตรงในไฟล์ Figma
- รวมถึงการใส่คอมเมนต์และชี้ปัญหา
- ควรสร้างชุดทดสอบได้เร็ว รันได้ทีเดียว รับคำตอบ 100 ชุด และวนซ้ำได้ภายใน 30 วินาที
- ตอนนี้องค์ประกอบทุกชิ้นทำงานได้แล้ว แต่ยังใช้เวลานานเกินไป
บทบาทของดีไซเนอร์ในการสร้างโมเดล
- มีประสบการณ์ทั้งสองแนวทางคือ ฝึกตั้งแต่ต้น และ fine-tuning
- ในกรณีฝึกตั้งแต่ต้น สิ่งที่ดีไซเนอร์มีส่วนช่วยมากที่สุดคือ บอกให้องค์กรเห็นว่าตรงไหนคือจุดที่ความต้องการของผู้ใช้สูงและความไม่สะดวกมากที่สุด
- ที่ Replit เคยฝึกโมเดลเฉพาะสำหรับข้อผิดพลาดโค้ด Python แบบพื้นฐานและพบบ่อย
- มีส่วนร่วมกับ การนิยามปัญหาและหาวิธีนำโมเดลที่ฝึกแล้วไปใช้ในผลิตภัณฑ์ มากกว่าตัวการฝึกจริง
- ในกรณี fine-tuning จะมีทั้งโมเดล ผลิตภัณฑ์ และ eval อยู่แล้ว และต้องการยกระดับประสิทธิภาพ
- คนที่เขียน prompt เขียน eval และพูดคุยกับผู้ใช้ จะรู้ชัดที่สุดว่าผลลัพธ์ตอบสนองความคาดหวังหรือไม่
- เมื่อ prompt engineering ไปถึงขีดจำกัดแล้ว fine-tuning คือขั้นต่อไป
- บทบาทการแปลความหลักของดีไซเนอร์คือ การจดจำสมมติฐานของผู้ใช้
- วิศวกรหรือดีไซเนอร์ที่ทำงานใกล้ชิดกับโมเดลมาก ๆ อาจลืมไปว่าผู้ใช้ไม่รู้รายละเอียดเหล่านี้
- จึงต้องใช้ “ความโง่ในตัวเอง” เพื่อสื่อสารว่าผู้ใช้แบบไร้เดียงสาที่ไม่รู้คุณลักษณะของโมเดลจะลองทำอะไร และจะติดขัดตรงไหน
คำแนะนำสำหรับ AI Product Designer
- สิ่งที่ยั่งยืนและทรงอิทธิพลที่สุดคือ ลงทุนเวลาอย่างจริงจังเพื่อเข้าใจอินพุตและเอาต์พุตของโมเดลอย่างแท้จริง
- prompt คืออะไร ข้อมูลผู้ใช้แบบใดถูกป้อนเข้าไป เรียกใช้เครื่องมืออะไรได้บ้าง มี eval แบบไหนอยู่
- ต้องมีสัญชาตญาณว่าเมื่อปรับปุ่มหมุนเหล่านี้แล้วจะเกิดอะไรขึ้น
- อย่ากลายเป็นเพียง ผู้ทำ UI ให้กับผลลัพธ์ที่ตนเองไม่เข้าใจอย่างลึกซึ้ง
- ถ้ามีคนบอกว่า “โมเดลให้สิ่งนี้มา คุณก็แค่ออกแบบอินเทอร์เฟซ” ก็อาจทำได้ แต่จะไม่สามารถเสนอการปรับปรุงจากอินไซต์ผู้ใช้ได้
- และจะทำงานแบบไล่ตามการเปลี่ยนแปลงของโมเดลรุ่นถัดไปอยู่ตลอด
- ต้องเป็น ส่วนหนึ่งของการตัดสินใจ ว่าฟีเจอร์ใหม่คือสิ่งที่ต้องการจริงหรือไม่ ไม่ใช่เป็นแค่ผู้รับคำสั่ง
- สิ่งนี้อาจยากสำหรับดีไซเนอร์ที่ไม่คุ้นกับโค้ด
- จึงอาจต้องมีอินเทอร์เฟซอย่าง Langsmith หรือเรียนรู้วิธีรันสภาพแวดล้อมนักพัฒนาได้ด้วยตัวเอง
กรณีที่สร้างผลกระทบมากที่สุด
- Replit agent: เขาช่วยโน้มน้าวทีมให้ให้ผู้ใช้เป็นผู้ตรวจสอบโดยตรงว่าแอปที่สร้างขึ้นใช้งานได้หรือไม่
- การโฟกัสที่เส้นทางที่ง่ายที่สุดของการยืนยันโดยผู้ใช้ ช่วยประหยัดแรงไปได้มาก
- การเปิดตัว LaMDA (LLM รุ่นแรก ๆ ของ Google): ใช้เวลามากในการลองใช้โมเดลหลายรูปแบบและดูว่าอะไรทำงานดีที่สุด
- ตอนนั้นยังไม่ได้เรียกว่า “prompting” แต่เป็นการพยายามทำให้โมเดลรับบทเป็นสิ่งอื่นและทำได้อย่างน่าเชื่อถือ
- เดโมที่ให้คุยกับดาวพลูโตหรือดวงจันทร์ของมัน คือผลจากการ ลองผิดลองถูกมากมายจนเจอสิ่งที่ทำงานดีที่สุด
- ถ้าไม่มีการทดลองอย่างกว้างขวางก็เลือกกลยุทธ์แบบมีหลักการไม่ได้
การ prompting ของดีไซเนอร์
- คำถามว่า “ดีไซเนอร์ควร prompt ไหม” มีธรรมชาติไม่เหมือนกับคำถามว่า “ดีไซเนอร์ควรเขียนโค้ดไหม”
- ในกรณีการเขียนโค้ด คำตอบค่อนข้างพิสูจน์หักล้างได้ เช่น สร้าง XYZ ด้วยเทคโนโลยี ABC ได้หรือไม่ ซึ่งการถามวิศวกรก็แทบเทียบเท่ากับการรู้เองโดยตรง
- แต่ พฤติกรรมของโมเดล AI มีความเป็นอัตวิสัยและละเอียดอ่อนโดยเนื้อแท้มากกว่า
- จึงไม่มีสิ่งใดมาแทนการเข้าใจวัสดุนี้ด้วยตัวเองในระดับลึกได้
นี่ยังถือว่าเป็นงานออกแบบอยู่ไหม
- มันคือ การออกแบบพฤติกรรม ซึ่งอาจไม่สมบูรณ์แบบ และนั่นก็ไม่เป็นไร
- เป็นชุดความคิดที่ต่างจากการออกแบบ UI ที่ควบคุมทุกพิกเซลได้สมบูรณ์และให้รางวัลกับความเป๊ะ
- ยังคงมีการทำ mockup และใช้เครื่องมือออกแบบอยู่
- สร้างเคส eval ใน Figma ตรวจผลลัพธ์ แล้วแก้ส่วนที่ดูแปลก
- มีความเกือบจะเยียวยาจิตใจ คล้าย fidget spinner
- ถ้าให้ mockup เว็บไซต์กับเวลา 30 นาที ก็จะมีความสุขกับการปรับ typography
- เป็นงานประเภทที่ ไม่มีวันจบตราบใดที่ฟีเจอร์ยังไม่ถูกถอดออก เพราะยังปรับปรุงได้เสมอ
ยังไม่มีความคิดเห็น