lastorder 28 일 전 | ความคิดเห็นหลัก | ใน: Google AI Edge Gallery - แอปแกลเลอรี LLM แบบออฟไลน์เต็มรูปแบบ โอเพนซอร์ส (github.com/google-ai-edge) https://github.com/google-ai-edge/gallery/issues/437 ดูเหมือนว่าความเข้ากันได้กับ Exynos จะไม่ค่อยดีนัก บน Galaxy Quantum 5 (A55) มีปัญหาที่ตอบซ้ำอักษรจีนไม่รู้จบอยู่ครับ jmg008 28 일 전 | ความคิดเห็นหลัก | ใน: ถ้าคุณกำลังทุกข์ใจกับ Claude Blue (kciter.so) ผมเข้าใจว่าโมเดลภาษาขนาดใหญ่ที่ออกสู่ตลาดหลัง GPT แทบทั้งหมด ยกเว้นบางตัวที่ใช้ diffusion model ทำงานในรูปแบบการทำนายโทเคนถัดไป หากมีโมเดลที่ทำงานด้วยวิธีอื่น รบกวนช่วยบอกให้ทราบด้วย จะขอบคุณมากครับ vndk2234 28 일 전 | ความคิดเห็นหลัก | ใน: ทำไมสวิตเซอร์แลนด์ถึงมีอินเทอร์เน็ต 25Gbps แต่สหรัฐฯ ไม่มี (sschueller.github.io) ไม่เคยรู้มาก่อนเลยว่ามีอินเทอร์เน็ต 25Gbps แบบสมมาตรอยู่ด้วย ผมคิดว่าแม้แต่ระดับ 10Gbps ก็เหลือเฟือเกินพอสำหรับใช้งานในบ้านแล้ว... ksundong 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) เคยลองใช้มาก่อน แต่สุดท้ายก็เอาออก เพราะ Claude มักจะใช้โทเคนมากขึ้นไปอีกเพื่อแก้ปัญหาที่เกิดจาก rtk (ตัวอย่างเช่น เวลาเรียกขอ JSON ด้วย curl มันกลับสร้าง JSON ที่ไม่ถูกต้อง ทำให้ jq โยน error แล้ว Claude ก็ไปดีบักสิ่งนี้จนเผาโทเคนไปเรื่อย ๆ สุดท้ายก็กลับมารับคำขอ curl แบบ raw ใหม่แล้วค่อยพาร์สด้วย jq) ถึงอย่างนั้นก็ยังคิดว่าแนวคิดตั้งต้นเป็นความพยายามที่ดี ถ้าทำให้เสถียรได้ก็น่าจะเป็นอะไรที่น่าลองใช้อยู่ครับ anyjava 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) ผมก็รู้สึกเสียดายในส่วนนั้นเหมือนกันครับ! ช่วงนี้มีอัปเดตล่าสุดที่บันทึก full output แยกไว้เป็นไฟล์ต่างหาก ทำให้ LLM สามารถอ่านได้เมื่อจำเป็น~ lastorder 28 일 전 | ความคิดเห็นหลัก | ใน: เปิดโอเพนเบต้า GnuBoard 7 ที่พัฒนาบน Laravel (sir.kr) การปรับโฉมเว็บไซต์ทางการได้ทำไปก่อนการเปิดตัว GnuBoard 7 cronex 28 일 전 | ความคิดเห็นหลัก | ใน: เหตุผลที่แท้จริงที่ทีมวิศวกรรมของคุณช้า ไม่ใช่คน แต่เป็น codebase (piechowski.io) เพราะแบบนี้ บางครั้งการเขียนใหม่ตั้งแต่ต้นจึงเร็วกว่าเสียอีก geek12356 28 일 전 | ความคิดเห็นหลัก | ใน: OpenClaude ที่เกิดจากการรั่วไหลของซอร์ส Claude Code — ใช้โมเดลกว่า 200 แบบ เช่น GPT-4o, Gemini, Ollama ผ่าน UI ของ Claude Code (github.com/Gitlawb) ขอบคุณสำหรับคำตอบ! moon5g 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) ไม่แน่ใจว่าลดได้จริงไหม พอลองบอกให้ agent ใช้คำสั่ง rtk ls.. อยู่เรื่อย ๆ ก็ไม่ยอมใช้ kciter1 28 일 전 | ความคิดเห็นหลัก | ใน: ถ้าคุณกำลังทุกข์ใจกับ Claude Blue (kciter.so) งั้นโมเดลล่าสุดเป็นอีกตัวหรือเปล่าครับ? ถ้ามีข้อมูลส่วนไหนผิด รบกวนช่วยบอกด้วยนะครับ น่าจะเป็นประโยชน์ทั้งกับผมและคนอื่น ๆ ด้วยครับ 555 nemorize 28 일 전 | ความคิดเห็นหลัก | ใน: EmDash – ผู้สืบทอดทางจิตวิญญาณของ WordPress ที่แก้ปัญหาความปลอดภัยของปลั๊กอิน (blog.cloudflare.com) ยังมีสแปมแบบที่เอา URL หน้าผลการค้นหาจากการค้นหาวลีสแปมไปใส่เป็นแบ็กลิงก์ในโพสต์ของบล็อกอื่นด้วย; ไม่ว่าแบบไหน สุดท้ายก็ต้องลบด้วยมือนั่นแหละ... brainer 28 일 전 | ความคิดเห็นหลัก | ใน: ถ้าคุณกำลังทุกข์ใจกับ Claude Blue (kciter.so) > LLM เป็นโมเดลทำนายคำถัดไปที่ "สร้างผลลัพธ์ที่เหมาะสมที่สุดสำหรับอินพุตที่ได้รับ" กำลังพูดถึง GPT-3 นี่เอง yowuu 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) ผมเองก็ลองใช้อยู่เหมือนกันครับ.. แต่ดูเหมือนว่าจะแล้วแต่กรณี เพราะด้วยการบีบอัดของ rtk บางครั้ง Claude Code ก็ไม่สามารถดึงคอนเท็กซ์ที่จำเป็นจากผลลัพธ์ของคำสั่งได้ ku9cu 28 일 전 | ความคิดเห็นหลัก | ใน: ความต่างเพียงข้อเดียวของคนที่ทำสิ่งที่ตัวเองอยากทำได้จริง ๆ คือความสามารถในการตัดสินว่าเกี่ยวข้องกับตัวเองแค่ไหน (blog.archcalendar.com) นี่คือโฆษณาหรือเปล่า? vwjdalsgkv 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) ดูเหมือนว่าจะมีผลข้างเคียงเล็กน้อยในกรณีการใช้งานของผู้ใช้อื่น ๆ หวังว่าจะสามารถแก้ไขได้โดยเร็วและนำไปใช้งานได้อย่างราบรื่นนะครับ https://reddit.com/r/ClaudeCode/… joyfui 28 일 전 | ความคิดเห็นหลัก | ใน: Caveman - ประหยัดโทเค็น Claude/Codex ด้วยสำนวนพูดแบบมนุษย์ถ้ำ (github.com/JuliusBrussee) พูดสไตล์สปาร์ตันที่นี่เหรอ..? 555 blacksocks 28 일 전 | ความคิดเห็นหลัก | ใน: วิธีแยกแยะผู้ใช้บนเว็บไซต์แบบสแตติกที่ไม่ต้องล็อกอิน — ไปจนถึงโจทย์การระบุ AI Agent (blog.neocode24.com) คิดว่าเป็นไอเดียที่แปลกใหม่น่าสนใจนะครับ~ แต่ในแง่การนำไปใช้จริงและผลลัพธ์ที่คาดหวัง ดูเหมือนว่ายังต้องพิจารณาอย่างรอบคอบมากกว่านี้อีกนิด.. blacksocks 28 일 전 | ความคิดเห็นหลัก | ใน: rtk - พร็อกซี CLI ที่ช่วยลดการใช้โทเค็นของ LLM ได้ 60~90% (github.com/rtk-ai) ถ้าช่วยลดได้ดี ก็คงดีมากเลยนะครับ! m00nlygreat 28 일 전 | ความคิดเห็นหลัก | ใน: Awesome Design.MD - นำระบบดีไซน์ของเว็บไซต์ชื่อดังมาใช้กับเว็บไซต์ของคุณ (github.com/VoltAgent) แต่ปกติแล้ว ในเฟรมเวิร์กฝั่งฟรอนต์เอนด์ก็มักจะมีดีไซน์ซิสเต็มอยู่ในรูปของชิ้นส่วนโค้ดข้างในอยู่แล้ว แบบนี้ไม่ควรต้องใช้มันร่วมกันเป็นมาตรฐานหรือครับ..? การบอกว่ายึดตาม DESIGN.md ฟังดูเหมือนจะหมายถึงว่า จะสร้างสีและข้อกำหนดเหล่านั้นขึ้นมาเองตามอำเภอใจทุกครั้งมากกว่า ... hmmhmmhm 28 일 전 | ความคิดเห็นหลัก | ใน: Awesome Design.MD - นำระบบดีไซน์ของเว็บไซต์ชื่อดังมาใช้กับเว็บไซต์ของคุณ (github.com/VoltAgent) หวังว่าจะถูกนำไปใช้ไม่ใช่แค่การคัดลอกตรง ๆ แต่เป็นการสร้างดีไซน์ซิสเต็มใหม่ขึ้นมาโดยอิงจากดีไซน์ซิสเต็มหลายแบบมากกว่าครับ โหลดความคิดเห็นเพิ่มเติม
https://github.com/google-ai-edge/gallery/issues/437
ดูเหมือนว่าความเข้ากันได้กับ Exynos จะไม่ค่อยดีนัก บน Galaxy Quantum 5 (A55) มีปัญหาที่ตอบซ้ำอักษรจีนไม่รู้จบอยู่ครับ
ผมเข้าใจว่าโมเดลภาษาขนาดใหญ่ที่ออกสู่ตลาดหลัง GPT แทบทั้งหมด ยกเว้นบางตัวที่ใช้ diffusion model ทำงานในรูปแบบการทำนายโทเคนถัดไป หากมีโมเดลที่ทำงานด้วยวิธีอื่น รบกวนช่วยบอกให้ทราบด้วย จะขอบคุณมากครับ
ไม่เคยรู้มาก่อนเลยว่ามีอินเทอร์เน็ต 25Gbps แบบสมมาตรอยู่ด้วย ผมคิดว่าแม้แต่ระดับ 10Gbps ก็เหลือเฟือเกินพอสำหรับใช้งานในบ้านแล้ว...
เคยลองใช้มาก่อน แต่สุดท้ายก็เอาออก เพราะ Claude มักจะใช้โทเคนมากขึ้นไปอีกเพื่อแก้ปัญหาที่เกิดจาก rtk
(ตัวอย่างเช่น เวลาเรียกขอ JSON ด้วย
curlมันกลับสร้าง JSON ที่ไม่ถูกต้อง ทำให้jqโยน error แล้ว Claude ก็ไปดีบักสิ่งนี้จนเผาโทเคนไปเรื่อย ๆ สุดท้ายก็กลับมารับคำขอcurlแบบ raw ใหม่แล้วค่อยพาร์สด้วยjq)ถึงอย่างนั้นก็ยังคิดว่าแนวคิดตั้งต้นเป็นความพยายามที่ดี ถ้าทำให้เสถียรได้ก็น่าจะเป็นอะไรที่น่าลองใช้อยู่ครับ
ผมก็รู้สึกเสียดายในส่วนนั้นเหมือนกันครับ!
ช่วงนี้มีอัปเดตล่าสุดที่บันทึก full output แยกไว้เป็นไฟล์ต่างหาก ทำให้ LLM สามารถอ่านได้เมื่อจำเป็น~
การปรับโฉมเว็บไซต์ทางการได้ทำไปก่อนการเปิดตัว GnuBoard 7
เพราะแบบนี้ บางครั้งการเขียนใหม่ตั้งแต่ต้นจึงเร็วกว่าเสียอีก
ขอบคุณสำหรับคำตอบ!
ไม่แน่ใจว่าลดได้จริงไหม พอลองบอกให้ agent ใช้คำสั่ง
rtk ls..อยู่เรื่อย ๆ ก็ไม่ยอมใช้งั้นโมเดลล่าสุดเป็นอีกตัวหรือเปล่าครับ? ถ้ามีข้อมูลส่วนไหนผิด รบกวนช่วยบอกด้วยนะครับ น่าจะเป็นประโยชน์ทั้งกับผมและคนอื่น ๆ ด้วยครับ 555
ยังมีสแปมแบบที่เอา URL หน้าผลการค้นหาจากการค้นหาวลีสแปมไปใส่เป็นแบ็กลิงก์ในโพสต์ของบล็อกอื่นด้วย;
ไม่ว่าแบบไหน สุดท้ายก็ต้องลบด้วยมือนั่นแหละ...
> LLM เป็นโมเดลทำนายคำถัดไปที่ "สร้างผลลัพธ์ที่เหมาะสมที่สุดสำหรับอินพุตที่ได้รับ"
กำลังพูดถึง GPT-3 นี่เอง
ผมเองก็ลองใช้อยู่เหมือนกันครับ.. แต่ดูเหมือนว่าจะแล้วแต่กรณี เพราะด้วยการบีบอัดของ rtk บางครั้ง Claude Code ก็ไม่สามารถดึงคอนเท็กซ์ที่จำเป็นจากผลลัพธ์ของคำสั่งได้
นี่คือโฆษณาหรือเปล่า?
ดูเหมือนว่าจะมีผลข้างเคียงเล็กน้อยในกรณีการใช้งานของผู้ใช้อื่น ๆ
หวังว่าจะสามารถแก้ไขได้โดยเร็วและนำไปใช้งานได้อย่างราบรื่นนะครับ
https://reddit.com/r/ClaudeCode/…
พูดสไตล์สปาร์ตันที่นี่เหรอ..? 555
คิดว่าเป็นไอเดียที่แปลกใหม่น่าสนใจนะครับ~ แต่ในแง่การนำไปใช้จริงและผลลัพธ์ที่คาดหวัง ดูเหมือนว่ายังต้องพิจารณาอย่างรอบคอบมากกว่านี้อีกนิด..
ถ้าช่วยลดได้ดี ก็คงดีมากเลยนะครับ!
แต่ปกติแล้ว ในเฟรมเวิร์กฝั่งฟรอนต์เอนด์ก็มักจะมีดีไซน์ซิสเต็มอยู่ในรูปของชิ้นส่วนโค้ดข้างในอยู่แล้ว แบบนี้ไม่ควรต้องใช้มันร่วมกันเป็นมาตรฐานหรือครับ..?
การบอกว่ายึดตาม
DESIGN.mdฟังดูเหมือนจะหมายถึงว่า จะสร้างสีและข้อกำหนดเหล่านั้นขึ้นมาเองตามอำเภอใจทุกครั้งมากกว่า ...หวังว่าจะถูกนำไปใช้ไม่ใช่แค่การคัดลอกตรง ๆ แต่เป็นการสร้างดีไซน์ซิสเต็มใหม่ขึ้นมาโดยอิงจากดีไซน์ซิสเต็มหลายแบบมากกว่าครับ