leelou2 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) ขอบคุณมาก น่าจะช่วยได้มากแน่นอน ✌️ leelou2 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) ตอนแรกผมตั้งค่าด้วย n8n แต่เปลี่ยนมาใช้ AWS Lambda + @ แล้วครับ 🙇♂️ AWS Lambda: API สำหรับสมัคร/ยกเลิกการสมัครรับข้อมูล (อยู่ในโควต้าฟรี) DynamoDB: จัดการผู้สมัครรับข้อมูล (อยู่ในโควต้าฟรี) เซิร์ฟเวอร์แยกต่างหาก: ส่งอีเมล (ฟรี) AI: JinaAI, OpenAI API (มีค่าใช้จ่าย) ตอนนี้ก็จัดการแบบนี้อยู่ครับ 555 แนะนำให้ลองทำดูสักครั้งนะครับ สนุกดี 👍 stevenk 2025-08-13 | ความคิดเห็นหลัก | ใน: ฐานข้อมูล “เซิร์ฟเวอร์เลส” ในปัจจุบันยังไม่ใช่เซิร์ฟเวอร์เลสที่แท้จริง (lambdadb.ai) ขอบคุณสำหรับความคิดเห็นที่ดีมากครับ/ค่ะ เรื่องที่คุณกล่าวถึงว่า "จำเป็นต้องมี state เพื่อให้ latency ลดลง" เป็นการชี้ให้เห็น trade-off ที่สำคัญของสถาปัตยกรรมของเราได้อย่างแม่นยำมาก ก่อนอื่นขอพูดถึง latency ของคิวรีก่อนนะครับ จาก benchmark ของเรา ค่า p99 (99th percentile) อยู่ที่ประมาณ 130-210ms ส่วนที่คุณกล่าวถึงความต่างถึง 100 เท่านั้นน่าจะเป็นการอ้างอิงถึงกรณีแย่ที่สุดที่มีการระบุในเนื้อหาว่า "ในกรณี cold start อาจใช้เวลาหลายวินาที" ดังนั้นจึงดูเหมือนว่าต่างกันมาก อย่างที่คุณชี้ไว้ จุดนี้เป็นจุดอ่อนที่ชัดเจนของสถาปัตยกรรมเรา และดังที่ระบุในบทความ สภาพแวดล้อมการใช้งานจริงมีโอกาสเกิดขึ้นน้อยกว่า 0.01% (P99.99) เท่านั้น ส่วนใหญ่คิวรีที่เหลือจะถูกออกแบบให้ใช้หน่วยความจำและดิสก์ local ของแต่ละ Lambda เป็นแคช เพื่อให้ได้ประสิทธิภาพที่เสถียร ดังนั้นอย่างที่คุณกล่าว ระบบระบบการเทรดทางการเงินที่ต้องการความหน่วงต่ำมากและต้องรับประกันว่าแต่ละคิวรีจะต่ำกว่า 10ms อาจไม่เหมาะกับสถาปัตยกรรมประเภทนี้ แต่ในแอปพลิเคชันค้นหาและแนะนำบนพื้นฐาน AI ส่วนใหญ่ เวลาแฝงที่ระดับ P99 อยู่ที่ 100-200ms ถือว่าเป็นสมรรถนะที่ดี และเราคิดว่าข้อได้เปรียบในการลดต้นทุนโครงสร้างพื้นฐานและภาระการดำเนินงานได้มากกว่า 90% นั้นมากกว่ามาก ขอบคุณอีกครั้งสำหรับความคิดเห็นเชิงลึกอีกครั้ง jinucho 2025-08-13 | ความคิดเห็นหลัก | ใน: GPT-OSS-120B ทำงานได้ยอดเยี่ยมแม้มี VRAM เพียง 8GB (old.reddit.com) ขนาด 65GB เลย... น่าเสียดายจัง ฮือฮือ kansm 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) ผมก็เคยคิดว่าจะลองทำดูเหมือนกัน แต่สุดท้ายก็ไม่ได้ทำครับ.. 555 หรือว่าทำด้วย n8n เหรอครับ?? spp00 2025-08-13 | ความคิดเห็นหลัก | ใน: CEO ของ GitHub: ยอมรับ AI ไม่เช่นนั้นก็ออกจากอุตสาหกรรมนี้ไป (x.com/ashtom) นักพัฒนาที่บอกว่าไม่กังวลกันนั้น คงหมายถึงพวกซีเนียร์ที่สั่งสมประสบการณ์มาพอสมควรสินะ เดิมทีจากมุมบริษัท เหตุผลที่จะรับเด็กจบใหม่ก็ลดลงอยู่แล้ว พอมี AI เข้ามาอีก แถมก็เห็นได้ชัดว่าคนที่ใช้ AI ได้เก่งกว่าน่าจะเป็นพวกซีเนียร์อยู่ดี.... spp00 2025-08-13 | ความคิดเห็นหลัก | ใน: CEO ของ GitHub: ยอมรับ AI ไม่เช่นนั้นก็ออกจากอุตสาหกรรมนี้ไป (x.com/ashtom) ปัญหาคือคนระดับจูเนียร์ขึ้นคลื่นไม่ทัน และแม้แต่คนที่ขึ้นคลื่นไปแล้วก็ยังเสี่ยงจะถูกคลื่นซัดหายไปอยู่ดี spp00 2025-08-13 | ความคิดเห็นหลัก | ใน: CEO ของ GitHub: ยอมรับ AI ไม่เช่นนั้นก็ออกจากอุตสาหกรรมนี้ไป (x.com/ashtom) แต่ AEO กับ GEO ก็สุดท้ายแล้วมีงานบางส่วนที่ทับซ้อนกับ SEO อยู่ดี.... jmg008 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) ต่อไปนี้ทุกเช้าคงมีอะไรให้อ่านแล้ว สมัครรับข้อมูลแล้วครับ hirussell 2025-08-13 | ความคิดเห็นหลัก | ใน: CEO ของ GitHub: ยอมรับ AI ไม่เช่นนั้นก็ออกจากอุตสาหกรรมนี้ไป (x.com/ashtom) คนที่ฝืนกระแสหรือหนีไปจะถูกกระแสซัดพาไป ส่วนคนที่โต้คลื่นจะได้สนุกกับคลื่น.. gjen6s 2025-08-13 | ความคิดเห็นหลัก | ใน: เปิดตัว Go 1.25 (go.dev) ดูเหมือนว่าจะทำเป็นภาพผ่าน llm แต่ก็ดูน่าสบายตาดีนะ cronex 2025-08-13 | ความคิดเห็นหลัก | ใน: GPT-OSS-120B ทำงานได้ยอดเยี่ยมแม้มี VRAM เพียง 8GB (old.reddit.com) คล้ายกันเลย ผมก็คงต้องลองทำดูเหมือนกันครับ leelou2 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) ขอบคุณครับ 👏 crawler 2025-08-13 | ความคิดเห็นหลัก | ใน: GPT-OSS-120B ทำงานได้ยอดเยี่ยมแม้มี VRAM เพียง 8GB (old.reddit.com) คิดว่า 32GB ก็น่าจะพอแล้วซะอีก... lemonmint 2025-08-13 | ความคิดเห็นหลัก | ใน: เปิดตัว Go 1.25 (go.dev) เปรียบเทียบ encoding/json v1 กับ v2 ใน Go 1.25: https://gosuda.org/ko/blog/… GreenTea GC ช่วงพักจิบชาเขียวหนึ่งถ้วยที่ Go runtime จะแย่งไป: https://gosuda.org/ko/blog/… cnaa97 2025-08-13 | ความคิดเห็นหลัก | ใน: GPT-OSS-120B ทำงานได้ยอดเยี่ยมแม้มี VRAM เพียง 8GB (old.reddit.com) อย่างแรกเลย รันบน lm studio M4 max 64gb ไม่ได้อะ T_T bakgom 2025-08-13 | ความคิดเห็นหลัก | ใน: ลองใช้แอป ToDo มาทุกตัวแล้ว สุดท้ายก็กลับมาที่ไฟล์ .txt (al3rez.com) เรียบง่ายดีที่สุด! codject 2025-08-13 | ความคิดเห็นหลัก | ใน: วิธีที่ง่ายและแม่นยำที่สุดในการรับข่าว Hacker News ยอดนิยมล่าสุดทุกเช้า (news.lou2.kr) สมัครรับแล้วครับ 👍 davidshim 2025-08-13 | ความคิดเห็นหลัก | ใน: ฐานข้อมูล “เซิร์ฟเวอร์เลส” ในปัจจุบันยังไม่ใช่เซิร์ฟเวอร์เลสที่แท้จริง (lambdadb.ai) แนวคิดนี้ดี แต่เพื่อให้เวลาแฝงของการคิวรีลดลง จำเป็นต้องมี state อยู่เสมอครับ เปรียบเทียบกับ MySQL, PostgreSQL และอื่นๆ แล้ว เวลาหน่วงของคิวรีดูเหมือนสูงถึงเกือบ 100 เท่า และรู้สึกว่าใกล้เคียงกับการเขียน-อ่านข้อมูลกับระบบไฟล์มาก codject 2025-08-12 | ความคิดเห็นหลัก | ใน: ลองใช้แอป ToDo มาทุกตัวแล้ว สุดท้ายก็กลับมาที่ไฟล์ .txt (al3rez.com) พออ่านบทความแล้วก็นึกถึงแอป TaskPaper ขึ้นมาเลยครับ เป็นแนวทางที่อิงกับ plain text และจัดการแบบ outliner ... ส่วนตัวผมใช้แค่ Things มาเกิน 10 ปีแล้ว แต่ก็ยังรู้สึกว่าสะดวกที่สุดครับ ฟีเจอร์ quick entry Autofill ใน Things for macOS นี่มีเสน่ห์มากจริง ๆ ... โหลดความคิดเห็นเพิ่มเติม
ขอบคุณมาก น่าจะช่วยได้มากแน่นอน ✌️
ตอนแรกผมตั้งค่าด้วย n8n แต่เปลี่ยนมาใช้ AWS Lambda + @ แล้วครับ 🙇♂️
ตอนนี้ก็จัดการแบบนี้อยู่ครับ 555
แนะนำให้ลองทำดูสักครั้งนะครับ สนุกดี 👍
ขอบคุณสำหรับความคิดเห็นที่ดีมากครับ/ค่ะ
เรื่องที่คุณกล่าวถึงว่า "จำเป็นต้องมี state เพื่อให้ latency ลดลง" เป็นการชี้ให้เห็น trade-off ที่สำคัญของสถาปัตยกรรมของเราได้อย่างแม่นยำมาก
ก่อนอื่นขอพูดถึง latency ของคิวรีก่อนนะครับ จาก benchmark ของเรา ค่า p99 (99th percentile) อยู่ที่ประมาณ 130-210ms
ส่วนที่คุณกล่าวถึงความต่างถึง 100 เท่านั้นน่าจะเป็นการอ้างอิงถึงกรณีแย่ที่สุดที่มีการระบุในเนื้อหาว่า "ในกรณี cold start อาจใช้เวลาหลายวินาที" ดังนั้นจึงดูเหมือนว่าต่างกันมาก
อย่างที่คุณชี้ไว้ จุดนี้เป็นจุดอ่อนที่ชัดเจนของสถาปัตยกรรมเรา และดังที่ระบุในบทความ สภาพแวดล้อมการใช้งานจริงมีโอกาสเกิดขึ้นน้อยกว่า 0.01% (P99.99) เท่านั้น ส่วนใหญ่คิวรีที่เหลือจะถูกออกแบบให้ใช้หน่วยความจำและดิสก์ local ของแต่ละ Lambda เป็นแคช เพื่อให้ได้ประสิทธิภาพที่เสถียร
ดังนั้นอย่างที่คุณกล่าว ระบบระบบการเทรดทางการเงินที่ต้องการความหน่วงต่ำมากและต้องรับประกันว่าแต่ละคิวรีจะต่ำกว่า 10ms อาจไม่เหมาะกับสถาปัตยกรรมประเภทนี้ แต่ในแอปพลิเคชันค้นหาและแนะนำบนพื้นฐาน AI ส่วนใหญ่ เวลาแฝงที่ระดับ P99 อยู่ที่ 100-200ms ถือว่าเป็นสมรรถนะที่ดี และเราคิดว่าข้อได้เปรียบในการลดต้นทุนโครงสร้างพื้นฐานและภาระการดำเนินงานได้มากกว่า 90% นั้นมากกว่ามาก
ขอบคุณอีกครั้งสำหรับความคิดเห็นเชิงลึกอีกครั้ง
ขนาด 65GB เลย... น่าเสียดายจัง ฮือฮือ
ผมก็เคยคิดว่าจะลองทำดูเหมือนกัน แต่สุดท้ายก็ไม่ได้ทำครับ.. 555
หรือว่าทำด้วย n8n เหรอครับ??
นักพัฒนาที่บอกว่าไม่กังวลกันนั้น คงหมายถึงพวกซีเนียร์ที่สั่งสมประสบการณ์มาพอสมควรสินะ เดิมทีจากมุมบริษัท เหตุผลที่จะรับเด็กจบใหม่ก็ลดลงอยู่แล้ว พอมี AI เข้ามาอีก แถมก็เห็นได้ชัดว่าคนที่ใช้ AI ได้เก่งกว่าน่าจะเป็นพวกซีเนียร์อยู่ดี....
ปัญหาคือคนระดับจูเนียร์ขึ้นคลื่นไม่ทัน และแม้แต่คนที่ขึ้นคลื่นไปแล้วก็ยังเสี่ยงจะถูกคลื่นซัดหายไปอยู่ดี
แต่ AEO กับ GEO ก็สุดท้ายแล้วมีงานบางส่วนที่ทับซ้อนกับ SEO อยู่ดี....
ต่อไปนี้ทุกเช้าคงมีอะไรให้อ่านแล้ว สมัครรับข้อมูลแล้วครับ
คนที่ฝืนกระแสหรือหนีไปจะถูกกระแสซัดพาไป ส่วนคนที่โต้คลื่นจะได้สนุกกับคลื่น..
ดูเหมือนว่าจะทำเป็นภาพผ่าน llm แต่ก็ดูน่าสบายตาดีนะ
คล้ายกันเลย ผมก็คงต้องลองทำดูเหมือนกันครับ
ขอบคุณครับ 👏
คิดว่า 32GB ก็น่าจะพอแล้วซะอีก...
encoding/jsonv1 กับ v2 ใน Go 1.25: https://gosuda.org/ko/blog/…อย่างแรกเลย รันบน lm studio M4 max 64gb ไม่ได้อะ T_T
เรียบง่ายดีที่สุด!
สมัครรับแล้วครับ 👍
แนวคิดนี้ดี แต่เพื่อให้เวลาแฝงของการคิวรีลดลง จำเป็นต้องมี
stateอยู่เสมอครับ เปรียบเทียบกับ MySQL, PostgreSQL และอื่นๆ แล้ว เวลาหน่วงของคิวรีดูเหมือนสูงถึงเกือบ 100 เท่า และรู้สึกว่าใกล้เคียงกับการเขียน-อ่านข้อมูลกับระบบไฟล์มากพออ่านบทความแล้วก็นึกถึงแอป TaskPaper ขึ้นมาเลยครับ เป็นแนวทางที่อิงกับ plain text และจัดการแบบ outliner ...
ส่วนตัวผมใช้แค่ Things มาเกิน 10 ปีแล้ว แต่ก็ยังรู้สึกว่าสะดวกที่สุดครับ
ฟีเจอร์ quick entry Autofill ใน Things for macOS นี่มีเสน่ห์มากจริง ๆ ...