princox 2026-03-03 | ความคิดเห็นหลัก | ใน: Anthropic Courses - เปิดคอร์สออนไลน์ฟรี (anthropic.skilljar.com) ดูเหมือนว่ากำลังตอกย้ำความเป็นอันดับหนึ่งแบบไร้คู่แข่งอยู่เลย shakespeares 2026-03-02 | ความคิดเห็นหลัก | ใน: Call-me - Claude Code โทรหาคุณได้ (github.com/ZeframLou) เจ๋งดีนะ ragingwind 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) มันไม่ค่อยเข้ากับ worktree ของโปรเจ็กต์เดียวกัน เลยไม่ได้ใช้อยู่ครับ ndrgrd 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) ตอนแรกนึกว่ามันจะจัดสรรให้โดยอัตโนมัติ แต่ดูเหมือนว่าจะเป็นแบบต้องลงทะเบียนเองเฉยๆ ผมใช้งาน Caddy อยู่แล้ว เลยคงไม่มีเหตุผลอะไรที่ต้องเปลี่ยนมาใช้อันนี้ ksc2601 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) เดิมก็ทำอยู่แล้วด้วย docker + traefik + mkcert แต่ดูเหมือนว่าใช้อันนั้นจะสะดวกกว่านะครับ okxrr 2026-03-02 | ความคิดเห็นหลัก | ใน: Anthropic Courses - เปิดคอร์สออนไลน์ฟรี (anthropic.skilljar.com) มันเก่งจนน่ากลัวเลยครับ/ค่ะ ดูเหมือนว่าการพึ่งพามันมากขึ้นเรื่อย ๆ คงไม่ใช่เรื่องดีนัก... ควรจะต้องมีคู่แข่งด้วย xguru 2026-03-02 | ความคิดเห็นหลัก | ใน: Anthropic Courses - เปิดคอร์สออนไลน์ฟรี (anthropic.skilljar.com) พอชมว่าทำได้ดี ก็ยิ่งทำได้ดีกว่าเดิมอีก Anthropic จริง ๆ ดูเหมือนว่าจะกระตุ้นบริษัทอื่น ๆ ได้มากเลยนะครับ laeyoung 2026-03-02 | ความคิดเห็นหลัก | ใน: หนี้ทางการรับรู้: เมื่อความเร็วแซงหน้าความเข้าใจ (rockoder.com) ช่วงนี้ผมก็คิดอะไรคล้าย ๆ กันอยู่ เลยเขียนบล็อกโพสต์เกี่ยวกับหนี้ทางความคิดไว้เมื่อวานนี้ ดูเหมือนว่าทุกคนก็กำลังกังวลเรื่องคล้าย ๆ กันนะครับ rlaaudgjs5638 2026-03-02 | ความคิดเห็นหลัก | ใน: Magpie — ภาษาโปรแกรมที่ออกแบบมาเพื่อให้ LLM เขียนโค้ดได้สมบูรณ์แบบตั้งแต่ครั้งแรก (magpie-lang.com) น่าสนใจดีครับ มีแผนพัฒนาต่อในอนาคตไหมครับ? roxie 2026-03-02 | ความคิดเห็นหลัก | ใน: Call-me - Claude Code โทรหาคุณได้ (github.com/ZeframLou) ว้าว 555 ng0301 2026-03-02 | ความคิดเห็นหลัก | ใน: โมเดลโอเพนซอร์ส Qwen3.5-Medium ของ Alibaba มอบประสิทธิภาพระดับ Sonnet 4.5 บนเครื่องโลคัล (venturebeat.com) ใช่เลย.. พอใช้ vision encoder แม้แต่โมเดล 1B ก็ยังกิน VRAM 9G เลยครับ holywork 2026-03-02 | ความคิดเห็นหลัก | ใน: ทั้งหมดเป็นเรื่องหลอกลวง (garymarcus.substack.com) ผมคิดว่าแซม อัลต์แมนอาจจะเป็นพวกไซโคพาธสัตว์เลื้อยคลานก็ได้ roxie 2026-03-02 | ความคิดเห็นหลัก | ใน: Vibe Coding จะจบลงแบบเดียวกับขบวนการ Maker หรือไม่ (read.technically.dev) "การลงมือสร้างสิ่งของทางกายภาพด้วยมือก่อให้เกิดการเปลี่ยนแปลงจากภายใน" chcv0313 2026-03-02 | ความคิดเห็นหลัก | ใน: โมเดลโอเพนซอร์ส Qwen3.5-Medium ของ Alibaba มอบประสิทธิภาพระดับ Sonnet 4.5 บนเครื่องโลคัล (venturebeat.com) ผมมี RTX Pro 6000 (96GB, ใช้งานได้จริง 94GB) อยู่ แต่รันโมเดล 122B บน ollama ไม่ขึ้นครับ น่าจะเป็นเพราะเป็นโมเดล vision เลยมีส่วนที่เป็น vision transformer รวมอยู่ด้วยละมั้งครับ แต่โมเดล GPT OSS 120b กลับรันขึ้นได้แบบเหลือ ๆ kensin2 2026-03-02 | ความคิดเห็นหลัก | ใน: โมเดลโอเพนซอร์ส Qwen3.5-Medium ของ Alibaba มอบประสิทธิภาพระดับ Sonnet 4.5 บนเครื่องโลคัล (venturebeat.com) ต้องรันด้วยเซิร์ฟเวอร์ llama.cpp ที่อิงกับ CUDA ถึงจะได้ประสิทธิภาพออกมา yangeok 2026-03-02 | ความคิดเห็นหลัก | ใน: 9 ทักษะเอาตัวรอดในยุค Agentic Engineering (flowkater.io) ขอบคุณครับ เดิมทีผมแอบกังวลเพราะมี cowork ที่แค่เปิดพีซีทิ้งไว้ก็ทำหน้าที่เป็นเซิร์ฟเวอร์ได้แล้ว แต่ตอนนี้ก็โล่งใจขึ้นหน่อย และพอจะนึกภาพออกแล้วว่าจากนี้ไป จะเปลี่ยนไปอย่างไร 555 xguru 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) มีการพูดถึงเรื่องนี้บน X และบอกว่าถ้าใช้กับ Docker การใส่ PID ของ Docker daemon แบบบังคับก็ใช้ได้เช่นกัน. https://github.com/vercel-labs/portless/issues/61 bytecakelake 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) เป็นบทความที่มีประโยชน์นะครับ xguru 2026-03-02 | ความคิดเห็นหลัก | ใน: portless - เครื่องมือแทนที่หมายเลขพอร์ตด้วย URL .localhost แบบอิงชื่อ (github.com/vercel-labs) งั้นก็ลาก่อน error EADDRINUSE ได้เลยเหรอ? ช่วงนี้พอพัฒนานั่นนี่ผ่านเอเจนต์แล้วต้องรันอะไรต่อมิอะไรเต็มไปหมด มันก็ชนกันเองวุ่นวายเลย 55 armila 2026-03-02 | ความคิดเห็นหลัก | ใน: อย่าใช้ `/init` สร้าง AGENTS.md อัตโนมัติ — มีแต่ทำให้ต้นทุนเพิ่มขึ้น 20% (addyosmani.com) แต่ตัวโมเดลเองก็เปลี่ยนไปภายในไม่กี่เดือน และก็ต้องปรับ agents ให้เข้ากับโมเดลด้วย... มันไม่ใช่ว่าการเปลี่ยนแปลงของโมเดลเร็วกว่าการใช้เวลาสร้างโครงสร้าง agents ที่เหมาะสมหรอกหรือครับ เหมือนเครื่องมือเปลี่ยนไปเสียก่อนที่คนจะคุ้นเคยกับเครื่องมือนั้นเสียอีก... โหลดความคิดเห็นเพิ่มเติม
ดูเหมือนว่ากำลังตอกย้ำความเป็นอันดับหนึ่งแบบไร้คู่แข่งอยู่เลย
เจ๋งดีนะ
มันไม่ค่อยเข้ากับ worktree ของโปรเจ็กต์เดียวกัน เลยไม่ได้ใช้อยู่ครับ
ตอนแรกนึกว่ามันจะจัดสรรให้โดยอัตโนมัติ แต่ดูเหมือนว่าจะเป็นแบบต้องลงทะเบียนเองเฉยๆ
ผมใช้งาน Caddy อยู่แล้ว เลยคงไม่มีเหตุผลอะไรที่ต้องเปลี่ยนมาใช้อันนี้
เดิมก็ทำอยู่แล้วด้วย
docker+traefik+mkcertแต่ดูเหมือนว่าใช้อันนั้นจะสะดวกกว่านะครับมันเก่งจนน่ากลัวเลยครับ/ค่ะ ดูเหมือนว่าการพึ่งพามันมากขึ้นเรื่อย ๆ คงไม่ใช่เรื่องดีนัก... ควรจะต้องมีคู่แข่งด้วย
พอชมว่าทำได้ดี ก็ยิ่งทำได้ดีกว่าเดิมอีก Anthropic จริง ๆ
ดูเหมือนว่าจะกระตุ้นบริษัทอื่น ๆ ได้มากเลยนะครับ
ช่วงนี้ผมก็คิดอะไรคล้าย ๆ กันอยู่ เลยเขียนบล็อกโพสต์เกี่ยวกับหนี้ทางความคิดไว้เมื่อวานนี้ ดูเหมือนว่าทุกคนก็กำลังกังวลเรื่องคล้าย ๆ กันนะครับ
น่าสนใจดีครับ มีแผนพัฒนาต่อในอนาคตไหมครับ?
ว้าว 555
ใช่เลย.. พอใช้ vision encoder แม้แต่โมเดล 1B ก็ยังกิน VRAM 9G เลยครับ
ผมคิดว่าแซม อัลต์แมนอาจจะเป็นพวกไซโคพาธสัตว์เลื้อยคลานก็ได้
"การลงมือสร้างสิ่งของทางกายภาพด้วยมือก่อให้เกิดการเปลี่ยนแปลงจากภายใน"
ผมมี RTX Pro 6000 (96GB, ใช้งานได้จริง 94GB) อยู่ แต่รันโมเดล 122B บน ollama ไม่ขึ้นครับ น่าจะเป็นเพราะเป็นโมเดล vision เลยมีส่วนที่เป็น vision transformer รวมอยู่ด้วยละมั้งครับ แต่โมเดล GPT OSS 120b กลับรันขึ้นได้แบบเหลือ ๆ
ต้องรันด้วยเซิร์ฟเวอร์
llama.cppที่อิงกับ CUDA ถึงจะได้ประสิทธิภาพออกมาขอบคุณครับ เดิมทีผมแอบกังวลเพราะมี
coworkที่แค่เปิดพีซีทิ้งไว้ก็ทำหน้าที่เป็นเซิร์ฟเวอร์ได้แล้ว แต่ตอนนี้ก็โล่งใจขึ้นหน่อย และพอจะนึกภาพออกแล้วว่าจากนี้ไป จะเปลี่ยนไปอย่างไร 555มีการพูดถึงเรื่องนี้บน X และบอกว่าถ้าใช้กับ Docker การใส่ PID ของ Docker daemon แบบบังคับก็ใช้ได้เช่นกัน.
https://github.com/vercel-labs/portless/issues/61
เป็นบทความที่มีประโยชน์นะครับ
งั้นก็ลาก่อน error
EADDRINUSEได้เลยเหรอ?ช่วงนี้พอพัฒนานั่นนี่ผ่านเอเจนต์แล้วต้องรันอะไรต่อมิอะไรเต็มไปหมด มันก็ชนกันเองวุ่นวายเลย 55
แต่ตัวโมเดลเองก็เปลี่ยนไปภายในไม่กี่เดือน
และก็ต้องปรับ agents ให้เข้ากับโมเดลด้วย...
มันไม่ใช่ว่าการเปลี่ยนแปลงของโมเดลเร็วกว่าการใช้เวลาสร้างโครงสร้าง agents ที่เหมาะสมหรอกหรือครับ
เหมือนเครื่องมือเปลี่ยนไปเสียก่อนที่คนจะคุ้นเคยกับเครื่องมือนั้นเสียอีก...