- ผลการวิจัยที่วิเคราะห์ แนวโน้มการเลือกเครื่องมือของ Claude Code จากคลังโอเพนซอร์สจริง 2,430 แห่ง
- จากทั้งหมด 20 หมวดหมู่ พบว่าใน 12 หมวดหมู่ Claude Code เลือกวิธี สร้างเองโดยตรง (Custom/DIY) แทนเครื่องมือสำเร็จรูป ซึ่งเป็นรูปแบบการเลือกที่พบบ่อยที่สุด
- ในทางกลับกัน เมื่อเลือกเครื่องมือกลับมีการกระจุกตัวสูงไปที่บางรายการ เช่น GitHub Actions(94%), Stripe(91%), shadcn/ui(90%)
- สภาพแวดล้อมการดีพลอยถูกตรึงตามภาษา โดย JS เลือก Vercel เป็นค่าพื้นฐาน ส่วน Python เลือก Railway และตัด AWS·GCP·Azure ออกจากตัวเลือกอันดับแรก
- ยิ่งเป็นโมเดลรุ่นใหม่ ยิ่งเห็นแนวโน้ม เปลี่ยนไปใช้เครื่องมือรุ่นใหม่อย่าง Drizzle, FastAPI BackgroundTasks ชัดเจนขึ้น และความสม่ำเสมอในการเลือกภายในอีโคซิสเต็มอยู่ที่ระดับ 90%
ภาพรวมงานวิจัย
- ใช้ Claude Code v2.1.39 ทำการทดลอง รวม 2,430 ครั้ง เพื่อสังเกตการเลือกเครื่องมือผ่านคำถามปลายเปิดในคลังจริง
- 3 โมเดล (Sonnet 4.5, Opus 4.5, Opus 4.6), 4 ประเภทโปรเจกต์, 20 หมวดหมู่เครื่องมือ
- อัตราการดึงข้อมูลได้ 85.3%, ได้คำตอบที่ใช้ได้ 2,073 รายการ
- ระหว่างโมเดลมี อัตราความสอดคล้อง 90% และใน 18 จาก 20 หมวดหมู่ยังคงความสม่ำเสมอของการเลือกภายในอีโคซิสเต็มเดียวกัน
ข้อค้นพบหลัก: Build vs Buy
- ใน 12 จาก 20 หมวดหมู่ การสร้างเองแบบ Custom/DIY เป็นตัวเลือกที่พบบ่อยที่สุด
- มีการเลือก Custom/DIY รวม 252 ครั้ง มากกว่าเครื่องมือใดเครื่องมือหนึ่ง
- ตัวอย่าง: feature flag ทำผ่านไฟล์ตั้งค่าที่อิง environment variable, authentication ของ Python เขียนเองด้วย JWT + passlib, caching ใช้ in-memory TTL wrapper
- สัดส่วน Custom/DIY แยกตามหมวดหมู่
- Feature Flags 69%, Authentication(Python) 100%, Authentication(รวม) 48%, Observability 22%
สแต็กพื้นฐาน(Default Stack)
- เมื่อ Claude Code เลือกเครื่องมือจริง จะก่อรูปเป็น สแต็กพื้นฐานที่มีศูนย์กลางอยู่ในอีโคซิสเต็ม JS
- เครื่องมือที่ถูกเลือกสูงสุด: Zustand(64.8%), Sentry(63.1%) เป็นต้น
- บางกรณี การเลือกที่เกี่ยวข้องกับ JS กระจุกตัวไปยังเครื่องมือเดียว 100%
- สแต็กพื้นฐานนี้ส่งผล โดยตรงต่อการพัฒนาแอปพลิเคชันใหม่จำนวนมาก
ความต่างจากกระแสหลักของตลาด(Against the Grain)
- ในบรรดาเครื่องมือที่มีส่วนแบ่งตลาดสูง มีบางรายการที่ Claude Code แทบไม่ใช้เลย
- การจัดการ state: ไม่มีตัวเลือกหลักจากรายใหญ่ แต่เลือก Zustand 57 ครั้ง
- API Layer: ชอบใช้ routing ที่เฟรมเวิร์กมีมาให้
- การทดสอบ: มีเพียง 4% ที่เป็นตัวเลือกหลัก, อีก 31 ครั้งเป็นตัวเลือกทางเลือก
- package manager: เป็นตัวเลือกหลัก 1 ครั้ง, ตัวเลือกทางเลือก 51 ครั้ง
แนวโน้มการสลับเครื่องมือในโมเดลรุ่นใหม่(The Recency Gradient)
- ยิ่งเป็นโมเดลใหม่ ยิ่งเปลี่ยนไปใช้เครื่องมือรุ่นใหม่
- JS ORM: Prisma(79%) → Drizzle(100%)
- งานประมวลผลของ Python: Celery(100%) → FastAPI BackgroundTasks(44%)
- caching ของ Python: Redis(93%) → Custom/DIY(50%)
- ภายในแต่ละอีโคซิสเต็ม สังเกตเห็น การเปลี่ยนรุ่นของเครื่องมืออย่างชัดเจน
การแยกตัวของสภาพแวดล้อมการดีพลอย(The Deployment Split)
- การเลือกแพลตฟอร์มดีพลอย ถูกตรึงตามภาษาในสแต็ก
- JS(Next.js + React SPA): 86 จาก 86 ครั้งเลือก Vercel
- Python(FastAPI): เลือก Railway 82%
- AWS, GCP, Azure มี จำนวนครั้งที่เป็นตัวเลือกหลักเท่ากับ 0 จากทั้งหมด 112 ครั้ง
- ในฐานะคำแนะนำทางเลือก มี Netlify(67 ครั้ง), Cloudflare Pages(30 ครั้ง), GitHub Pages(26 ครั้ง), DigitalOcean(7 ครั้ง)
- AWS Amplify, Firebase Hosting เป็นต้น ถูกกล่าวถึงเท่านั้นแต่ไม่ได้รับการแนะนำ
- ในตัวอย่างคำตอบ Vercel มีทั้งคำสั่งติดตั้งและเหตุผลประกอบ ขณะที่ AWS Amplify ถูกพูดถึงเพียงบรรทัดเดียว
จุดที่โมเดลเห็นต่างกัน(Where Models Disagree)
- มี 5 จาก 20 หมวดหมู่ที่โมเดลเลือกต่างกัน
- JS ORM: Prisma → Drizzle
- JS Jobs: BullMQ → Inngest
- Python Jobs: Celery → FastAPI BgTasks
- Caching: Redis → Custom/DIY
- Real-time: SSE → Custom/DIY
- อีก 18 หมวดหมู่ที่เหลือยังคงการเลือกที่สม่ำเสมอภายในอีโคซิสเต็ม
บริการเบนช์มาร์กสำหรับองค์กร
- Amplifying ให้บริการ แดชบอร์ดแบบปิดสำหรับบริษัทผู้พัฒนาเครื่องมือ
- สามารถตรวจสอบได้ว่า AI agent แนะนำเครื่องมือของตนเมื่อเทียบกับคู่แข่งมากน้อยเพียงใด
- รองรับการวิเคราะห์ ความสามารถในการแข่งขันของคำแนะนำเครื่องมือ บนฐานของ codebase จริง
การสำรวจข้อมูล
- รายการวิเคราะห์เชิงลึกประกอบด้วย การวิเคราะห์รายหมวดหมู่, ความคงที่ของถ้อยคำ, ความสม่ำเสมอข้ามคลัง, อิทธิพลต่อตลาด เป็นต้น
- ผลการวิจัยมีแผนอัปเดตต่อไปโดยอิงตามโมเดล Sonnet 4.6
4 ความคิดเห็น
น่าสนใจนะ แต่ก็แอบคิดเหมือนกันว่าสุดท้ายมันอาจจะวิวัฒน์ไปในทางที่ใช้โทเค็นของตัวเองเยอะ ๆ แล้วก็เก็บค่าใช้จ่ายแพงขึ้นหรือเปล่า และจริง ๆ แล้วไลบรารีบางส่วนก็ดูเหมือนว่า AI เรียนรู้มาแล้วเลยสร้างขึ้นมาได้เองหรือเปล่า
พอคิดว่าถ้าตัวเอเจนต์มีความชอบ ไลบรารีเฉพาะบางตัวเท่านั้นที่จะพัฒนาต่อ ก็รู้สึกแปลก ๆ เหมือนกันครับ
เป็นงานวิจัยที่น่าสนใจครับ โดยเฉพาะตรง "Build vs Buy" ที่มีถึง 12/20 หมวดหมู่เป็นแบบ DIY นั้นน่าประทับใจมาก
ฝั่งเราก็สังเกตเห็นคล้ายกันตอนทำมาตรฐานเพอร์โซนา AI agent (Soul Spec) คือถ้าไม่ได้ระบุเครื่องมือให้ Claude Code ชัดเจนผ่าน CLAUDE.md หรือ AGENTS.md มันจะมีแนวโน้มสูงที่จะลงมือทำในแบบของตัวเอง
สิ่งที่ "Recency Gradient" ในงานวิจัยนี้ชี้ให้เห็น น่าจะเป็นว่าถ้าอยากให้เครื่องมือใหม่เข้าไปอยู่ในสแตกพื้นฐานของ Claude ก็ต้องถูกเปิดรับในข้อมูลฝึกอย่างเพียงพอ หรือไม่ก็ต้องระบุไว้แบบชัดเจนในไฟล์คอนเท็กซ์ของโปรเจกต์ สุดท้ายแล้ว Context Engineering ก็กลายเป็นตัวกำหนดไปถึงการเลือกเครื่องมือด้วยนั่นเอง
ดีด้วยที่มีการเปิดเผยชุดข้อมูลต้นฉบับไว้ด้วย: https://github.com/amplifying-ai/claude-code-picks
เขาเรียกสิ่งนี้ว่า Assistive agent optimization (AAO)
ตอนนี้สำหรับเครื่องมือสำหรับนักพัฒนา การกลายเป็นผลิตภัณฑ์ที่เอเจนต์ชื่นชอบกลายเป็นเรื่องสำคัญแล้ว
ถ้าเอเจนต์ไม่พูดถึงเลย ก็จะค่อย ๆ ห่างไกลออกไป
ความคิดเห็นจาก Hacker News
คิดว่าอนาคตของโฆษณาในยุค LLM คือการ มองไม่เห็นอย่างสมบูรณ์
สุดท้ายมันก็จะกลายเป็น ‘อินฟลูเอนเซอร์’ ที่ทรงอิทธิพลที่สุด
หรืออาจไม่ใช่เรื่องโฆษณา แต่เป็นปัญหา ผลประโยชน์ทับซ้อน (conflict of interest)
ตัวอย่างเช่น ถ้า Gemini มีแนวโน้มชอบสแต็กที่สร้างบน GCP มากกว่า นั่นก็อาจเป็นสัญญาณหนึ่ง
งานวิจัยของ Anthropic ชี้ให้เห็นว่ามีวิธีทำให้ผลิตภัณฑ์ถูกมองเห็นใน LLM ได้โดยไม่ต้องพึ่ง SEO
รอราว 6 เดือนให้ crawler เก็บไปใช้เป็นข้อมูลฝึก → สุดท้ายก็ทำกำไรได้
ถ้าตอนนั้นใช้ Gemini อยู่ คิดว่าเรื่องแบบนี้คงไม่เกิด
นี่แหละคือการทำ ‘Nudge’ ให้สุดทาง
ในอนาคต ระบบเขียนโค้ดแบบเอเจนต์ จะตัดสินใจเองว่าจะสร้างอะไร และมนุษย์จะได้แค่ผลลัพธ์โดยไม่เคยเห็นตัวเลือกเลย
แม้แต่ซัพพลายเชนก็จะถูกกำหนดโดย LLM
แพลตฟอร์มควบคุม ‘ชั้นวางสินค้า’ แล้วดูว่าฟีเจอร์ SaaS แบบไหนกำลังฮิต ก่อนทำแบรนด์ของตัวเองออกมา เช่น Great Value หรือ Amazon Basics
ซอฟต์แวร์ทำภาษีน่าจะเป็นตัวอย่างที่ชัด
สิ่งที่น่าสนใจคือ สไตล์เว็บของ Claude Code ที่บทความนี้พูดถึง มันปรากฏชัดอยู่บนบล็อกนั้นจริง ๆ
ฟอนต์ JetBrains Mono เป็นลักษณะเด่นของเว็บที่สร้างโดย Opus 4.6
ช่วงเดือนที่ผ่านมา หน้าเว็บกว่า 99% ที่ใช้ JetBrains Mono มากเกินไปดูเหมือนจะสร้างด้วย Opus
Opus 4.6 เลือก Drizzle 32.5% ขณะที่ Prisma มีแค่ 20.5%
ยิ่งโมเดลเก่งเท่าไร ก็ยิ่งมีแนวโน้มเลือก Prisma น้อยลง — จนรู้สึกเหมือนเป็น benchmark วัดความฉลาด อย่างหนึ่ง
อีกตัวอย่างคือ youjustneedpostgres.com ที่ก็ใช้ JetBrains Mono หนักมากเหมือนกัน
ดีไซน์แถบหมวดหมู่แทบเหมือนกับ UI ที่ฉันเผลอ generate เมื่อวานเลย
CSS แบบการ์ดให้ความรู้สึกเหมือนกันหมด เลยเดาว่าบล็อกนี้ก็คงถูกทำมาแนวเดียวกัน
ฉันไม่ให้ prompt ที่คลุมเครือ กับ LLM
แต่กำลังหัดวิธีดึงข้อมูลที่แม่นยำจาก LLM ใหม่ในปี 2026
มันให้ความรู้สึกเหมือนตอนต้องเรียนรู้การค้นหา Google ใหม่อีกครั้งในปี 2006
ฉันใช้ ‘reverse prompt’ ให้โมเดลหนึ่งตรวจสอบสมมติฐานของอีกโมเดล
เช่น ถ้าสงสัยผลจาก Opus 4.6 ก็ส่งต่อให้ ChatGPT หรือ Codex ช่วย หาจุดอ่อน
Claude ค่อนข้างดื้อน้อยกว่า ส่วน ChatGPT กับ Codex เด็ดขาดกว่าแต่หลายครั้งก็แม่นยำกว่า
มีครั้งหนึ่งเกี่ยวกับปัญหา Docker container ที่ Claude บอกว่าเป็นบั๊กของ ZFS แต่ ChatGPT บอกว่าเป็นแค่การตั้งค่าผิด และก็ถูกจริง
ฉันเลยใช้ การตรวจสอบข้ามกันระหว่าง LLM เพื่อหาคำตอบที่ถูกต้อง
แล้วมันจะถามเยอะมากจริง ๆ
คือให้มันแก้แผนไปเรื่อย ๆ จนกว่าจะได้รายละเอียดที่พอ และทำให้มันถามคำถามที่จำเป็นมากขึ้นด้วย
แพ็กเกจ ChatGPT ยังไม่เคยชนลิมิต แต่ถ้าบางครั้งมี error ก็จะเปิด Claude ในอีก terminal หนึ่ง
งบ Claude ของบริษัทฉันจำกัดมาก แค่ 750 ดอลลาร์ต่อเดือน
ฉันใช้ TimescaleDB บน AWS อยู่
Claude Code กำลังจัดการ EC2 instance ผ่าน AWS CLI
แต่เช้านี้ Claude กลับเสนอให้ สมัครบัญชี NeonDB กับ Fly.io
ทั้งที่ระบบบน AWS ของฉันก็ตั้งค่าไว้พร้อมแล้ว เลยงงว่าทำไมถึงแนะนำบริการใหม่
จากประสบการณ์ของฉัน LLM agent ตัดสินใจเรื่อง สถาปัตยกรรมได้แย่มาก
มันหมกมุ่นกับ abstraction และ version management ที่ไม่จำเป็น จนโค้ดซับซ้อนเกินเหตุ
สุดท้ายก็ต้องกลับมาเขียนเอง
ฉันใช้ Planetscale กับทุกโปรเจกต์ แต่ Claude กลับแนะนำ Neon
ดูเป็นแค่ บั๊ก มากกว่า
น่าสนใจที่ Opus 4.6 ถูกเรียกว่า ‘มองไปข้างหน้า’
ฉันใช้ 4.5 มาหนึ่งเดือน แล้วเริ่มโปรเจกต์ใหม่ด้วย 4.6 และมันถึงขั้น ค้นเว็บในช่วงวางแผน
โมเดลพัฒนาไปไกลมากแล้ว แต่โจทย์หลักก็ยังเป็นเรื่อง การประสานงานและการแบ่งบทบาท
เมื่อก่อนฉันเคยปล่อยแอป Android ได้เองด้วย GPT-3.5 (ลิงก์แอป)
งานที่เมื่อก่อนใช้เวลาหนึ่งสัปดาห์ ตอนนี้ทำได้ด้วย prompt เดียว
ถ้า orchestrate LLM ได้ดี ก็จะได้ผลลัพธ์เร็วขึ้นมาก
สิ่งที่ฉันรู้สึกจากการเขียนโค้ดร่วมกับ LLM คือ โดยเฉพาะในสายเว็บ การพึ่งพาแพ็กเกจ npm ลดลงมาก
เมื่อก่อนฉันใช้พวก jwt auth หรือ build plugin แต่ตอนนี้แทนได้ด้วย โค้ดไม่กี่บรรทัด
โค้ดจึงเรียบง่าย เข้าใจง่าย และน่าเชื่อถือกว่า
ปี 2010 jQuery ยังเป็นราชาของ JS แต่ตอนนี้ใช้ pure JS ก็พอ
อย่างไรก็ตาม โค้ดด้านความปลอดภัยอย่าง JWT ถ้า Claude เขียนให้ ฉันก็คงไม่เอาไปใช้ตรง ๆ
ตอนนี้บางครั้งเขียนเองอาจดีกว่า
โค้ดซ้ำอาจมากขึ้น แต่ปัญหา dependency จะน้อยลง
ฉันจะบอก Claude เสมอว่าต้องใช้ library และเทคโนโลยีที่มีสิทธิบัตร อะไรบ้าง
ฉันคิดว่านักพัฒนาต้องสามารถ ชี้นำ โมเดลได้ดี
ถ้าไม่มั่นใจ ฉันก็จะเปิดอีกหน้าต่างหนึ่งถามเรื่องสถาปัตยกรรมหรือข้อดีข้อเสีย แล้วค่อยตัดสินใจ
ในสองโปรเจกต์ Claude เพิ่ม Github Actions เข้ามาให้อัตโนมัติ
ทั้งที่ฉันไม่ได้ขอ และเพราะมันอยู่ในโฟลเดอร์ซ่อนเลยพลาดไปตอนดู git diff
โชคดีที่เสียค่าใช้จ่ายไปแค่ 4 เซนต์ แต่ก็เป็นประสบการณ์ที่ น่ากังวล มาก
มีเรื่องที่สงสัย
ทำไม shadcn/ui ถึงกลายเป็น UI library พื้นฐานแบบนี้ได้?
ไม่ใช่แค่ Claude แต่โมเดลอื่นก็ใช้เป็นค่าเริ่มต้น
ถ้าสั่งว่าไม่ให้ใช้ shadcn คุณภาพหรือความเร็วจะลดลงไหม?
หรือเป็นเพราะ เอกสารและตัวอย่างมีเยอะมาก หรือแค่เพราะมันโผล่ในข้อมูลฝึกเยอะเกินไป?
ฉันเองก็แปลกใจเหมือนกัน ตอนเห็น Gemini ใส่ shadcn มาเป็นค่าพื้นฐานใน React dashboard ราวกลางปี 2025
shadcn/ui สร้างบน Tailwind เลยเป็นของโปรดของ AI
จริง ๆ ยอดดาวน์โหลด npm ก็พุ่งแรงตั้งแต่หลังเดือนธันวาคม
ลิงก์แพ็กเกจ npm
มี component library ที่เก่ากว่านี้อีกเยอะ แต่ทำไมตัวนี้ถึงชนะ น่าจะคุ้มค่าที่จะ วิเคราะห์แบบวิทยาศาสตร์
องค์ประกอบมันสม่ำเสมอ และปรับแต่งง่าย ทำให้ รวมเข้ากับโปรเจกต์ได้สะดวก
เป็นโปรเจกต์ที่ทำออกมาได้ดีมากจริง ๆ
ตอนนี้ถ้าเห็นเว็บที่ใช้สไตล์เริ่มต้นของ shadcn แบบแทบไม่แตะเลย ฉันจะรู้สึกว่าเป็นสัญญาณของ เว็บไซต์ที่ AI สร้าง
เหมือนกับที่ Bootstrap เคยเป็นเมื่อ 10 ปีก่อน เพราะสไตล์เริ่มต้นมันถูกใช้กันพร่ำเพรื่อเกินไป
ถ้าอย่างนั้น มันจะนับเป็นร่องรอยของ AI ได้แน่หรือ?
แล้วคำเปรียบเทียบว่า “Bootstrap เมื่อ 10 ปีก่อน” นี่หมายถึงอะไรแน่?