- Anthropic ยอมรับว่าโฆษณามีส่วนช่วยในการแข่งขันและการค้นพบผลิตภัณฑ์ แต่เห็นว่า โฆษณาภายในบทสนทนา Claude ไม่เหมาะสม
- Claude ถูกออกแบบให้เป็น ผู้ช่วย AI ที่ไม่มีโฆษณา เพื่อช่วยผู้ใช้ในการคิดและการทำงาน โดย
โมเดลที่อิงโฆษณา อาจขัดแย้งกับผลประโยชน์ของผู้ใช้ ดังนั้น Anthropic จึงตัดสินใจ ตัดโฆษณาออกทั้งหมด
- เนื่องจากบทสนทนากับ Claude จำนวนมากมี หัวข้อส่วนตัวและอ่อนไหว การแทรกโฆษณาจึงไม่เหมาะสม
- Anthropic สร้างรายได้ผ่าน การสมัครใช้งานแบบชำระเงินและสัญญากับองค์กร และนำรายได้นั้นกลับไปลงทุนเพื่อพัฒนา Claude
- เพื่อคงให้ Claude เป็น เครื่องมือสำหรับการคิดที่เชื่อถือได้ ทุกการโต้ตอบจึงตั้งอยู่บน หลักการที่ผู้ใช้เป็นผู้กำหนด
หลักการของ Claude ที่ไม่มีโฆษณา
- Anthropic ยอมรับว่าโฆษณามีส่วนช่วยในการแข่งขันและการค้นพบผลิตภัณฑ์ แต่ระบุชัดว่า โฆษณาภายในบทสนทนา Claude ไม่เหมาะสม
- Claude เป็นเครื่องมือสำหรับ การคิดเชิงลึกและการช่วยงาน การแทรกโฆษณาจึงขัดกับจุดประสงค์นี้
- ผู้ใช้จะไม่ได้รับ ลิงก์สปอนเซอร์หรืออิทธิพลจากโฆษณา ระหว่างสนทนากับ Claude
- Claude ให้ ผลประโยชน์ของผู้ใช้มาก่อนเป็นอันดับแรก และไม่ได้รับอิทธิพลจากผู้ลงโฆษณาหรือการโปรโมตสินค้าของบุคคลที่สาม
ลักษณะและความเสี่ยงของบทสนทนา AI
- เสิร์ชเอนจินหรือโซเชียลมีเดียมักมี การผสมกันของคอนเทนต์แบบออร์แกนิกและแบบสปอนเซอร์ แต่บทสนทนา AI มีลักษณะ เปิดกว้างและเป็นส่วนตัว
- ผู้ใช้แชร์บริบทและข้อมูลมากกว่าการค้นหาทั่วไป
- จากการวิเคราะห์ของ Anthropic พบว่าบทสนทนากับ Claude จำนวนมากเกี่ยวข้องกับ หัวข้อที่อ่อนไหวหรือเป็นเรื่องส่วนตัว
- บางส่วนเกี่ยวข้องกับ วิศวกรรมซอฟต์แวร์ งานเชิงลึก และการแก้ปัญหาที่ซับซ้อน
- ในสถานการณ์เช่นนี้ โฆษณาอาจถูกมองว่า ไม่เหมาะสมหรือไม่เข้ากัน
- งานวิจัยระยะแรกชี้ว่าบทสนทนา AI อาจให้ การสนับสนุนทางจิตใจ ได้ แต่ก็มี ความเสี่ยงที่จะเสริมความเชื่อที่เป็นอันตรายให้ผู้ใช้ที่เปราะบาง
- การเพิ่มแรงจูงใจจากโฆษณาอาจนำไปสู่ ผลลัพธ์ที่คาดเดาไม่ได้
โครงสร้างแรงจูงใจและหลักการตามรัฐธรรมนูญ
- รัฐธรรมนูญ (Constitution) ของ Claude กำหนดให้ ‘การเป็นสิ่งที่ช่วยเหลือได้อย่างแท้จริง’ เป็นหลักการสำคัญ
- โมเดลที่อิงโฆษณาสร้าง แรงจูงใจที่ขัดแย้ง กับหลักการนี้
- ตัวอย่างเช่น เมื่อผู้ใช้พูดถึงอาการนอนไม่หลับ AI ที่ไม่มีโฆษณาจะมุ่งสำรวจสาเหตุ แต่ AI ที่อิงโฆษณาอาจมีแนวโน้ม มองหาโอกาสทางธุรกรรม
- ในกรณีเช่นนี้ ผู้ใช้อาจแยกได้ยากว่า คำแนะนำนั้นมีแรงจูงใจทางการค้าหรือไม่
- แม้แต่โฆษณาที่แยกออกมาในหน้าต่างสนทนาก็ยังทำลาย ความชัดเจนของพื้นที่สำหรับการคิด และกระตุ้นเป้าหมายที่ไม่ใช่สาระสำคัญ เช่น การเพิ่มเวลาในการมีส่วนร่วม
- การโต้ตอบกับ AI ที่มีประโยชน์ที่สุดอาจเป็นแบบ สั้น ชัดเจน และมุ่งแก้ปัญหา
- แม้จะมีแนวทางแบบโปร่งใสหรือ โฆษณาที่ผู้ใช้เลือกได้ แต่ในประวัติศาสตร์ แรงจูงใจจากโฆษณามักมีแนวโน้ม ขยายตัวอย่างค่อยเป็นค่อยไป จึงจะไม่นำมาใช้กับ Claude
โมเดลรายได้และแนวทางของ Anthropic
- Anthropic สร้างรายได้ผ่าน สัญญากับองค์กรและการสมัครใช้งานแบบชำระเงิน และนำรายได้นั้นกลับไปลงทุนเพื่อพัฒนา Claude
- บริษัทยอมรับว่าบริษัท AI อื่นอาจตัดสินใจแตกต่างออกไป
- เพื่อขยายการเข้าถึง Claude บริษัทมุ่งสร้างประโยชน์สาธารณะ โดยไม่ใช้โฆษณาหรือขายข้อมูล
- มอบ เครื่องมือ AI และการศึกษา ให้แก่นักการศึกษาในกว่า 60 ประเทศ
- ดำเนิน โครงการนำร่องด้านการศึกษา AI ระดับประเทศ ร่วมกับหลายรัฐบาล
- มอบส่วนลดให้องค์กรไม่แสวงหากำไร และยังคงลงทุนในโมเดลฟรีต่อไป
- ในอนาคตอาจพิจารณา แพ็กเกจสมัครใช้งานราคาประหยัดและราคาตามภูมิภาค โดยจะรักษาความโปร่งใสหากมีการเปลี่ยนแปลง
ฟีเจอร์ด้านการค้าและการเชื่อมต่อ
- Anthropic ตั้งเป้าที่จะสนับสนุน การค้าแบบยึดผู้ใช้เป็นศูนย์กลาง
- กำลังสำรวจความเป็นไปได้ของ agentic commerce ที่ Claude สามารถ จัดการการซื้อหรือการจองแทนผู้ใช้
- จะให้ฟังก์ชัน เปรียบเทียบสินค้า การซื้อ และการเชื่อมต่อกับธุรกิจ เฉพาะเมื่อผู้ใช้ต้องการเท่านั้น
- Claude รองรับ การเชื่อมต่อกับเครื่องมือทำงาน เช่น Figma, Asana, Canva อยู่แล้ว
- ในอนาคตมีแผนขยาย ฟีเจอร์การเชื่อมต่อที่เน้นด้านประสิทธิภาพการทำงาน เพิ่มขึ้น
- ทุกการโต้ตอบกับบุคคลที่สามตั้งอยู่บน หลักการที่ผู้ใช้เป็นผู้กำหนด
- Claude จะ ตอบสนองเฉพาะเมื่อผู้ใช้ร้องขอ และไม่ทำงานเพื่อผลประโยชน์ของผู้ลงโฆษณา
- ตัวอย่างเช่น การค้นหารองเท้าวิ่ง การเปรียบเทียบสินเชื่อ หรือการแนะนำร้านอาหาร ก็ยังคงมีเป้าหมาย เพื่อช่วยเหลือเท่านั้น
Claude ในฐานะเครื่องมือสำหรับการคิดที่เชื่อถือได้
- Claude ถูกออกแบบมาเพื่อช่วยให้ผู้ใช้ คิดอย่างลึกซึ้งเกี่ยวกับงาน ภารกิจ และไอเดียต่าง ๆ
- แม้โฆษณาจะพบได้ทั่วไปบนอินเทอร์เน็ต แต่ พื้นที่คิดที่สะอาดอย่างแล็ปท็อปหรือกระดานไวต์บอร์ด ไม่มีโฆษณา
- Anthropic ต้องการให้ Claude ทำงานเป็น พื้นที่สำหรับการคิดในลักษณะนั้น
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
บทความนี้ให้ความรู้สึกเหมือนคำประกาศแบบ “don’t be evil” ที่บริษัทต่างๆ มักลบทิ้งเมื่อถึงคราวลำบาก
ถึงอย่างนั้นก็ยังถือเป็นเรื่องดีที่ Anthropic ยังพอมีพื้นที่หายใจจนออกบล็อกแบบนี้มาได้
ทุกวันนี้เสิร์ชเอนจินกรองสัญญาณกับ noise ไม่ได้แล้ว จนกลายเป็นพื้นที่ที่เป็นปฏิปักษ์กับผู้ใช้จริงๆ
เต็มไปด้วยแบนเนอร์คุกกี้ โฆษณาเล่นอัตโนมัติ และคอนเทนต์ที่ AI สร้าง
ในสถานการณ์แบบนี้ การถาม Perplexity, ChatGPT, Claude ให้ประสบการณ์ที่เป็นมนุษย์กว่ามาก
ถ้าเอาโฆษณาใส่เข้าไปด้วย ก็เท่ากับไม่สนใจศักดิ์ศรีของผู้ใช้โดยสิ้นเชิง
อย่างน้อย AI ตอนนี้ก็ยังให้ความรู้สึกเหมือนเป็น พื้นที่ที่ฉันคิดได้โดยไม่ถูกชักจูง
มันยังเหมือนดินแดนบุกเบิกที่ไม่ถูกทำให้ปนเปื้อน และคนที่ทำงานกับเทคโนโลยีก็ยังมีบรรยากาศแบบศิษย์พ่อมดผู้เปี่ยมแพสชัน
แต่ก็ไม่รู้ว่าความบริสุทธิ์แบบนี้จะอยู่ได้นานแค่ไหน
เลยสงสัยว่ามีกรณีที่บริษัทอย่าง PBC หรือ B-Corp ต้องรับผิดทางกฎหมายเมื่อทรยศต่อคุณค่าที่ประกาศไว้หรือไม่
ถึงอย่างนั้นก็ยังดีที่อย่างน้อยเรายังได้ใช้เวลา แบบไม่มีโฆษณา ต่อไปอีกหน่อย
มันพอใช้ได้เวลาจะจับภาพรวมของหัวข้อที่ไม่คุ้นเคย แต่ถ้าเกินกว่านั้นก็ต้องกลับไปใช้ Kagi หรือ Google
คำตอบไม่สม่ำเสมอจนเชื่อถือยาก — ถ้าถามคำถามเดียวกันห้าครั้ง อาจได้ค่าอุณหภูมิต่างกันครั้งละ 10°C
สรุปคือ เชื่อคำตอบของ LLM ไม่ได้
การบอกว่า “AI ไม่มีโฆษณา” เป็นแค่ คำสัญญาราคาถูก
โฆษณาเป็นของยุคเก่าไปแล้ว และ AI สามารถ มีอิทธิพล ต่อพฤติกรรมของผู้คนได้ละเอียดกว่านั้นมากแม้ไม่มีโฆษณา
หวังว่า Anthropic จะได้เป็น ‘บริษัทที่ดี’ จริงๆ
จนถึงตอนนี้ทิศทางก็ดูโอเค
แต่ความร่วมมือกับ Palantir (ลิงก์) หรือความพยายามดึงนักลงทุนแนวอำนาจนิยม (ลิงก์) ก็น่ากังวล
สุดท้ายยิ่งการแข่งขันดุเดือดขึ้นเท่าไร ก็ดูเหมือนการประนีประนอมระหว่างคุณค่ากับความจริงจะยิ่งเลี่ยงไม่ได้
แม้แต่ชื่อก็ถูกตั้งมาให้ชวนรู้สึกแบบนั้น และก็จะรักษาไว้ตราบใดที่ยังทำกำไรได้
ถึงอย่างนั้น Claude ก็ยังเป็นเครื่องมือที่ฉันใช้บ่อย
ปฏิเสธโอเพนซอร์สอย่างเด็ดขาด และใช้เรื่องความปลอดภัยเป็นเหตุผลในการกันไม่ให้เผยแพร่โมเดล
ท่าทีแบบนั้นก็เห็นได้จาก ข้อเสนอแนะของบริษัทเอง
สุดท้ายแล้วเงินต่างหากคือเกณฑ์ และจริยธรรมก็เปลี่ยนไปตามสถานการณ์
Anthropic กันไม่ให้คู่แข่งเข้าถึง ต้องการ คุมฮาร์ดแวร์เข้มขึ้น และร่วมมือกับ Palantir·DoD
สำหรับบริษัทขนาดนี้ ฉันไม่คิดว่าจะมี ‘บริษัทที่ดี’ อยู่จริง
ความหวังมีแค่โมเดลเปิดเท่านั้น และอย่างน้อยห้องแล็บจีนก็กำลังไปทางนั้น
‘บริษัทที่ดี’ จริงๆ คือบริษัทที่ทำให้ผู้ใช้รันโมเดลได้ด้วยตัวเอง
Anthropic กลับใกล้เคียงกับฝั่งแย่ที่สุดด้วยซ้ำ
CEO ข่มขู่พนักงาน และร่วมมือกับ Palantir·ICE
ในเชิงจริยธรรมฉันกลับมองว่าบริษัทจีนดีกว่า
ดูเหมือน Anthropic จะวาง ทิศทางที่ชัดเจน แล้ว
ChatGPT อยู่ในตำแหน่งแชตบอตแทนการค้นหา ส่วน Claude วางตัวเป็น ม้างาน ด้านการพัฒนาและอัตโนมัติ
OpenAI ชู นโยบายโฆษณา แต่คำว่า ‘รักษาความเป็นอิสระ’ นั้นวัดผลไม่ได้
ในทางกลับกัน Anthropic ดูเหมือนจะยอมทิ้งโฆษณาและไปทาง โมเดลแบบสมัครสมาชิก
ทั้งสองบริษัทต่างก็ยังขาดทุนอยู่
ตัวอย่าง: ค้นหา 39dollarglasses.com แล้วโฆษณาของอีกบริษัทหนึ่งกลับขึ้นมาเป็นอันดับแรก
เพราะข้อจำกัดเซสชันของ Claude Pro มันน่ารำคาญ
ฉันคิดว่าใช้สองบริการ ควบคู่กัน มีประสิทธิภาพที่สุด
นี่น่าจะเป็นโพสต์ที่กลับมาอ่านทีหลังแล้ว น่าขำดีเมื่อมีการใส่โฆษณาในอนาคต
ยังไงนักลงทุนก็ต้องเรียกร้องรายได้
ผู้ใช้อาจน้อยกว่า แต่สัดส่วน ลูกค้าที่จ่ายเงิน น่าจะสูง
ต่อไปก็มีโอกาสสูงที่ Amazon, eBay และที่อื่นๆ จะทำ ความร่วมมือผ่าน API กับ AI
แม้แต่ในแถลงการณ์ของ Anthropic เองก็ระบุว่าสนใจ ‘agentic commerce’
สิ่งสำคัญที่ AI ต้องข้ามให้ได้คือ การสร้างความไว้วางใจ
ผู้ใช้ไม่ไว้ใจบริษัทใหญ่ และนักลงทุนเองก็ยังกังวล
Claude ใช้คำว่า ‘ไม่มีโฆษณา’ ทำการตลาดเรื่องความไว้วางใจ แต่ความไว้วางใจจริงๆ ครอบคลุมประเด็นที่กว้างกว่านั้น เช่น privacy·transparency·accuracy
การจะได้ความไว้วางใจในระดับนี้แทบเป็นไปไม่ได้เลย
ปัญหาของโมเดลที่อิงโฆษณาไม่ใช่แค่เรื่องอคติ แต่เป็น ข้อจำกัดของโครงสร้างรายได้
ถ้าจะให้รายได้โฆษณารับภาระต้นทุนคอมพิวต์ได้ ก็ต้องทำให้โมเดลง่ายลง
ChatGPT 5 คือหนึ่งในตัวอย่าง เพราะเพื่อลดต้นทุนจึง ยอมสละความฉลาดและความอยากรู้อยากเห็น
เพราะแบบนั้นฉันเลยเลิกใช้ OpenAI แล้วเปลี่ยนมา Claude
โมเดลโฆษณา ไม่เหมาะโดยพื้นฐาน กับการสร้าง ‘เครื่องมือทางปัญญาที่ดีที่สุด’
ถ้าใช้โฆษณามาช่วยอุดหนุนผู้ใช้ฟรี รายได้ก็อาจโตมาก
Anthropic น่าจะแข่งกับโครงสร้างแบบนี้ได้ยาก
บทความแบบนี้อาจเป็นแค่ สัญญาณเชิงคุณค่า ก็ได้ แต่ Anthropic ก็ทำโปรเจกต์ด้าน ความโปร่งใสและการอธิบายกระบวนการคิด มาอย่างต่อเนื่อง
จนถึงตอนนี้แนวทางที่ผ่านมาก็ดูจริงใจและให้ความเคารพ
หวังว่าจะรักษาเส้นทางนี้ต่อไปได้
ดูเหมือน Anthropic อยากขาย บริการสมัครสมาชิกรายเดือน มากกว่าโฆษณา
ข้อความว่า “มาที่นี่เพื่อคิด” สุดท้ายก็เป็น การวางตำแหน่งแบรนด์
ฉันยังชอบ คิดบน Wikipedia มากกว่า
คุยเรื่องไอเดียมากกว่าการสร้างโค้ดเสียอีก
โดยเฉพาะกับปัญหาปลายเปิดอย่างการวางแผนท่องเที่ยว มันมีประโยชน์มาก
มันรับมือกับคำขอแบบ “อยากไปเที่ยวที่อากาศอบอุ่นและมีชายหาด ไม่เกี่ยงวัน” ได้ดี
พอคุยกับ Claude แล้วมักเจอไอเดียที่ไม่คาดคิดบ่อยกว่า
ในแง่การระดมทุนหรืออัตราการเติบโตอาจเสียเปรียบ แต่ฉันคิดว่าทางเลือกของ Anthropic ถูกต้อง
Anthropic เน้นภาพลักษณ์ ‘ฝ่ายดี’ มาตลอด
ถ้า ChatGPT ใส่โฆษณาจริง ฉันก็สงสัยว่า Anthropic จะอยู่รอดด้วย รายได้จากฝั่ง enterprise ได้ไหม
OpenAI อาจกำลังเลือกกลยุทธ์ที่ให้คนเข้าถึงได้มากกว่า
Claude ยังด้อยกว่า ChatGPT ในด้านความสามารถการค้นหา
สักวันก็ต้องหาวิธีเอาทุนคืนนั้นกลับมา