- เมื่อบริษัทต่าง ๆ นำแชตบอตที่ใช้ LLM มาใช้เพื่อ ทำระบบบริการลูกค้าอัตโนมัติ การเข้าถึงเจ้าหน้าที่มนุษย์ก็ถูกจำกัดลง และ คำตอบที่ไม่จริงกับความผิดพลาด ก็กลายเป็นเรื่องปกติในชีวิตประจำวัน
- ระบบเหล่านี้ ทำงานแบบเลือกปฏิบัติตามชนชั้นทางเศรษฐกิจ โดยลูกค้าทั่วไปจะติดอยู่กับคำตอบอัตโนมัติ ขณะที่มีเพียงลูกค้าระดับพรีเมียมที่ได้รับการช่วยเหลือจากมนุษย์
- LLM กำลังขยายไปสู่ พื้นที่การตัดสินใจที่คลุมเครือ เช่น การพิจารณาประกันและการตั้งราคา ทำให้ผู้คนต้องใช้เวลากับ การโต้เถียงและโน้มน้าวเครื่องจักร มากขึ้น
- ความไม่ชัดเจนด้านความรับผิดชอบและอคติทางสังคม ของระบบ ML ก่อให้เกิดความเสียหายจริง เช่น การกักขังโดยไม่เป็นธรรมและการระบุตัวผิดพลาด และด้วยโครงสร้างที่ซับซ้อนจึง ยากต่อการเอาผิดผู้รับผิดชอบ
- หาก Agentic commerce ที่ให้ LLM ทำการชำระเงินและซื้อสินค้าโดยอัตโนมัติแพร่หลาย ก็มีความเป็นไปได้ว่า การชักจูง การฉ้อโกง และการผลักภาระต้นทุน จะรุนแรงขึ้น และทำให้ ‘ความน่ารำคาญที่ไม่เท่าเทียม’ ฝังแน่นยิ่งกว่าเดิม
ความไม่สะดวกของระบบบริการลูกค้าอัตโนมัติ
- บริษัทต่าง ๆ กำลังเปลี่ยนการติดต่อสอบถามไปสู่แชตบอตที่ใช้ LLM เพื่อ ลดต้นทุนการสนับสนุนลูกค้า และแนวโน้มการเชื่อมต่อกับเจ้าหน้าที่มนุษย์ก็ยากขึ้นเรื่อย ๆ
- ด้วยพัฒนาการของโมเดลเสียง การให้คำปรึกษาทางโทรศัพท์ก็มีความเป็นไปได้ที่จะถูกทำให้เป็นอัตโนมัติเช่นกัน
- LLM ให้คำตอบที่สุภาพและอดทน แต่ก็ทำให้การแก้ปัญหาล่าช้าด้วยการตอบ ไม่จริงและผิดพลาด ซ้ำ ๆ
- ระบบเหล่านี้ ทำงานแบบเลือกปฏิบัติตามชนชั้นทางเศรษฐกิจ
- ลูกค้าระดับราคาสูงยังคงเข้าถึงเจ้าหน้าที่มนุษย์ได้ แต่ลูกค้าทั่วไปกลับถูกขังอยู่ในการสนทนากับ LLM
- LLM เปราะบางต่อ ความคาดเดาไม่ได้และการโจมตีแบบ injection attack จึงถูกจำกัดอำนาจในการกระทำสิ่งต่าง ๆ นอกระบบ
- มันมีประโยชน์กับปัญหาง่าย ๆ แต่สำหรับความผิดพลาดทางธุรการที่ซับซ้อนหรือปัญหาเชิงระบบ กลับยิ่งสร้างความหงุดหงิด
การโต้เถียงกับโมเดล
- LLM กำลังขยายจากงานบริการลูกค้าไปสู่ ขอบเขตงานที่คลุมเครือ เช่น การพิจารณาประกัน การตั้งราคา และการตัดสินทางกฎหมาย
- เพราะ ประสิทธิภาพด้านต้นทุน ถูกให้ความสำคัญเหนือความแม่นยำ แม้จะเกิดการตัดสินผิด หากกำไรรวมของระบบยังอยู่ ก็มีแนวโน้มจะปล่อยไว้เช่นนั้น
- สภาพแวดล้อมเช่นนี้ก่อให้เกิด ความสูญเปล่าของแรงงานรูปแบบใหม่
- ตัวอย่างที่ชัดคือ การตั้งราคาแบบอัลกอริทึม ที่ทำให้ราคาตั๋วเครื่องบินต่างกันไปตามเบราว์เซอร์ อุปกรณ์ และบัญชีผู้ใช้
- แพทย์ต้องเรียนรู้ถ้อยคำเฉพาะเพื่อโน้มน้าว LLM ของบริษัทประกัน ขณะที่ผู้บริโภคก็อาจต้องปรับรูปลักษณ์ของตนให้ตรงกับการจดจำของกล้อง
- ผู้คนจะต้อง ใช้เวลากับการโต้เถียงกับเครื่องจักรมากขึ้น
- LLM เปรียบได้กับ ‘ห้องภาษาจีน’ ที่สร้างคำตอบขึ้นมาโดยไม่ได้เข้าใจจริง จึงขาดความเข้าใจแบบมนุษย์
- ในอนาคตอาจมีคอนเทนต์แนว เคล็ดลับรับมือเครื่องจักร อย่าง “ผัก 8 ชนิดที่ช่วยลดเบี้ยประกัน” แพร่ไปทั่ว
- ผู้คนยังใช้ LLM เป็น เครื่องมือเพื่อต่อสู้กับระบบราชการ ด้วย
- มี LLM ส่วนบุคคลเกิดขึ้นเพื่อทำให้การโต้แย้งการปฏิเสธเคลมประกัน การยกเลิกสมาชิก และการต่อรองราคาเป็นอัตโนมัติ
- แต่ ความไม่สมมาตร ระหว่างบริษัทกับบุคคลยังคงอยู่ และบุคคลต้องรับ ความเสี่ยงทางการเงิน จากการทำงานผิดพลาดของ LLM เอง
การกระจายตัวของความรับผิดชอบ
- มีการอ้างถึงแนวทางภายในของ IBM ปี 1979 ที่ว่า “คอมพิวเตอร์ไม่สามารถรับผิดชอบได้ ดังนั้นจึงไม่ควรเป็นผู้ตัดสินใจด้านการบริหารจัดการ”
- ระบบ ML กำลังก่อให้เกิด กรณีที่สร้างความเสียหายแก่ผู้บริสุทธิ์
- กรณีที่ Angela Lipps ถูกกักขังอย่างไม่เป็นธรรมเป็นเวลา 4 เดือนจากความผิดพลาดของการจดจำใบหน้า
- กรณีที่กล้องวงจรปิดมอง ถุงขนมของ Taki Allen เป็นอาวุธปืนจนมีตำรวจติดอาวุธเข้าระงับเหตุ
- เหตุการณ์เหล่านี้ไม่ได้ถูกวิเคราะห์ว่าเป็นเพียงความล้มเหลวของเทคโนโลยี แต่เป็น ความล้มเหลวของระบบสังคม-เทคนิค
- การขาดการตัดสินใจของมนุษย์ ความผิดพลาดด้านกระบวนการ และความขาดตอนระหว่างองค์กรหลายแห่งทำงานร่วมกันจนเกิดปัญหา
- โมเดล ML ห่อหุ้มอคติทางสังคมด้วยภาพลักษณ์ของความเป็นกลางทางสถิติ
- มีกรณีอย่างการประเมินความน่าเชื่อถือของผู้กู้ผิวดำต่ำเกินจริง การลดบริการทางการแพทย์สำหรับผู้หญิง และการระบุใบหน้าคนผิวดำผิดพลาด
- ความไม่โปร่งใสและคำอธิบายที่ขัดแย้งในตัวเอง ของโมเดลบิดเบือนการตัดสินของผู้ตรวจสอบ
- โมเดลขนาดใหญ่ถูกสร้างขึ้นโดยมีแรงงานและองค์กรจำนวนมากที่แยกจากกัน จึงทำให้ ขอบเขตความรับผิดชอบไม่ชัดเจน
- โครงสร้างมีหลายชั้น ทั้งโรงพยาบาล บริษัทประกัน ผู้จัดหาโมเดล ผู้ให้บริการข้อมูล และแรงงานรับช่วง
- ผลลัพธ์คือ การรับรู้ความรับผิดชอบในระดับปัจเจกและความเป็นไปได้ในการแก้ไข อ่อนแอลง
- มีแนวโน้มว่าผู้เสียหายจาก การตัดสินใจอัตโนมัติ เช่น อุบัติเหตุรถยนต์ไร้คนขับ หรือการเลิกจ้างจากการประเมินบุคลากรที่อิง Copilot จะเพิ่มขึ้น
- บริษัทอาจรับมือด้วยค่าปรับหรือการปรับสัญญา แต่ การเอาผิดในระดับรายบุคคลทำได้ยาก
- นี่คือ ปัญหาเชิงโครงสร้างของวิศวกรรมสมัยใหม่โดยรวม เพราะยิ่งระบบซับซ้อนมากเท่าไร ก็ยิ่งยากที่จะระบุสาเหตุของอุบัติเหตุ
- ความซับซ้อนระดับที่ต้องสืบสวนขนาดใหญ่เหมือนอุบัติเหตุทางการบิน กำลังขยายเข้าสู่การตัดสินใจในชีวิตประจำวันด้วย
กลไกตลาดและ ‘Agentic Commerce’
- Agentic commerce คือแนวคิดที่ LLM จัดการวิธีการชำระเงินของผู้ใช้แทน และทำการซื้อโดยอัตโนมัติ
- LLM ทำให้การเปรียบเทียบราคา การต่ออายุประกัน และการต่อสมาชิกเป็นอัตโนมัติ เพื่อ ตัดขั้นตอนคนกลางในการกระจายสินค้า ออกไป
- McKinsey คาดว่าการโฆษณาที่มีมนุษย์เป็นศูนย์กลางจะลดลง และเสนอทั้ง การแทรกโฆษณาในแชตบอต กับ โครงสร้างการเจรจาระหว่าง LLM
- แต่นั่นจะสร้าง แรงจูงใจอย่างรุนแรงในการบงการพฤติกรรมของ LLM
- โฆษณาที่มุ่งเป้าไปยัง LLM และ การแข่งขันบิดเบือน SEO อาจพัฒนาไปเป็น สงครามอัลกอริทึม รูปแบบใหม่
- อาจมีความพยายามชี้นำการตอบสนองของ LLM ด้วยพิกเซล ฟอนต์ หรือสีเฉพาะ หรือชักจูงการขายผ่านการปนเปื้อนข้อมูลฝึก
- แพลตฟอร์มอย่าง OpenAI จะสร้างโครงสร้างที่ทำรายได้จากทั้งสองฝั่งในฐานะ ตัวกลางระหว่างผู้ผลิตและผู้บริโภค
- การเจรจาอัตโนมัติระหว่าง LLM มีความเสี่ยงจะกลายเป็น สงครามโจมตีกันของ ‘dark pattern’
- อาจเกิด ปฏิสัมพันธ์ที่สับสนวุ่นวาย จากสัญญาณเท็จ การโจมตีแบบ injection attack และบันทึกธุรกรรมที่มากเกินไป
- สถาบันวิจัยบางแห่งคาดการณ์การเปลี่ยนผ่านไปสู่ การชำระเงินด้วยคริปโตเคอร์เรนซี แต่สิ่งนี้อาจทำให้ ปัญหาความผิดพลาด การฉ้อโกง และการขอคืนเงิน รุนแรงขึ้น
- หาก LLM ซื้อของผิดพลาด ก็จะเกิด ความไม่ชัดเจนว่าใครคือผู้รับผิดชอบ
- มีแนวโน้มจะเกิด โครงสร้างข้อพิพาทที่ซับซ้อน ระหว่างผู้ให้บริการชำระเงิน ธนาคาร และ LLM
- ความไม่แน่นอนเหล่านี้อาจนำไปสู่ การขึ้นค่าธรรมเนียมการชำระเงินและต้นทุนป้องกันการฉ้อโกงที่สูงขึ้น
- ในท้ายที่สุด ผู้บริโภคทั่วไปจะเป็นผู้แบกรับต้นทุนความเสี่ยงร่วมกัน
- ผู้บริโภคอาจต้องใช้ โปรไฟล์ปลอมและเครื่องมืออัตโนมัติ เพื่อหลอกหรือเจรจากับ LLM
- สิ่งนี้ก่อให้เกิดความเหนื่อยล้าและความไร้ประสิทธิภาพ แต่หาก ทั้งตลาดหันมาใช้ LLM ก็อาจฝังตัวเป็นโครงสร้างที่หลีกเลี่ยงไม่ได้
- มีแนวโน้มว่าจะมีเพียงคนมีฐานะที่ยังคงรักษาบริการที่มีมนุษย์เป็นศูนย์กลางไว้ได้ ทำให้ ‘ความน่ารำคาญที่ไม่เท่าเทียม’ รุนแรงขึ้น
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
ฉันไม่จำเป็นต้องทำธุรกรรมวันละ 1,000 รายการ
ไม่คิดว่าการต้องอนุมัติทุกการซื้อจะเป็น ความไม่สะดวกที่ร้ายแรง
ไม่มีทางคิดจะฝากบัตรเครดิตของตัวเองไว้กับ LLM เด็ดขาด เพราะมีปัญหาเชิงโครงสร้างอย่าง ช่องโหว่แบบ injection
สำหรับสถาปัตยกรรม AI ในอนาคตเอง ฉันก็ยังมองว่ายากจะเชื่อถือได้เหมือนกัน
แต่เรื่องอย่างระบบอัตโนมัติสำหรับฝ่ายบริการลูกค้านั้น สุดท้ายก็คงเป็นกระแสที่หลีกเลี่ยงไม่ได้
ทุกวันนี้เวลาโทรไปที่ร้านขายยาของ Costco ฉันก็กด 0 ตลอดเพื่อหนี นรก IVR
ท้ายที่สุดแล้ว คนที่ได้ประโยชน์จากระบบแบบนี้ก็มีแค่ผู้ถือหุ้นกับผู้บริหารเท่านั้น
โลกทุกวันนี้ให้ความรู้สึกเหมือนกำลังหมุนรอบ การชี้นำและการขาดหายของความจริง มากขึ้นเรื่อย ๆ
LLM เป็นความสำเร็จทางเทคนิคที่น่าทึ่ง แต่ปัญหาคือมันกำลังถูกใช้ในแบบที่ ขยายช่องว่างทางชนชั้น
ต่อไปสิ่งที่เชื่อถือได้คงไม่ใช่ทั้งบริษัทยักษ์ใหญ่ รัฐ หรือ LLM
เราจำเป็นต้องกลับไปจัดระเบียบโดยยึด กลุ่มและชุมชน ที่เราเชื่อถือได้เป็นศูนย์กลาง
ปัญหาไม่ได้อยู่ที่ตัวสถาบัน แต่อยู่ที่ มลพิษของสภาพแวดล้อม มากกว่า เศรษฐกิจความสนใจ ของโซเชียลมีเดียได้ทำลายความไว้วางใจลง
มลพิษทางข้อมูลกระทบทุกคน และท้ายที่สุดเรากำลังมุ่งไปสู่ ระบบนิเวศข้อมูลที่บอตเป็นผู้ขับเคลื่อน
แม้จะมีทั้งคนและบอตเข้าร่วมด้วยกัน ปฏิสัมพันธ์ที่อิงกฎ ก็จะยิ่งสำคัญขึ้น
แต่คุณค่าของผู้ถือหุ้นไม่ต้องการสิ่งนั้น สุดท้ายเราจึงต้องวิวัฒน์ท่ามกลาง ความย้อนแย้งของต้นทุนที่สูงขึ้นกับความเกลียดชังเทคโนโลยี
พ่อของฉันเปลี่ยนแบตเตอรี่กุญแจรถได้ด้วยความช่วยเหลือจาก AI และพอใจมาก
เขายังถาม AI เรื่องข้อกำหนดประกันด้วย และได้ผลลัพธ์ที่ดีกว่าการค้นหาเอง
ตัวฉันเองตอนนี้ก็ถาม AI แทน Google สำหรับคำถามง่าย ๆ
ในกรณีส่วนใหญ่ AI ก็ “ใช้งานได้ดีพอ” และหลายครั้งก็ดีกว่า
ผู้คนไม่ได้สนใจหรอกว่ามันเป็นแค่ เครื่องทำนายโทเค็น หรือไม่ ถ้าผลลัพธ์ดี ก็พอแล้ว
มันเหมือนกับโครงสร้างที่บริษัทสร้างปัญหาขึ้นมาแล้วก็ ขายทางแก้
จากประสบการณ์ที่เคยทำงานร่วมกับทีมบริการลูกค้า เป้าหมายของการปรับปรุงเทคโนโลยีมีอยู่เสมอคือ ลดจำนวนทิกเก็ต และลดต้นทุน
มีการวัดความพึงพอใจด้วย แต่หัวใจหลักคือปริมาณทิกเก็ต
ก่อนยุค LLM ก็มีการใช้แชตบอตด้วยเหตุผลนี้อยู่แล้ว
แต่ฝ่ายบริการลูกค้ายังทำหน้าที่เป็น ระบบเตือนภัยล่วงหน้า ของบริษัทด้วย ดังนั้นถ้าลดจุดสัมผัสกับคนลง ก็จะยิ่งจับความทุกข์ของผู้ใช้ได้ยากขึ้น
มันทำให้นึกถึงข้อความฝึกอบรมภายในของ IBM ปี 1979 ที่ว่า “A COMPUTER CAN NEVER BE HELD ACCOUNTABLE”
นี่แหละคือเหตุผลที่ทุกวันนี้เราได้ยินคำว่า “คอมพิวเตอร์บอกว่าทำไม่ได้” ซ้ำแล้วซ้ำเล่า
ถ้าผู้จัดการอยากเลี่ยงความรับผิดชอบ ก็แค่โยนการตัดสินใจให้คอมพิวเตอร์
ท้ายที่สุด AI ก็กำลังทำให้ ระบบอัตโนมัติแห่งการเลี่ยงความรับผิดชอบ แข็งแรงขึ้น
สิ่งที่ฉันกังวลมากที่สุดคือ การกระจายและเจือจางของความรับผิดชอบ
ตอนนี้องค์กรขนาดกลางจำนวนมากก็บริหารงานด้วยโครงสร้างแบบนี้อยู่แล้ว และ LLM น่าจะยิ่งทำให้มันแย่ลง
ฉันส่ง ชุดบทความของ Aphyr ให้เพื่อน ๆ แต่สิ่งที่ได้กลับมาคือ “ช่วยสรุปให้หน่อย”
เพื่อนที่เมื่อก่อนเคยคุยเชิงลึกกัน ตอนนี้กลับส่งแต่ สรุปโดย AI แล้วคุยกันแบบผิวเผิน
รู้สึกได้ชัดเลยว่า สมาธิความสนใจลดลง
คนจำนวนมากอาจแค่เลียนแบบความรู้ด้วยการอ้างอิง “วิดีโอ YouTube ที่ดูฉลาด”
การเขียนข้อความยาว ๆ แลกกันเพื่อคุยเชิงลึกนั้นสดใหม่และมีความหมายกว่ามาก
AI ยังอยู่ในระยะแรก และทุกสัปดาห์ก็มีงานวิจัยกับโมเดลใหม่ออกมา อนาคตยังไม่ถูกกำหนด
มีการแชร์ ลิงก์ archive.is
ไอเดียเรื่อง “การบอยคอตด้วยโมเดลส่วนตัวที่ทำให้โมเดลของ Burger King เปลืองโทเค็น” น่าสนใจดี
เพราะงั้นฉันก็เลยเลือกที่จะยอมรับ ‘เหล่าผู้ปกครองแห่งล้านล้านพารามิเตอร์’ ไปเลย
บทความของ Aphyr น่าสนใจ แต่ให้ความรู้สึกเป็น น้ำเสียงแบบอเมริกัน ตามสูตรมาก
เป็นแพตเทิร์นแบบ “สิ่งนี้แย่ → บริษัทจะเอาไปใช้ในทางที่ผิดโดยไร้การกำกับ → เราจบเห่”
แต่พอพูดว่าจะออก กฎหมายควบคุม (law) กันจริง ๆ ทุกคนกลับถอยหมด
อเมริกาก็เป็นประเทศแบบนี้มาแต่เดิม บริษัทจะเอาเปรียบถ้าไม่มีการกำกับ
แม้ระยะสั้นจะได้เงินน้อยลง แต่ สังคมที่มีกฎกำกับ ก็อยู่ได้ดีกว่าในระยะยาว
จำเป็นต้องแก้รัฐธรรมนูญ แต่ด้วยโครงสร้างการเมืองตอนนี้แทบเป็นไปไม่ได้
เมื่อก่อนก็เต็มไปด้วย นักต้มตุ๋นกับคนขาย snake oil เหมือนกัน
ท้ายที่สุด ความไว้วางใจเกิดได้แค่จาก ความสัมพันธ์ที่เกิดซ้ำต่อเนื่อง ซึ่งออนไลน์ทำไม่ได้
ต่อไปนี้ ความน่าเชื่อถือของแบรนด์ น่าจะสำคัญขึ้น
เพราะงั้นบางครั้งจึงนำไปสู่ผลลัพธ์ที่ทำให้ตามประเทศอื่นไม่ทัน