1 คะแนน โดย GN⁺ 17 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เมื่อบริษัทต่าง ๆ นำแชตบอตที่ใช้ LLM มาใช้เพื่อ ทำระบบบริการลูกค้าอัตโนมัติ การเข้าถึงเจ้าหน้าที่มนุษย์ก็ถูกจำกัดลง และ คำตอบที่ไม่จริงกับความผิดพลาด ก็กลายเป็นเรื่องปกติในชีวิตประจำวัน
  • ระบบเหล่านี้ ทำงานแบบเลือกปฏิบัติตามชนชั้นทางเศรษฐกิจ โดยลูกค้าทั่วไปจะติดอยู่กับคำตอบอัตโนมัติ ขณะที่มีเพียงลูกค้าระดับพรีเมียมที่ได้รับการช่วยเหลือจากมนุษย์
  • LLM กำลังขยายไปสู่ พื้นที่การตัดสินใจที่คลุมเครือ เช่น การพิจารณาประกันและการตั้งราคา ทำให้ผู้คนต้องใช้เวลากับ การโต้เถียงและโน้มน้าวเครื่องจักร มากขึ้น
  • ความไม่ชัดเจนด้านความรับผิดชอบและอคติทางสังคม ของระบบ ML ก่อให้เกิดความเสียหายจริง เช่น การกักขังโดยไม่เป็นธรรมและการระบุตัวผิดพลาด และด้วยโครงสร้างที่ซับซ้อนจึง ยากต่อการเอาผิดผู้รับผิดชอบ
  • หาก Agentic commerce ที่ให้ LLM ทำการชำระเงินและซื้อสินค้าโดยอัตโนมัติแพร่หลาย ก็มีความเป็นไปได้ว่า การชักจูง การฉ้อโกง และการผลักภาระต้นทุน จะรุนแรงขึ้น และทำให้ ‘ความน่ารำคาญที่ไม่เท่าเทียม’ ฝังแน่นยิ่งกว่าเดิม

ความไม่สะดวกของระบบบริการลูกค้าอัตโนมัติ

  • บริษัทต่าง ๆ กำลังเปลี่ยนการติดต่อสอบถามไปสู่แชตบอตที่ใช้ LLM เพื่อ ลดต้นทุนการสนับสนุนลูกค้า และแนวโน้มการเชื่อมต่อกับเจ้าหน้าที่มนุษย์ก็ยากขึ้นเรื่อย ๆ
    • ด้วยพัฒนาการของโมเดลเสียง การให้คำปรึกษาทางโทรศัพท์ก็มีความเป็นไปได้ที่จะถูกทำให้เป็นอัตโนมัติเช่นกัน
    • LLM ให้คำตอบที่สุภาพและอดทน แต่ก็ทำให้การแก้ปัญหาล่าช้าด้วยการตอบ ไม่จริงและผิดพลาด ซ้ำ ๆ
  • ระบบเหล่านี้ ทำงานแบบเลือกปฏิบัติตามชนชั้นทางเศรษฐกิจ
    • ลูกค้าระดับราคาสูงยังคงเข้าถึงเจ้าหน้าที่มนุษย์ได้ แต่ลูกค้าทั่วไปกลับถูกขังอยู่ในการสนทนากับ LLM
  • LLM เปราะบางต่อ ความคาดเดาไม่ได้และการโจมตีแบบ injection attack จึงถูกจำกัดอำนาจในการกระทำสิ่งต่าง ๆ นอกระบบ
    • มันมีประโยชน์กับปัญหาง่าย ๆ แต่สำหรับความผิดพลาดทางธุรการที่ซับซ้อนหรือปัญหาเชิงระบบ กลับยิ่งสร้างความหงุดหงิด

การโต้เถียงกับโมเดล

  • LLM กำลังขยายจากงานบริการลูกค้าไปสู่ ขอบเขตงานที่คลุมเครือ เช่น การพิจารณาประกัน การตั้งราคา และการตัดสินทางกฎหมาย
    • เพราะ ประสิทธิภาพด้านต้นทุน ถูกให้ความสำคัญเหนือความแม่นยำ แม้จะเกิดการตัดสินผิด หากกำไรรวมของระบบยังอยู่ ก็มีแนวโน้มจะปล่อยไว้เช่นนั้น
  • สภาพแวดล้อมเช่นนี้ก่อให้เกิด ความสูญเปล่าของแรงงานรูปแบบใหม่
    • ตัวอย่างที่ชัดคือ การตั้งราคาแบบอัลกอริทึม ที่ทำให้ราคาตั๋วเครื่องบินต่างกันไปตามเบราว์เซอร์ อุปกรณ์ และบัญชีผู้ใช้
    • แพทย์ต้องเรียนรู้ถ้อยคำเฉพาะเพื่อโน้มน้าว LLM ของบริษัทประกัน ขณะที่ผู้บริโภคก็อาจต้องปรับรูปลักษณ์ของตนให้ตรงกับการจดจำของกล้อง
  • ผู้คนจะต้อง ใช้เวลากับการโต้เถียงกับเครื่องจักรมากขึ้น
    • LLM เปรียบได้กับ ‘ห้องภาษาจีน’ ที่สร้างคำตอบขึ้นมาโดยไม่ได้เข้าใจจริง จึงขาดความเข้าใจแบบมนุษย์
    • ในอนาคตอาจมีคอนเทนต์แนว เคล็ดลับรับมือเครื่องจักร อย่าง “ผัก 8 ชนิดที่ช่วยลดเบี้ยประกัน” แพร่ไปทั่ว
  • ผู้คนยังใช้ LLM เป็น เครื่องมือเพื่อต่อสู้กับระบบราชการ ด้วย
    • มี LLM ส่วนบุคคลเกิดขึ้นเพื่อทำให้การโต้แย้งการปฏิเสธเคลมประกัน การยกเลิกสมาชิก และการต่อรองราคาเป็นอัตโนมัติ
    • แต่ ความไม่สมมาตร ระหว่างบริษัทกับบุคคลยังคงอยู่ และบุคคลต้องรับ ความเสี่ยงทางการเงิน จากการทำงานผิดพลาดของ LLM เอง

การกระจายตัวของความรับผิดชอบ

  • มีการอ้างถึงแนวทางภายในของ IBM ปี 1979 ที่ว่า “คอมพิวเตอร์ไม่สามารถรับผิดชอบได้ ดังนั้นจึงไม่ควรเป็นผู้ตัดสินใจด้านการบริหารจัดการ
  • ระบบ ML กำลังก่อให้เกิด กรณีที่สร้างความเสียหายแก่ผู้บริสุทธิ์
    • กรณีที่ Angela Lipps ถูกกักขังอย่างไม่เป็นธรรมเป็นเวลา 4 เดือนจากความผิดพลาดของการจดจำใบหน้า
    • กรณีที่กล้องวงจรปิดมอง ถุงขนมของ Taki Allen เป็นอาวุธปืนจนมีตำรวจติดอาวุธเข้าระงับเหตุ
  • เหตุการณ์เหล่านี้ไม่ได้ถูกวิเคราะห์ว่าเป็นเพียงความล้มเหลวของเทคโนโลยี แต่เป็น ความล้มเหลวของระบบสังคม-เทคนิค
    • การขาดการตัดสินใจของมนุษย์ ความผิดพลาดด้านกระบวนการ และความขาดตอนระหว่างองค์กรหลายแห่งทำงานร่วมกันจนเกิดปัญหา
  • โมเดล ML ห่อหุ้มอคติทางสังคมด้วยภาพลักษณ์ของความเป็นกลางทางสถิติ
    • มีกรณีอย่างการประเมินความน่าเชื่อถือของผู้กู้ผิวดำต่ำเกินจริง การลดบริการทางการแพทย์สำหรับผู้หญิง และการระบุใบหน้าคนผิวดำผิดพลาด
    • ความไม่โปร่งใสและคำอธิบายที่ขัดแย้งในตัวเอง ของโมเดลบิดเบือนการตัดสินของผู้ตรวจสอบ
  • โมเดลขนาดใหญ่ถูกสร้างขึ้นโดยมีแรงงานและองค์กรจำนวนมากที่แยกจากกัน จึงทำให้ ขอบเขตความรับผิดชอบไม่ชัดเจน
    • โครงสร้างมีหลายชั้น ทั้งโรงพยาบาล บริษัทประกัน ผู้จัดหาโมเดล ผู้ให้บริการข้อมูล และแรงงานรับช่วง
    • ผลลัพธ์คือ การรับรู้ความรับผิดชอบในระดับปัจเจกและความเป็นไปได้ในการแก้ไข อ่อนแอลง
  • มีแนวโน้มว่าผู้เสียหายจาก การตัดสินใจอัตโนมัติ เช่น อุบัติเหตุรถยนต์ไร้คนขับ หรือการเลิกจ้างจากการประเมินบุคลากรที่อิง Copilot จะเพิ่มขึ้น
    • บริษัทอาจรับมือด้วยค่าปรับหรือการปรับสัญญา แต่ การเอาผิดในระดับรายบุคคลทำได้ยาก
  • นี่คือ ปัญหาเชิงโครงสร้างของวิศวกรรมสมัยใหม่โดยรวม เพราะยิ่งระบบซับซ้อนมากเท่าไร ก็ยิ่งยากที่จะระบุสาเหตุของอุบัติเหตุ
    • ความซับซ้อนระดับที่ต้องสืบสวนขนาดใหญ่เหมือนอุบัติเหตุทางการบิน กำลังขยายเข้าสู่การตัดสินใจในชีวิตประจำวันด้วย

กลไกตลาดและ ‘Agentic Commerce’

  • Agentic commerce คือแนวคิดที่ LLM จัดการวิธีการชำระเงินของผู้ใช้แทน และทำการซื้อโดยอัตโนมัติ
    • LLM ทำให้การเปรียบเทียบราคา การต่ออายุประกัน และการต่อสมาชิกเป็นอัตโนมัติ เพื่อ ตัดขั้นตอนคนกลางในการกระจายสินค้า ออกไป
  • McKinsey คาดว่าการโฆษณาที่มีมนุษย์เป็นศูนย์กลางจะลดลง และเสนอทั้ง การแทรกโฆษณาในแชตบอต กับ โครงสร้างการเจรจาระหว่าง LLM
    • แต่นั่นจะสร้าง แรงจูงใจอย่างรุนแรงในการบงการพฤติกรรมของ LLM
  • โฆษณาที่มุ่งเป้าไปยัง LLM และ การแข่งขันบิดเบือน SEO อาจพัฒนาไปเป็น สงครามอัลกอริทึม รูปแบบใหม่
    • อาจมีความพยายามชี้นำการตอบสนองของ LLM ด้วยพิกเซล ฟอนต์ หรือสีเฉพาะ หรือชักจูงการขายผ่านการปนเปื้อนข้อมูลฝึก
    • แพลตฟอร์มอย่าง OpenAI จะสร้างโครงสร้างที่ทำรายได้จากทั้งสองฝั่งในฐานะ ตัวกลางระหว่างผู้ผลิตและผู้บริโภค
  • การเจรจาอัตโนมัติระหว่าง LLM มีความเสี่ยงจะกลายเป็น สงครามโจมตีกันของ ‘dark pattern’
    • อาจเกิด ปฏิสัมพันธ์ที่สับสนวุ่นวาย จากสัญญาณเท็จ การโจมตีแบบ injection attack และบันทึกธุรกรรมที่มากเกินไป
  • สถาบันวิจัยบางแห่งคาดการณ์การเปลี่ยนผ่านไปสู่ การชำระเงินด้วยคริปโตเคอร์เรนซี แต่สิ่งนี้อาจทำให้ ปัญหาความผิดพลาด การฉ้อโกง และการขอคืนเงิน รุนแรงขึ้น
    • หาก LLM ซื้อของผิดพลาด ก็จะเกิด ความไม่ชัดเจนว่าใครคือผู้รับผิดชอบ
    • มีแนวโน้มจะเกิด โครงสร้างข้อพิพาทที่ซับซ้อน ระหว่างผู้ให้บริการชำระเงิน ธนาคาร และ LLM
  • ความไม่แน่นอนเหล่านี้อาจนำไปสู่ การขึ้นค่าธรรมเนียมการชำระเงินและต้นทุนป้องกันการฉ้อโกงที่สูงขึ้น
    • ในท้ายที่สุด ผู้บริโภคทั่วไปจะเป็นผู้แบกรับต้นทุนความเสี่ยงร่วมกัน
  • ผู้บริโภคอาจต้องใช้ โปรไฟล์ปลอมและเครื่องมืออัตโนมัติ เพื่อหลอกหรือเจรจากับ LLM
    • สิ่งนี้ก่อให้เกิดความเหนื่อยล้าและความไร้ประสิทธิภาพ แต่หาก ทั้งตลาดหันมาใช้ LLM ก็อาจฝังตัวเป็นโครงสร้างที่หลีกเลี่ยงไม่ได้
    • มีแนวโน้มว่าจะมีเพียงคนมีฐานะที่ยังคงรักษาบริการที่มีมนุษย์เป็นศูนย์กลางไว้ได้ ทำให้ ‘ความน่ารำคาญที่ไม่เท่าเทียม’ รุนแรงขึ้น

1 ความคิดเห็น

 
GN⁺ 17 일 전
ความคิดเห็นจาก Hacker News
  • ฉันไม่จำเป็นต้องทำธุรกรรมวันละ 1,000 รายการ
    ไม่คิดว่าการต้องอนุมัติทุกการซื้อจะเป็น ความไม่สะดวกที่ร้ายแรง
    ไม่มีทางคิดจะฝากบัตรเครดิตของตัวเองไว้กับ LLM เด็ดขาด เพราะมีปัญหาเชิงโครงสร้างอย่าง ช่องโหว่แบบ injection
    สำหรับสถาปัตยกรรม AI ในอนาคตเอง ฉันก็ยังมองว่ายากจะเชื่อถือได้เหมือนกัน
    แต่เรื่องอย่างระบบอัตโนมัติสำหรับฝ่ายบริการลูกค้านั้น สุดท้ายก็คงเป็นกระแสที่หลีกเลี่ยงไม่ได้

    • สิ่งที่ทำให้ไม่พอใจคือบทความเขียนราวกับว่าการต้องไปเถียงกับเครื่องจักรเป็นเรื่องใหม่และน่าหงุดหงิด
      ทุกวันนี้เวลาโทรไปที่ร้านขายยาของ Costco ฉันก็กด 0 ตลอดเพื่อหนี นรก IVR
      ท้ายที่สุดแล้ว คนที่ได้ประโยชน์จากระบบแบบนี้ก็มีแค่ผู้ถือหุ้นกับผู้บริหารเท่านั้น
  • โลกทุกวันนี้ให้ความรู้สึกเหมือนกำลังหมุนรอบ การชี้นำและการขาดหายของความจริง มากขึ้นเรื่อย ๆ
    LLM เป็นความสำเร็จทางเทคนิคที่น่าทึ่ง แต่ปัญหาคือมันกำลังถูกใช้ในแบบที่ ขยายช่องว่างทางชนชั้น
    ต่อไปสิ่งที่เชื่อถือได้คงไม่ใช่ทั้งบริษัทยักษ์ใหญ่ รัฐ หรือ LLM
    เราจำเป็นต้องกลับไปจัดระเบียบโดยยึด กลุ่มและชุมชน ที่เราเชื่อถือได้เป็นศูนย์กลาง

    • เทคโนโลยีไม่เป็นกลาง หากถูกใช้งานโดยไม่มี ข้อจำกัดเชิงโครงสร้าง เราจะสูญเสียการควบคุม
    • โลกที่ขับเคลื่อนด้วยการชี้นำไม่ใช่เรื่องใหม่ แต่มีมาตั้งแต่ก่อนแล้ว ในอดีตกลับทำได้ง่ายกว่าเสียอีก เพราะการกระจายข้อมูลมีต้นทุนสูงกว่า
    • เห็นด้วยกับแนวคิดเรื่องการสร้างชุมชนที่เชื่อถือได้ แต่ในที่สุด สถาบันสาธารณะ สังคม และรัฐบาลของพลเมือง ต่างหากที่เคยทำหน้าที่นั้น
      ปัญหาไม่ได้อยู่ที่ตัวสถาบัน แต่อยู่ที่ มลพิษของสภาพแวดล้อม มากกว่า เศรษฐกิจความสนใจ ของโซเชียลมีเดียได้ทำลายความไว้วางใจลง
    • สังคมก่อนยุคอินเทอร์เน็ตเคยสร้างระบบเพื่อจัดการความน่าเชื่อถือไว้ แต่ตอนนี้ โครงสร้างแรงจูงใจ เปลี่ยนไปโดยสิ้นเชิง
      มลพิษทางข้อมูลกระทบทุกคน และท้ายที่สุดเรากำลังมุ่งไปสู่ ระบบนิเวศข้อมูลที่บอตเป็นผู้ขับเคลื่อน
      แม้จะมีทั้งคนและบอตเข้าร่วมด้วยกัน ปฏิสัมพันธ์ที่อิงกฎ ก็จะยิ่งสำคัญขึ้น
    • เราต้องการโมเดลรันในเครื่อง ฮาร์ดแวร์ผู้บริโภคที่ทรงพลัง และสาธารณะที่ไม่ได้เกลียด STEM
      แต่คุณค่าของผู้ถือหุ้นไม่ต้องการสิ่งนั้น สุดท้ายเราจึงต้องวิวัฒน์ท่ามกลาง ความย้อนแย้งของต้นทุนที่สูงขึ้นกับความเกลียดชังเทคโนโลยี
  • พ่อของฉันเปลี่ยนแบตเตอรี่กุญแจรถได้ด้วยความช่วยเหลือจาก AI และพอใจมาก
    เขายังถาม AI เรื่องข้อกำหนดประกันด้วย และได้ผลลัพธ์ที่ดีกว่าการค้นหาเอง
    ตัวฉันเองตอนนี้ก็ถาม AI แทน Google สำหรับคำถามง่าย ๆ
    ในกรณีส่วนใหญ่ AI ก็ “ใช้งานได้ดีพอ” และหลายครั้งก็ดีกว่า
    ผู้คนไม่ได้สนใจหรอกว่ามันเป็นแค่ เครื่องทำนายโทเค็น หรือไม่ ถ้าผลลัพธ์ดี ก็พอแล้ว

    • แต่เรื่องแบบนี้เมื่อก่อนก็ทำได้อยู่แล้ว แค่คนย้ายมาใช้ LLM เพราะ คุณภาพการค้นหาพังไปแล้ว เท่านั้น
      มันเหมือนกับโครงสร้างที่บริษัทสร้างปัญหาขึ้นมาแล้วก็ ขายทางแก้
    • ปัญหาคือเรื่องแบบนี้กำลังเกิดขึ้นในภาคการแพทย์ด้วย มีกรณีที่พยาบาลเชื่อ AI snippet ตรง ๆ แล้วฉีดวัคซีนตามนั้น
  • จากประสบการณ์ที่เคยทำงานร่วมกับทีมบริการลูกค้า เป้าหมายของการปรับปรุงเทคโนโลยีมีอยู่เสมอคือ ลดจำนวนทิกเก็ต และลดต้นทุน
    มีการวัดความพึงพอใจด้วย แต่หัวใจหลักคือปริมาณทิกเก็ต
    ก่อนยุค LLM ก็มีการใช้แชตบอตด้วยเหตุผลนี้อยู่แล้ว
    แต่ฝ่ายบริการลูกค้ายังทำหน้าที่เป็น ระบบเตือนภัยล่วงหน้า ของบริษัทด้วย ดังนั้นถ้าลดจุดสัมผัสกับคนลง ก็จะยิ่งจับความทุกข์ของผู้ใช้ได้ยากขึ้น

    • ถ้าเทียบฝ่ายซัพพอร์ตของ Amazon กับ Chewy จะเห็นความต่างชัดเจน Amazon ทำให้ติดต่อคนจริงได้ยาก แต่ Chewy ให้ผู้เชี่ยวชาญมาตอบทันที
    • แชตบอตของ ISP แก้ปัญหาไม่ได้จนถูกส่งต่อไปหาคน แต่คนนั้นก็แค่ คัดลอกวางจาก LLM อยู่ดี
    • สำหรับฉัน ทันทีที่ต้องคุยกับแชตบอต ก็พร้อมจะย้ายไปบริษัทประกันเจ้าอื่นแล้ว
  • มันทำให้นึกถึงข้อความฝึกอบรมภายในของ IBM ปี 1979 ที่ว่า “A COMPUTER CAN NEVER BE HELD ACCOUNTABLE
    นี่แหละคือเหตุผลที่ทุกวันนี้เราได้ยินคำว่า “คอมพิวเตอร์บอกว่าทำไม่ได้” ซ้ำแล้วซ้ำเล่า
    ถ้าผู้จัดการอยากเลี่ยงความรับผิดชอบ ก็แค่โยนการตัดสินใจให้คอมพิวเตอร์
    ท้ายที่สุด AI ก็กำลังทำให้ ระบบอัตโนมัติแห่งการเลี่ยงความรับผิดชอบ แข็งแรงขึ้น

    • แต่จริง ๆ แล้วความหมายเดิมตรงกันข้าม คือ “เพราะคอมพิวเตอร์รับผิดชอบไม่ได้ การตัดสินใจด้านการบริหารจึงต้องเป็นของมนุษย์
    • ทำให้นึกถึง วิดีโอมีม YouTube “computah says noooooo”
  • สิ่งที่ฉันกังวลมากที่สุดคือ การกระจายและเจือจางของความรับผิดชอบ
    ตอนนี้องค์กรขนาดกลางจำนวนมากก็บริหารงานด้วยโครงสร้างแบบนี้อยู่แล้ว และ LLM น่าจะยิ่งทำให้มันแย่ลง

    • ท้ายที่สุดคงมาถึงยุคที่ต้อง ใช้ LLM รับมือกับ LLM โลกที่ฝ่ายที่ทำอัตโนมัติได้มากกว่าจะเป็นผู้ชนะ
  • ฉันส่ง ชุดบทความของ Aphyr ให้เพื่อน ๆ แต่สิ่งที่ได้กลับมาคือ “ช่วยสรุปให้หน่อย”
    เพื่อนที่เมื่อก่อนเคยคุยเชิงลึกกัน ตอนนี้กลับส่งแต่ สรุปโดย AI แล้วคุยกันแบบผิวเผิน
    รู้สึกได้ชัดเลยว่า สมาธิความสนใจลดลง

    • หรือบางทีพวกเขาอาจไม่ได้ฉลาดขนาดนั้นมาตั้งแต่แรกก็ได้
      คนจำนวนมากอาจแค่เลียนแบบความรู้ด้วยการอ้างอิง “วิดีโอ YouTube ที่ดูฉลาด”
    • ฉันเองก็รู้สึกผิดหวังคล้ายกัน เลยเริ่ม โต้ตอบทางอีเมล กับเพื่อนบางคน
      การเขียนข้อความยาว ๆ แลกกันเพื่อคุยเชิงลึกนั้นสดใหม่และมีความหมายกว่ามาก
    • แน่นอนว่าคนที่ยุ่งมากย่อมมีเรื่องสำคัญกว่าการอ่านบทความยาว 8 ตอน
    • ฉันไม่ค่อยเห็นด้วยกับบทความของ Aphyr เพราะมัน ลบและมองโลกในแง่ร้าย เกินไป
      AI ยังอยู่ในระยะแรก และทุกสัปดาห์ก็มีงานวิจัยกับโมเดลใหม่ออกมา อนาคตยังไม่ถูกกำหนด
    • เห็นด้วยเต็มที่กับประโยคที่ว่า ในหมู่เพื่อน อย่าส่งสรุปโดย AI ให้กันเลย
  • มีการแชร์ ลิงก์ archive.is

    • แล้วก็มีคนถามว่าทำไมไม่เข้าเว็บของ Aphyr โดยตรง
  • ไอเดียเรื่อง “การบอยคอตด้วยโมเดลส่วนตัวที่ทำให้โมเดลของ Burger King เปลืองโทเค็น” น่าสนใจดี

    • แต่การประท้วงด้วยการเปลือง CPU นั้น ไม่ก่อให้เกิดประโยชน์ บริษัทจะใช้มันเป็นข้ออ้างในการตัดบริการลูกค้าออก
    • คนที่เกลียด AI ทุกวันนี้เป็น ชนชั้นที่ถูกกันออกจากระบบ ไปแล้ว เสียงของพวกเขาไปไม่ถึงสื่อ
      เพราะงั้นฉันก็เลยเลือกที่จะยอมรับ ‘เหล่าผู้ปกครองแห่งล้านล้านพารามิเตอร์’ ไปเลย
  • บทความของ Aphyr น่าสนใจ แต่ให้ความรู้สึกเป็น น้ำเสียงแบบอเมริกัน ตามสูตรมาก
    เป็นแพตเทิร์นแบบ “สิ่งนี้แย่ → บริษัทจะเอาไปใช้ในทางที่ผิดโดยไร้การกำกับ → เราจบเห่”
    แต่พอพูดว่าจะออก กฎหมายควบคุม (law) กันจริง ๆ ทุกคนกลับถอยหมด
    อเมริกาก็เป็นประเทศแบบนี้มาแต่เดิม บริษัทจะเอาเปรียบถ้าไม่มีการกำกับ
    แม้ระยะสั้นจะได้เงินน้อยลง แต่ สังคมที่มีกฎกำกับ ก็อยู่ได้ดีกว่าในระยะยาว

    • ปัญหาไม่ใช่ว่าคนเกลียดการกำกับ แต่เป็นเพราะ คนรวยกับบริษัทบงการกฎหมาย
      จำเป็นต้องแก้รัฐธรรมนูญ แต่ด้วยโครงสร้างการเมืองตอนนี้แทบเป็นไปไม่ได้
    • คำพูดที่ว่า “อดีตเต็มไปด้วยความจริง แต่ตอนนี้มีแต่คำโกหก” เป็นแค่ภาพฝัน
      เมื่อก่อนก็เต็มไปด้วย นักต้มตุ๋นกับคนขาย snake oil เหมือนกัน
      ท้ายที่สุด ความไว้วางใจเกิดได้แค่จาก ความสัมพันธ์ที่เกิดซ้ำต่อเนื่อง ซึ่งออนไลน์ทำไม่ได้
      ต่อไปนี้ ความน่าเชื่อถือของแบรนด์ น่าจะสำคัญขึ้น
    • ถ้ามีกฎกำกับเกิดขึ้น รายได้ของแรงงานสายเทคโนโลยี ก็จะลดลง ทุกคนเลยรู้ว่ามีปัญหาแต่ก็ผลักไปเป็นเรื่องของคนอื่น
    • แล้วก็มีคำถามว่า “งั้นคุณจะเสนอการกำกับแบบไหนล่ะ”
    • คนที่เรียกร้องการกำกับ สุดท้ายก็คือกำลังพูดว่า ให้มอบอำนาจแก่บรรดานักการเมืองที่ไม่สมบูรณ์แบบ
      เพราะงั้นบางครั้งจึงนำไปสู่ผลลัพธ์ที่ทำให้ตามประเทศอื่นไม่ทัน