- Deloitte คืนเงินบางส่วนให้กับ รัฐบาลออสเตรเลีย หลังส่งรายงานมูลค่า 440,000 ดอลลาร์ที่มีข้อผิดพลาด ซึ่งจัดทำโดยใช้ generative AI
- รายงานดังกล่าวมีเป้าหมายเพื่อทบทวน กรอบการกำกับการปฏิบัติตามกฎของระบบสวัสดิการและระบบ IT และพบปัญหาข้อผิดพลาดหลายจุด รวมถึง คำอ้างอิงปลอมและการอ้างแหล่งข้อมูลเท็จ
- Deloitte ระบุในภาคผนวกของรายงานว่าได้ใช้โมเดลภาษาขนาดใหญ่ เช่น Azure OpenAI GPT–4o แต่ไม่ได้ยอมรับว่า AI เป็นสาเหตุโดยตรงของข้อผิดพลาด
- วุฒิสมาชิกจากพรรคแรงงานวิจารณ์ว่าบริษัทที่ปรึกษาแห่งนี้ ขาดความเชี่ยวชาญ และตำหนิว่า AI มีบทบาทสำคัญในงานชิ้นนี้
- แม้รายงานฉบับสุดท้ายจะถูกแก้ไขแล้ว แต่ สาระสำคัญ ข้อสรุป และข้อเสนอแนะยังคงไม่เปลี่ยนแปลง
Deloitte คืนเงินให้รัฐบาลออสเตรเลีย กรณีใช้ AI
ภาพรวมของเหตุการณ์
- Deloitte ยอมรับว่าได้ใช้ generative AI ในการจัดทำ รายงานรัฐบาลมูลค่า 440,000 ดอลลาร์ และหลังพบข้อผิดพลาด จึงตัดสินใจ คืนเงินบางส่วน ของค่าจ้างตามสัญญา
- รายงานดังกล่าวจัดทำตามคำขอของกระทรวงการจ้างงานและความสัมพันธ์ในสถานที่ทำงานของออสเตรเลีย (DEWR) เพื่อทบทวน ระบบอัตโนมัติด้านการกำกับการปฏิบัติตามกฎสำหรับผู้รับสวัสดิการ
- รายงานชี้ให้เห็นปัญหาหลายด้าน เช่น ความเชื่อมโยงที่ไม่เพียงพอ ระหว่างกฎของกรอบงานกับกฎหมายจริง และ ข้อบกพร่องเชิงโครงสร้าง ของระบบ IT
การใช้ AI และปัญหาที่เกิดขึ้น
- หลังรายงานถูกเผยแพร่ครั้งแรกเมื่อวันที่ 4 กรกฎาคม สื่อได้ชี้ให้เห็นถึง ข้อผิดพลาดหลายจุดและคำอ้างอิงที่ไม่มีอยู่จริง
- ตามคำกล่าวของ Dr. Christopher Rudge จาก University of Sydney รายงานนี้แสดงอาการ "hallucination" (การหลอนข้อมูล) ซึ่งพบได้บ่อยใน AI กล่าวคือมีการสร้างแหล่งข้อมูลที่ไม่มีอยู่จริงขึ้นมาหลายแห่ง
- ตัวอย่างเช่น แม้แต่ในรายงานเวอร์ชันใหม่ จำนวนคำอ้างอิงเท็จก็กลับเพิ่มขึ้นด้วยซ้ำ ซึ่งบ่งชี้ว่าข้อสรุปบางส่วนอาจถูกสร้างโดย AI มากกว่าจะอิงจากหลักฐานจริง
- Deloitte เพิ่มข้อมูลในภาคผนวกของรายงานฉบับอัปเดต ว่ามีการใช้ โมเดลภาษาขนาดใหญ่ เช่น Azure OpenAI GPT–4o
- โดยระบุว่าใช้ชุดเครื่องมือที่ทำงานภายใต้สัญญาอนุญาตใช้งานบนสภาพแวดล้อม Azure ของ DEWR
- อย่างไรก็ตาม บริษัทไม่ได้ยอมรับอย่างตรงไปตรงมาว่าปัญหาในรายงานฉบับแรกเกิดจาก AI โดยตรง
ปฏิกิริยาและการดำเนินการต่อ
- วุฒิสมาชิก Deborah O’Neill จากพรรคแรงงานวิจารณ์ว่า "อาจกล่าวได้ว่า Deloitte กำลังประสบปัญหาขาดแคลนความเชี่ยวชาญของมนุษย์ และการคืนเงินเพียงบางส่วนเป็น คำขอโทษที่ไม่เพียงพอสำหรับงานที่ต่ำกว่ามาตรฐาน"
- พร้อมระบุว่ารัฐบาลและหน่วยงานผู้ว่าจ้างจำเป็นต้องมี ผู้เชี่ยวชาญตัวจริงและหลักฐานยืนยันว่าไม่ได้พึ่ง AI อย่างไม่เหมาะสม
- และวิจารณ์เพิ่มเติมว่า "สมัครใช้ ChatGPT แทนการจ้างบริษัทที่ปรึกษาอาจจะดีกว่า"
- จากการตรวจสอบของสื่อ พบว่าในรายงานมีเนื้อหาเท็จอย่างเป็นรูปธรรม เช่น การอ้างถึงรายงานวิจัยมหาวิทยาลัยที่ไม่มีอยู่จริง และ การสรุปคำพิพากษาศาลผิดจากข้อเท็จจริง
- ตัวอย่าง: การสรุปข้อมูลเท็จเกี่ยวกับงานวิจัยของ University of Sydney, บทความของศาสตราจารย์จาก Lund University และคำพิพากษาคดี Robodebt (Deanna Amato v Commonwealth)
จุดยืนอย่างเป็นทางการและผลกระทบ
- Deloitte ระบุว่าได้แก้ไขปัญหาร่วมกับ DEWR โดยตรงแล้ว และย้ำว่า ข้อสรุปและข้อเสนอแนะ ของรายงานฉบับอัปเดต ไม่มีการเปลี่ยนแปลง
- ด้าน DEWR ก็ระบุว่าได้ แก้ไขเพียงเชิงอรรถและคำอ้างอิงบางส่วนที่บกพร่อง เท่านั้น และยังคงจุดยืนเดิมต่อข้อเสนอแนะและสาระสำคัญทั้งหมด
- ผู้เชี่ยวชาญบางส่วนเห็นว่าแม้ข้อสรุปโดยรวมของรายงานจะสอดคล้องกับหลักฐานที่มีอยู่ แต่ก็ยังเกิด คำถามต่อความน่าเชื่อถือของรายงาน
นัยสำคัญ
- กรณีนี้เป็นจุดกระตุ้นให้สังคมหันมาให้ความสำคัญกับ ความโปร่งใสในการใช้ generative AI ของอุตสาหกรรมที่ปรึกษา และ ความจำเป็นในการรับประกันความเชี่ยวชาญ
- ผู้ว่าจ้างจะตระหนักมากขึ้นถึงความจำเป็นในการเข้มงวดกระบวนการตรวจสอบ การใช้ AI และการยืนยันตัวตนของผู้เชี่ยวชาญอย่างเปิดเผย
1 ความคิดเห็น
ความเห็นจาก Hacker News
ขอเสริมข้อมูลอีกหน่อย รายงานฉบับนี้เกี่ยวกับระบบไอทีเจ้าปัญหาที่กล่าวหาว่าผู้รับสวัสดิการของรัฐไม่ผ่านเงื่อนไขการหางาน จนถูกปรับผิดพลาดหนักถึงขั้นทำลายชีวิต ค่าปรับเหล่านี้ถูกออกมาในรูปคำตัดสินหนี้ทันที จนถึงขั้นมีเจ้าหน้าที่ทวงหนี้มาถึงบ้านเพื่อยึดทรัพย์จริง ๆ แถมเพราะข้อบกพร่องร้ายแรงของระบบ คนที่ไม่เคยรับสวัสดิการจากรัฐเลยก็ยังโดนปรับผิดด้วย ในสถานการณ์แบบนี้กลับไปจ้างบริษัทที่ปรึกษาอย่าง Deloitte ด้วยเงิน 440,000 ดอลลาร์ให้ทำรายงาน ซึ่งพวกเขาใช้ AI ทำรายงานและยิ่งเพิ่มความผิดพลาดเข้าไปอีก หากให้ Deloitte รับผิดชอบสร้างระบบตั้งแต่แรก ก็มีความกังวลว่าอาจเกิดกรณีแบบ Royal Mail กับ Fujitsu ซ้ำอีก
กังวลว่าการใช้ AI แบบผิด ๆ นี้จะลุกลามจนกลายเป็นปัญหาเป็นตายจริง ๆ ไม่ใช่ว่าคนของ Deloitte โง่หรือขี้เกียจ แต่เป็นกลุ่มที่ไล่ตามเงิน จึงใช้ AI ทำแบบขอให้ผ่านตามข้อกำหนดแล้วรีบไปหาสัญญาถัดไป ผลที่ตามมาคือชีวิตคนจำนวนมากอาจพัง หรือถึงขั้นนำไปสู่การตัดสินใจสุดโต่ง นี่ไม่ใช่แค่การปลอมเอกสาร แต่เป็นปัญหาที่ทำให้มีคนติดอาวุธไปถึงหน้าบ้านได้จริง
ไม่ต้องจินตนาการเลย เพราะเรื่องแบบนี้เคยเกิดขึ้นมาแล้ว ดูได้จาก เหตุข้อมูลรั่วของ Deloitte ใน Rhode Island
ถ้าคิดว่าแม้แต่การผ่าน Deloitte ก็ยังยุ่งยากเกินไป ก็ให้โยนงานให้ OpenAI โดยตรงไปเลย
สาเหตุที่เป็นปัญหาตั้งแต่แรก ก็คือมีความเป็นไปได้สูงว่าตอนสร้างระบบต้นฉบับก็น่าจะใช้ Deloitte อยู่แล้ว
พูดถึงปัญหาของที่ปรึกษา/การเอาต์ซอร์สแล้ว ก็อยากพูดถึงปัญหาการสลับทีม A/B ด้วย ตอนแรกจะมีคนดูเก่งมากออกมาคุยเพื่อปิดดีล แต่พอสัญญาเซ็นแล้ว คนคนนั้นก็หายไปขายงานที่อื่น แล้วทีมที่โผล่มาจริง ๆ กลายเป็นทีม B ไม่ก็ทีม C
จากประสบการณ์ของผม ในสัญญาบริการก้อนใหญ่ ทีม A จะมาหว่านล้อมให้เราปิดดีล แต่คนที่ทำงานจริงคือทีม B แล้วพอเราหมดความสนใจเมื่อไร ก็จะสับเปลี่ยนเป็นทีม Z อีกที ทั้งที่เราบอกชัดว่าไม่เสียดายเงินถ้าได้คุณภาพ และพร้อมจ่ายเพิ่มไปตลอด สุดท้ายความโลภกลับทำให้เขาเสียทั้งสัญญา
ยิ่งทีมใหญ่ขึ้น ก็ยิ่งเป็นกรณีที่คนเก่งระดับ A คนเดียวต้องวนดูแล 100 ทีม คอยโผล่มาปลอบลูกค้าเวลาลูกค้าเริ่มโกรธ แล้วก็หายไปอีก ที่เหลือเป็นพนักงานระดับจูเนียร์แทบทั้งหมด (ทุกวันนี้ยิ่งมี AI ก็ยิ่งมีผู้เชี่ยวชาญน้อยลงอีก) ลูกค้าของผมคนหนึ่งทุ่มเงิน 500,000 ดอลลาร์ให้โปรเจ็กต์นี้ และคิดว่าจ่ายให้คน 15 คนทำงานอยู่หลายเดือน แต่พอสัมภาษณ์กันใน Zoom กลับพบว่าใน 15 คนนั้น มีแค่ 1 คนเท่านั้นที่รู้เรื่องโปรเจ็กต์จริง ๆ คนคนนั้นคือเทคลีดที่จ้างไว้ตั้งแต่แรก และยังเข้ามาช่วยได้แค่พาร์ตไทม์ ดูจากคุณภาพโค้ดแล้ว อีกสัก 5 คนก็น่าจะแค่เอาโค้ดจาก codex หรือ claude มาวาง ผ่าน "QA ปลอม ๆ" แล้วปล่อยขึ้นโปรดักชันทันที เรื่องแบบนี้มีตั้งแต่ก่อนยุค AI แล้ว ต่างกันแค่ว่าสมัยก่อนคือมีจูเนียร์ 15 คนช่วยกันเขียนโค้ดมั่ว ๆ
เรื่องนี้เป็นมุกที่สะท้อนยุคสมัยได้ดีมาก ดู การ์ตูน Dilbert
นี่แหละคือเกมทั้งหมด คุณเจอพาร์ตเนอร์ แต่สุดท้ายได้ทีมเด็กจบใหม่มาทำงาน โดยคุณจ่ายในอัตราค่าตัวของพาร์ตเนอร์ แถมถ้าซวยพอ คุณอาจต้องเป็นคนฝึกเด็กพวกนั้นเองด้วย
ถ้าจะมองในแง่บวก เหตุผลหนึ่งที่คนใช้บริการที่ปรึกษา/เอาต์ซอร์ส ก็คือโปรเจ็กต์ใหญ่แบบครั้งเดียวที่ทีมภายในรับไม่ไหว แทนที่จะต้องไปจ้างฟรีแลนซ์หลายคนแล้วประกอบเป็นทีมเอง การใช้ทีมภายนอกที่ประกอบมาแล้วในช่วงสั้น ๆ ย่อมมีประสิทธิภาพกว่า ในทางปฏิบัติ บริษัทที่ปรึกษาเองก็มักไปรวบคนจากข้างนอกมาประกอบเป็นทีมชั่วคราวให้ดูเหมือนพร้อมใช้งานเหมือนกัน
สงสัยว่ามีใครอธิบายได้ไหมว่าธุรกิจที่ปรึกษาทำงานอย่างไรและทำไมถึงอยู่ได้ ถ้าเป็นคนคนเดียวที่ทำได้แค่ให้ "คำแนะนำ" ก็คงถูกมองว่าไม่มีทางไป แต่พอทำในรูปบริษัท กลับมีทั้งองค์กรเอกชนและรัฐบาลต่อคิวขอคำปรึกษา ทั้งที่พนักงานในบริษัทเองย่อมรู้สภาพบริษัทดีกว่าคนนอกที่มีแค่สไลด์กับการค้นกูเกิล ไม่เข้าใจว่าทำไมคนนอกถึงได้รับความเชื่อถือและทำเงินได้มากกว่า
ที่จริงแล้ว เวลาอยากดันไอเดียแย่ ๆ โดยไม่อยากรับผิดชอบ ก็จะจ้างที่ปรึกษามาวนซ้ำจนได้คำตอบที่อยากได้ คุณภาพของที่ปรึกษาไม่ใช่ประเด็น จะใช้อินเทิร์นหรือ AI แทนก็ยังได้ ถ้าผลลัพธ์พัง ก็โยนความผิดให้ที่ปรึกษาได้ ส่วนพนักงานภายในที่ให้คำแนะนำเพื่อผลประโยชน์ของบริษัท กลับถูกกดเสียงหรือเมินเฉยเพราะไปขัดผลประโยชน์บางอย่าง พอปัญหาเผยออกมา คนก็ตบเท้าย้ายงานไปแล้ว พร้อมบรรทัดใหม่ในเรซูเม่
ความจริงคือบริษัทใหญ่มากมายแทบไม่มีความเชี่ยวชาญภายในเลยด้วยซ้ำ แถมก็มักมีคนที่ทำตัวเหมือนเป็นผู้เชี่ยวชาญแล้วกันไม่ให้จ้างคนที่เก่งกว่าตัวเอง ที่ปรึกษาที่ดีจะให้คำแนะนำพร้อมหลักฐานว่าควรทำอย่างไร และถ้าจำเป็นก็ลงมือทำเป็นโปรเจ็กต์ให้ด้วย ที่ปรึกษาไอทีระดับยอดจริง ๆ มีชุดทักษะที่หาได้ยากมากในประเทศ บริษัทอาจไม่คุ้มจะจ้างฟูลไทม์ แต่คุ้มแน่ถ้าเอาแบบจ้างภายนอกเดือนละไม่กี่ชั่วโมง ส่วนบริษัทที่ปรึกษารายใหญ่กลับเน้นเอาตายกับงานขาย และดูแลผู้มีอำนาจตัดสินใจแบบ VIP มีทั้งทริป ดื่ม และความบันเทิงเป็นองค์ประกอบเบื้องหลังด้วย ผมเคยมีประสบการณ์ไปเป็นที่ปรึกษาในโปรเจ็กต์หนึ่ง แล้วโต้แย้งตรรกะการขาย Dynamics CRM กับ Sharepoint ของที่ปรึกษาอีกเจ้าต่อหน้าลูกค้าแบบเปิด ๆ มาแล้ว
งานที่ปรึกษาไม่ใช่แค่ "ให้คำแนะนำ" เท่านั้น มันรวมถึงงานลงมือทำจริงอย่างการพัฒนาซอฟต์แวร์ด้วย ยิ่งเป็นบริษัทใหญ่ สิ่งที่ต้องการจริง ๆ คือ "หลักประกันทางกฎหมาย" ถ้าโปรเจ็กต์ล้มเหลว ต้องมีคู่กรณีให้ฟ้องชัดเจน ส่วน "คุณภาพ" ของงานนั้นเป็นเรื่องรองเมื่อเทียบกับหลักประกันนี้ บริษัทที่ปรึกษาคือผู้รับบทนั้น มีคนเยอะและมีเด็กจบใหม่เยอะ ถ้าคุณภาพไม่พอ ก็แค่เพิ่มคนเข้าไปหรือบังคับทำโอที โครงสร้างแบบนี้จึงถูกเรียกว่า "meatfarm" ด้วย มันไม่ล้มง่าย ๆ หรอก งานพัฒนาซอฟต์แวร์ยังถูกส่งต่อหลายชั้นหรือเอาต์ซอร์สไปต่างประเทศ โดยมีการหักค่าธรรมเนียมกันหลายทอด งานเองก็ทั้งยาก ทั้งน่าเบื่อ และมีงานจุกจิกมาก สัญญาก็ละเอียดราวกับนิยายทั้งเล่ม ตอนผมเป็นเด็กใหม่ที่ Accenture เคยเจอการประเมินราคาเปลี่ยนสี scrollbar บนเว็บไซต์แบบง่าย ๆ ซึ่งวิศวกรในอินเดียแก้ด้วยโค้ด 10 บรรทัด แต่ตีราคา 3,000 ยูโร หลังจากนั้นผมก็ย้ายงาน
ในทางทฤษฎี ก็มีคนที่เก่งด้านการแก้ปัญหาเฉพาะทางหรือมีประสบการณ์โดเมนเฉพาะจริง ๆ อยู่เหมือนกัน การรวบรวมคนแบบนี้มาตั้งเป็นบริษัทแล้วขายในราคาพรีเมียมก็เป็นโมเดลที่เป็นไปได้ จะเหมารวมว่าบริษัทที่ปรึกษาทั้งหมดไม่มีฝีมือเลยจึงเป็นความผิดพลาด ไม่ได้มีแค่ "ที่ปรึกษาด้านบริหาร" เท่านั้น ยังมีที่ปรึกษาด้านเทคโนโลยี ความปลอดภัย และสาขาอื่นที่มีความเชี่ยวชาญจริง ๆ ด้วย ผมก็เคยเห็นหลายกรณีที่ทีมภายในแก้ปัญหาไม่ได้ หรือเป็นต้นเหตุของปัญหาเอง ที่ปรึกษาที่ดีจะพยายามดึงอินไซต์ที่ซ่อนอยู่จากพนักงานภายในออกมาใช้แก้ปัญหาให้มากที่สุด ทักษะบางอย่างก็ทับซ้อนกับวิศวกรรมซอฟต์แวร์ เช่น การเก็บความต้องการและการสื่อสารกับผู้จัดการ
ตัวอย่างการใช้ที่ปรึกษาจากประสบการณ์ภาคสนามมีประมาณนี้
องค์กรอย่างภาครัฐส่วนใหญ่มักไม่ฟังความเห็นของวิศวกรภายใน แล้วกลับยอมจ่ายเงินก้อนโตให้ที่ปรึกษาภายนอกเพื่อมาพูดข้อสรุปเดิม หรือไม่ก็ใช้เพื่อสร้างภาพว่า "เรากำลังทำอะไรบางอย่างเพื่อแก้ปัญหา" บางครั้งผู้บริหารก็ไม่ไว้ใจคนในองค์กร หรืออยากได้ผลลัพธ์เร็วโดยไม่ดึงทีมออกจากงานหลัก บางกรณีก็ทำไปเพื่อเก็บผลงานไร้สาระ หรือหนักกว่านั้นก็มีแรงจูงใจจากค่านายหน้าและผลประโยชน์แอบแฝง
คนในองค์กรอาจเป็นทั้งผู้มีส่วนในปัญหาและเป็นผู้ตัดสินเอง ดังนั้นบางครั้งการใช้ที่ปรึกษาภายนอกก็ไม่ใช่ทางเลือกที่เลวร้ายเสมอไป มุมมองจากภายนอกที่เป็นอิสระ แม้จะมีความเข้าใจคลาดเคลื่อนบ้าง ก็อาจช่วยได้
หลายคนมองข้ามบทบาทสำคัญของที่ปรึกษาในฐานะเครื่องมือกระจายความรับผิดชอบทางกฎหมายและความรับผิดด้านผลงาน
นี่เป็นรูปแบบหนึ่งของ "ละครแสดงการทำ due diligence" โดยเฉพาะผู้บริหารที่อยากรู้ว่าวิศวกรของคู่แข่งจะเสนออะไร ที่ปรึกษาจึงพยายามทำหน้าที่แทนคำแนะนำชั้นยอดแบบนั้น
ถ้าจะสรุปสั้น ๆ ก็เรียกว่า "decision laundering" คือการใช้ที่ปรึกษาภายนอกมาเพิ่มความน่าเชื่อถือให้กับแนวทางที่ตัดสินใจกันไว้แล้ว แม้แต่ CEO เองก็ยอมรับเรื่องนี้เวลาอยู่กันแบบไม่เป็นทางการ
ถ้างานพังขึ้นมา ผู้อำนวยการก็พูดได้ว่า "เราแค่ทำตามคำแนะนำของ Deloitte" ซึ่งกันกระสุนได้ต่างจากการพูดว่า "Bob จากฝ่ายไอทีบอกมา" อย่างชัดเจน
ผมเป็นคนจบ MBA ที่เกือบจะเข้าวงการที่ปรึกษา แต่เปลี่ยนใจครั้งใหญ่แล้วหันมาเป็นวิศวกรซอฟต์แวร์ ลูกค้าของโปรเจ็กต์ที่ปรึกษาในโลกจริงก็คือ "ผู้บริหาร"
ผมเคยมีคนแนะนำผู้ช่วยประเภท "ถ้าเป็น Elon เขาจะทำอย่างไร?" ให้รู้จัก ผู้บริหารอยากรู้ว่าคู่แข่ง (หรือคู่แข่งในจินตนาการ) จะตัดสินใจอย่างไรภายใต้ข้อมูลชุดเดียวกัน และในขณะเดียวกันก็อยากฟังวิจารณญาณของผู้ช่วยที่ปรึกษาซึ่งทำหน้าที่เป็นตัวกลางด้วย
มันต่างกันมากตามอุตสาหกรรมและภูมิภาค บริษัทยักษ์บางแห่งที่ผมเคยทำงานด้วย ลูกค้าของงานที่ปรึกษาไม่ใช่ผู้บริหาร แต่เป็นผู้จัดการระดับกลางที่อยู่ห่างจากผู้บริหารหลายชั้น
แก่นแท้คือทำรีเสิร์ชเบา ๆ แล้วส่งมอบคำตอบที่อีกฝ่ายอยากฟัง ในแง่นี้ AI มีโอกาสจะพลิกตลาดที่ปรึกษาได้จริง
กระบวนการนี้ยังต้องแยกความต่างระหว่างแนวคิดเรื่อง "client" กับ "customer" ด้วย
ต่อให้หลอกเงินรัฐบาลออสเตรเลียและใช้ภาษีอย่างผิด ๆ ผลที่ออกมาก็มักเป็นแค่คืนเงินบางส่วน
ดูกรณีของ Craig Wright สิ เขาเป็นคนดังจากการแอบอ้างว่าเป็น Satoshi ก่อนหน้าการหลอกลวงเกี่ยวกับบิตคอยน์ เขายังเคยโกงเงินคืนภาษีมูลค่าเพิ่มและเครดิตภาษี R&D ไปหลายล้านดอลลาร์ และพยายามโกงเพิ่มอีกหลายสิบล้านดอลลาร์ พอถูกจับได้ก็หนีออกจากออสเตรเลีย คืนเงินแค่บางส่วน แล้วไปใช้ชีวิตดี ๆ อยู่ต่างประเทศโดยแทบไม่โดนลงโทษอะไรเลย
โครงสร้างมันแทบจะบังคับให้ออกมาแบบนี้ ถ้ามีคนโกง 1 ใน 10 คน การจะเรียกเงินคืนทั้งหมดแทบทำไม่ได้ ก็เลยจบที่เรียกเก็บแค่ "ต้นทุน + ความเสียหาย" หากยึดหลักว่าต้องเรียกคืนเต็มจำนวนทุกกรณี สัญญาก็คงยาวกว่างานจริงเสียอีก
กรณีนี้โดยเนื้อแท้ไม่ใช่ปัญหา AI แต่เป็นปัญหาความล้มเหลวในการกำกับดูแลงานเขียนรายงานมากกว่า หน้าที่ของที่ปรึกษาภายนอกคือทำให้ผลการสืบสวนผ่านการตรวจสอบจากสาธารณะได้ แต่ในกรณีนี้กลับล้มเหลวอย่างสิ้นเชิง สิ่งที่น่าตกใจกว่าคือแม้ผลงานจะแย่ขนาดนี้ ก็ยังแค่คืนเงินบางส่วน และไม่มีการทบทวนสัญญาปัจจุบันกับอนาคตทั้งหมดใหม่ ไม่ว่าความผิดพลาดในรายงานจะมาจาก AI หรือจากที่ปรึกษาที่อดนอนทั้งคืน ก็ควรตัดสินจากผลลัพธ์เหมือนกัน
พวก CEO กำลังเข้าใจผิดว่า GenAI จะมาแทนคนทำงานได้ แต่ความจริงคือฝั่งลูกค้าเองก็อยากจ่ายน้อยลงมากสำหรับผลงานที่ทำโดย GenAI สุดท้ายผลประหยัดต้นทุนก็หายไป กลายเป็นวงจรอุบาทว์ของกำไรที่ต่ำลง คุณภาพที่แย่ลง และราคาที่ถูกลง
ขอเสริมว่า สิ่งที่ลูกค้าจ่ายเงินซื้อจริง ๆ คือ "มนุษย์ที่รับผิดชอบและทำภารกิจให้สำเร็จ" AI ไม่มีความสามารถในการรับผิดชอบ ดังนั้นจึงไม่คุ้มที่จะจ่ายเงินสำหรับงานรายงานแบบนี้
อีกมุมหนึ่ง ในยุคหลัง AI หนทางสู่ความสำเร็จคือการทำผลงานให้ได้มากขึ้นด้วยจำนวนคนเท่าเดิม (หรือมากกว่าเดิม) AI ทำให้ระบบอัตโนมัติเป็นเรื่องธรรมดาและทำให้งานมีมูลค่าลดลง ดังนั้นการคิดแค่ลดคนเพื่อให้ธุรกิจเดินต่อจึงไม่ใช่กลยุทธ์เอาตัวรอด ตรงกันข้าม มาตรฐานใหม่คือทำให้ได้ทั้ง "สเกลและคุณภาพ" ในระดับที่ก่อนหน้านี้เป็นไปไม่ได้
แนวคิดคือ "ทำให้มูลค่าของบริการเข้าใกล้ศูนย์ พร้อมกับสร้างมูลค่าใหม่ขึ้นมา"
รายงานฉบับนี้เกี่ยวข้องกับนโยบายที่ทำให้คนว่างงานอาจถูกตัดสวัสดิการหากหางานไม่สำเร็จ — ซึ่งก็คือกลุ่มเดียวกับที่คนกังวลว่าจะตกงานเพราะ AI นั่นเอง
ในมุมลูกค้า ถ้าสามารถใช้ผลงานจาก GenAI ได้ในราคาถูกลง มันอาจกลายเป็นปัจจัยหนุนรายได้ก็ได้ แยกจากดราม่า Deloitte แล้ว ถ้าใช้ GenAI ได้ดี ก็มีโอกาสสร้างผลลัพธ์ที่ดีกว่าจริง
ผมเคยทำงานกับบริษัทที่ปรึกษามาเป็นเวลานาน และรู้สึกว่าหลายคนยังไม่เข้าใจธุรกิจนี้ดีพอ แน่นอนว่ามีกรณีเลวร้ายแบบไร้จริยธรรมอยู่ แต่ข้อดีและคุณค่าที่ที่ปรึกษามอบให้ก็มีอยู่จริงและมีมากพอสมควร ดูได้จากการที่อุตสาหกรรมนี้ยังอยู่รอดและทำรายได้ปีละหลายพันล้านดอลลาร์มาจนถึงทุกวันนี้
มีความเห็นว่าถ้านับเทียบกับขนาดทางเศรษฐกิจแล้ว แทบไม่มีองค์กรไหนสร้างคุณค่าต่อสังคมได้น้อยเท่ากลุ่ม Big 4 อีกแล้ว