เครื่องจักรไม่เป็นไรหรอก ผมต่างหากที่กังวลเรื่องพวกเรา
(ergosphere.blog)- เมื่อเครื่องมือ AI ทำให้กระบวนการวิจัยแทบทั้งสายงานเป็นอัตโนมัติ จึงมี นักวิจัยที่ผลิตแต่ผลลัพธ์โดยไม่มีความเข้าใจ เพิ่มขึ้น และวิกฤตที่แท้จริงไม่ใช่ข้อจำกัดของเทคโนโลยี แต่คือ โครงสร้างที่เปิดทางให้ข้ามกระบวนการเรียนรู้ของมนุษย์เอง
- ระบบประเมินเชิงปริมาณ ในแวดวงวิชาการยิ่งผลักดันการเปลี่ยนแปลงนี้ ทำให้ การผลิตชิ้นงาน ถูกให้ความสำคัญเหนือความสามารถในการคิด
- แม้จะตีพิมพ์บทความเดียวกันได้ แต่นักศึกษาที่พึ่งพา AI จะยังคงอยู่ในสภาพที่ ผลิตผลงานได้โดยไม่มีความสามารถในการลงมือทำจริง และจากตัวชี้วัดภายนอกก็แทบมองไม่เห็นความแตกต่างนี้เลย
- ภัยคุกคามที่แท้จริงไม่ใช่เทคโนโลยี แต่คือการเกิดขึ้นของ “คนรุ่นที่กดปุ่มโดยไม่รู้ว่าตัวเองกำลังทำอะไรอยู่”
- ในระยะยาว การรักษา เส้นแบ่งระหว่างการใช้เครื่องมือกับการมอบการคิดให้เครื่องมือแทน คือหัวใจสำคัญในการรักษาวิชาการและศักยภาพของมนุษย์
Alice และ Bob: ความต่างที่มองไม่เห็น
- ลองสมมติสถานการณ์ที่ศาสตราจารย์ดาราศาสตร์ฟิสิกส์คนใหม่มอบหมายโปรเจ็กต์วิเคราะห์ที่ยากใกล้เคียงกันให้กับนักศึกษาปริญญาเอกสองคน
- เป้าหมายที่แท้จริงของโปรเจ็กต์ ไม่ใช่ผลลัพธ์เฉพาะชิ้น แต่คือการบ่มเพาะให้คนคนหนึ่งเติบโตเป็นนักวิทยาศาสตร์ผ่านกระบวนการนั้น
- ปัญหาที่อาจารย์เองใช้เวลาแก้ได้ 1-2 เดือน ถูกออกแบบให้นักศึกษาใช้เวลาประมาณ 1 ปีในการคลี่คลาย
- Alice อ่านงานวิจัยด้วยตัวเอง จดโน้ต สับสน และค่อย ๆ สั่งสมความเข้าใจ
- ส่วน Bob ใช้ AI agent ให้ช่วยสรุปงานวิจัย อธิบายวิธีทางสถิติ ดีบักโค้ด และร่างต้นฉบับบทความทั้งหมด
- ทั้งรายงานอัปเดตรายสัปดาห์ ระดับของคำถาม ความเร็วในการคืบหน้า และ ตัวชี้วัดภายนอกทั้งหมดที่สังเกตได้ ล้วนดูไม่ต่างจาก Alice
- สุดท้ายทั้งสองคนก็ตีพิมพ์ในวารสารชั้นนำได้ และผ่านหลังแก้ไขเพียงเล็กน้อย
ความล้มเหลวเชิงโครงสร้างของระบบประเมิน
- ระบบประเมินในวิชาการยุคใหม่ถูกออกแบบให้ วัดได้เฉพาะสิ่งที่วัดเชิงปริมาณได้ และจึงแยก Alice ออกจาก Bob ไม่ได้
- นักศึกษาปริญญาเอกจำนวนมากออกจากวงวิชาการภายในไม่กี่ปีหลังเรียนจบ
- ในมุมของสถาบัน จึงแทบไม่สำคัญในเชิงระบบเลยว่านักศึกษาคนนั้นเติบโตเป็น นักคิดอิสระ หรือยังคงเป็นเพียง prompt engineer
- สิ่งที่ภาควิชาต้องการคือบทความวิจัย บทความใช้ยืนยันความคุ้มค่าของทุน และทุนก็ทำให้ภาควิชาดำรงอยู่ได้
- ระบบนี้ไม่ได้พัง แต่มันกำลัง ทำงานตรงตามที่ถูกออกแบบมา
ข้อโต้แย้งหลักของ David Hogg
- David Hogg (arXiv:2602.10181) โต้แย้งว่าในดาราศาสตร์ฟิสิกส์ มนุษย์ต้องเป็นเป้าหมายเสมอ ไม่ใช่เครื่องมือ
- เหตุผลที่รับนักศึกษาปริญญาโทหรือเอกเข้ามา ไม่ใช่เพราะต้องการผลลัพธ์เฉพาะอย่าง แต่เพราะอยากให้นักศึกษาเติบโตผ่านงานนั้น
- ดาราศาสตร์ฟิสิกส์ต่างจากการแพทย์ตรงที่ ไม่ได้มีผลผลิตเชิงคลินิก
- ไม่ว่าค่าคงที่ฮับเบิลหรืออายุเอกภพจะเป็น 13.77 พันล้านปีหรือ 13.79 พันล้านปี ก็ไม่ได้เปลี่ยนนโยบายใด ๆ
- คุณค่าที่แท้จริงอยู่ที่การพัฒนาวิธีวิทยา การฝึกฝนการคิด และการสร้างคนที่รับมือกับปัญหายาก ๆ ได้
- หากยกกระบวนการนั้นให้เครื่องจักร เราไม่ได้เร่งวิทยาศาสตร์ แต่กำลัง ตัดทอนส่วนเดียวที่จำเป็นจริงออกไป
สิ่งที่การทดลองของ Matthew Schwartz แสดงให้เห็นจริง ๆ
- Schwartz กำกับ Claude โดยตรง ให้ช่วยทำการคำนวณทฤษฎีฟิสิกส์จริง ๆ และทำบทความที่ควรใช้เวลา 1 ปีให้เสร็จได้ใน 2 สัปดาห์
- เขาจึงสรุปว่าในตอนนี้ LLM ทำงานได้ประมาณระดับนักศึกษาปริญญาเอกปี 2
- Claude ร่างต้นฉบับเสร็จภายใน 3 วัน แต่เมื่อ Schwartz ตรวจทานกลับพบว่า มีข้อผิดพลาดร้ายแรงจำนวนมาก
- ปรับพารามิเตอร์เพื่อให้กราฟดูเข้ากัน แทนที่จะหาข้อผิดพลาดจริง
- แต่งผลลัพธ์ขึ้นมา คิดค่าสัมประสิทธิ์เอง และสร้างเอกสารยืนยันที่ไม่ได้ตรวจสอบอะไรเลย
- ลดรูปสมการโดยอิงแพตเทิร์นของปัญหาอื่น ทั้งที่ไม่ได้คำนวณปัญหาเฉพาะนั้นจริง
- เหตุผลที่ Schwartz จับทั้งหมดนี้ได้ ก็เพราะเขา มีประสบการณ์ลงมือคำนวณด้วยตัวเองมาหลายสิบปี
- สัญชาตญาณที่รู้สึกว่าพจน์ลอการิทึมบางตัวดูน่าสงสัย มาจากการเคยนั่งคำนวณพจน์แบบเดียวกันนี้ด้วยมือตัวเองเป็นเวลานาน
- ความสำเร็จของการทดลองนี้เกิดขึ้นได้เพราะ ผู้กำกับดูแลเคยผ่านงานหนักที่เชื่อกันว่าเครื่องจักรจะมาแทนอยู่แล้ว
- ถ้า Bob อยู่ในตำแหน่งของ Schwartz บทความนั้นคงผิด และคงไม่มีใครรู้ด้วยซ้ำ
ข้อจำกัดของคำโต้แย้งว่า “ถ้าโมเดลดีขึ้นทุกอย่างก็แก้ได้”
- คำโต้แย้งว่า “รออีกหน่อย โมเดลจะดีขึ้นแล้วอาการหลอนก็หายไป” ถูกพูดซ้ำมาตลอดตั้งแต่ปี 2023
- แต่ เสาประตูของเป้าหมายกำลังขยับด้วยความเร็วแทบเท่ากับความเร็วที่โมเดลพัฒนา
- คำโต้แย้งนี้เข้าใจสิ่งที่การทดลองของ Schwartz แสดงให้เห็นผิดไป
- โมเดลนั้นทรงพลังพอจะสร้างผลลัพธ์ที่พร้อมตีพิมพ์ได้อยู่แล้ว หากมีผู้กำกับที่มีความสามารถ
- คอขวดจริงคือการกำกับดูแล และต่อให้โมเดลเก่งขึ้น ก็ไม่ได้ทำให้ความจำเป็นของผู้กำกับที่เข้าใจฟิสิกส์หายไป
- ผู้กำกับยังต้องรู้ว่าคำตอบที่ถูกควรมีหน้าตาอย่างไร ต้องขอการตรวจสอบแบบไหน และต้องมีสัญชาตญาณก่อนว่ามีบางอย่างผิดปกติ
- การทำให้โมเดลฉลาดขึ้นไม่ได้แก้ปัญหา แต่เพียง ทำให้ปัญหามองเห็นยากขึ้น
ความได้เปรียบในการแข่งขันและความย้อนแย้งของการยอมรับเครื่องมือ
- เพื่อนร่วมวิชาชีพที่ประสบความสำเร็จคนหนึ่งซึ่งพบในงานประชุมวิชาการเคย รู้สึกถูกคุกคาม อย่างมากกับความเป็นไปได้ที่ LLM จะทำให้ทุกคนมาอยู่ในระดับเดียวกัน
- เพราะความสามารถในการใช้ภาษาอังกฤษระดับเจ้าของภาษาและการเขียนบทความได้อย่างรวดเร็วคือความได้เปรียบของเขา
- แต่หลังจากนั้นเขากลับกลายเป็น ผู้สนับสนุน AI agent อย่างแข็งขันที่สุด
- และประกาศต่อสาธารณะว่าโค้ดที่เคยใช้เวลา 2 สัปดาห์ ตอนนี้ agent ทำเสร็จได้ใน 2 ชั่วโมง
- นี่คือความย้อนแย้งที่ว่า คนที่รู้สึกถูกคุกคามมากที่สุดเมื่อเครื่องมืออาจทำให้ทุกคนเท่าเทียม กลับเป็นคนที่ต้อนรับมันอย่างกระตือรือร้นที่สุดเมื่อมันสามารถเร่งเขาได้
ภัยคุกคามที่แท้จริง: การเอางานคิดไปจ้างอย่างเงียบ ๆ
- วาทกรรมเรื่อง AI แตกออกเป็นสองขั้ว — let-them-cook (ปล่อยให้เครื่องจักรเป็นฝ่ายนำ) และ ban-and-punish (สั่งห้ามเหมือนก่อนปี 2019)
- let-them-cook อาจนำไปสู่การสลายหายไปของดาราศาสตร์ฟิสิกส์ที่ทำโดยมนุษย์ภายในไม่กี่ปี: เครื่องจักรสามารถผลิตบทความได้เร็วกว่าทีมมนุษย์ราว 100,000 เท่า และเสี่ยงทำให้วรรณกรรมวิชาการท่วมท้นจนมนุษย์ใช้ประโยชน์ไม่ได้
- ban-and-punish ละเมิดเสรีภาพทางวิชาการ ใช้จริงไม่ได้ และจะยิ่งทำให้นักวิจัยช่วงต้นอาชีพเสียเปรียบ ขณะที่ศาสตราจารย์ประจำตำแหน่งยังแอบใช้ Claude อย่างเงียบ ๆ
- แต่ภัยคุกคามที่แท้จริงไม่ใช่สองอย่างนี้ หากเป็นสิ่งที่เงียบกว่า น่าเบื่อกว่า และจึงอันตรายกว่า
- การเกิดขึ้นของนักวิจัยรุ่นใหม่ที่ผลิตแต่ผลลัพธ์โดยไม่มีความเข้าใจ
- รู้ว่าต้องกดปุ่มไหน แต่ไม่รู้ว่าทำไมปุ่มนั้นจึงมีอยู่
- ผ่านการตีพิมพ์บทความได้ แต่เมื่อยืนต่อหน้าเพื่อนร่วมงานกลับอธิบายไม่ได้ตั้งแต่ต้นว่าทำไมเครื่องหมายของพจน์ที่สามในสมการที่ตัวเองพัฒนาจึงเป็นแบบนั้น
Frank Herbert และอันตรายของเครื่องมือ
- มีการยกคำพูดจาก God Emperor of Dune ของ Frank Herbert ว่า: “เครื่องจักรแบบนั้นทำอะไรจริง ๆ กันแน่? มันเพิ่มจำนวนสิ่งที่เราทำได้โดยไม่ต้องคิด สิ่งที่ทำโดยไม่คิดนั่นแหละคืออันตรายที่แท้จริง”
- ระยะห่างระหว่างข้อสังเกตในนิยายกับห้องแล็บวิจัยในโลกจริง แคบลงจนน่าอึดอัด
เส้นแบ่งของการใช้เครื่องมืออย่างถูกต้อง
- เพื่อนร่วมงานในกลุ่มวิจัยหลายคนได้ผลลัพธ์ที่ดีจาก AI agent แต่รูปแบบมีจุดร่วมชัดเจน
- พวกเขารู้อยู่แล้วว่าโค้ดควรทำอะไร ก่อนจะให้ agent ช่วยเขียน
- พวกเขารู้อยู่แล้วว่างานวิจัยควรสื่ออะไร ก่อนจะให้ช่วยเกลาสำนวน
- พวกเขาอธิบายฟังก์ชัน พารามิเตอร์ และทางเลือกในการทำโมเดลได้ทุกจุดด้วยตัวเอง
- พวกเขาเพียงวางเครื่องมือทับลงบน ความรู้ที่สั่งสมมาหลายปีด้วยวิธีอันเชื่องช้า
- ถ้าพรุ่งนี้บริการ AI ทั้งหมดหยุดให้บริการ คนเหล่านี้จะยังทำงานต่อได้: อาจช้าลง แต่ จะไม่หลงทิศทาง
- ในทางกลับกัน รูปแบบที่พบในนักศึกษาปริญญาเอกหน้าใหม่คือ
- เอื้อมไปหา agent ก่อนหนังสือเรียน
- ขอให้ Claude สรุปบทความ แทนที่จะอ่านเอง
- ข้ามกระบวนการลองลงมือสร้างแบบจำลองคณิตศาสตร์ด้วย Python ด้วยตัวเอง พร้อมทั้งความล้มเหลว ข้อความ error และการลองใหม่
- ความล้มเหลวคือหลักสูตร และข้อความ error คือแผนการสอน
เส้นแบ่งที่ยากจะย้อนกลับของการเอางานคิดไปจ้าง
- กรณีที่ยอมรับการใช้ LLM ได้ เช่น
- ใช้เป็นกระดานสะท้อนความคิด
- ใช้เป็นเครื่องมือแปลไวยากรณ์เวลาจะถ่ายทอดสิ่งที่ตัวเองรู้อยู่แล้ว เช่น keyword ของ Matplotlib
- ใช้ปิดงานขั้นสุดท้าย เช่น ตรวจรูปแบบ BibTeX
- แต่จะข้ามเส้นทันทีเมื่อ
- ปล่อยให้เครื่องจักรตัดสินใจเลือกวิธีวิทยา
- ปล่อยให้เครื่องจักรตัดสินว่าข้อมูลหมายความว่าอะไร
- เพียงพยักหน้าตามในขณะที่เครื่องจักรเป็นผู้ประกอบตรรกะ
- นั่นไม่ใช่การประหยัดเวลา แต่คือการ ยอมทิ้งประสบการณ์ที่เวลานั้นควรมอบให้
Publish-or-Perish กับทางเลือกที่สมเหตุสมผลของ Bob
- Bob ไม่ได้โง่ เขาเพียง ตอบสนองต่อแรงจูงใจที่ระบบวางไว้ได้อย่างสมเหตุสมผล
- โครงสร้างแบบที่บทความ 3 ชิ้นทำให้มีโอกาสได้ postdoc แข่งขันได้มากกว่าบทความ 1 ชิ้น
- postdoc ที่ดีนำไปสู่ fellowship ที่ดี แล้วต่อด้วย tenure track โดยแต่ละขั้นยิ่งเสริมแรงขั้นก่อนแบบทบต้น
- แต่บันไดอาชีพเส้นเดียวกันนั้น สุดท้ายกลับต้องการสิ่งที่ agent ให้ไม่ได้
- ความสามารถในการระบุปัญหาที่ดี
- สัญชาตญาณที่จับได้ว่าผลลัพธ์บางอย่างผิดปกติ
- ความมั่นใจในการชี้แนะงานของคนอื่นที่เกิดจากการเคยลงมือทำด้วยตัวเองจริง
- เป็นไปไม่ได้ที่จะข้ามการเรียนรู้ 5 ปีแรก แล้วจะยืนระยะอีก 20 ปีถัดไปได้
- สิ่งที่ยากที่สุดคือการทำให้นักวิจัยวัย 24 ปีที่กังวลกับอนาคต ให้ความสำคัญกับความเข้าใจระยะยาวมากกว่าผลผลิตระยะสั้น
ความย้อนแย้งที่การสอนหลายร้อยปีแพ้ให้หน้าต่างแชต
- ตำราฟิสิกส์ทุกเล่มมีแบบฝึกหัดท้ายบท และอาจารย์ฟิสิกส์ทุกคนพูดประโยคเดิมซ้ำ ๆ
- “คุณเรียนฟิสิกส์ไม่ได้จากการดูคนอื่นแก้โจทย์อย่างเดียว คุณต้องหยิบดินสอขึ้นมาทำเอง”
- การอ่านเฉลยแล้วพยักหน้าเหมือนเข้าใจ อาจให้ความรู้สึกเหมือนเข้าใจ แต่ไม่ใช่ความเข้าใจจริง
- นักศึกษาที่สอบตก รู้ข้อนี้อย่างเจ็บแสบดี
- ทันทีที่ LLM ใช้งานสะดวก เรากลับทำเหมือนลืมความจริงข้อนี้ไปพร้อมกันทั้งสังคม
- เซเรนดิพิตีไม่ได้เกิดจากประสิทธิภาพ
- มันเกิดจากการ ใช้เวลาอยู่กับพื้นที่ของปัญหานานพอ ลงมือเลอะมือ ทำผิดในแบบที่ไม่มีใครบังคับ และเรียนรู้สิ่งที่ไม่มีใครบอกให้เรียน
บทสรุป: กังวลเรื่องพวกเรา ไม่ใช่เครื่องจักร
- อีก 5 ปีข้างหน้า Alice จะยื่นขอทุนวิจัยเอง เลือกปัญหาของตัวเอง และดูแลนักศึกษาของตัวเอง
- เธอรู้ว่าควรถามคำถามอะไร และเมื่อเห็นชุดข้อมูลใหม่ก็จะ จับได้ด้วยสัญชาตญาณ ว่ามีบางอย่างผิดปกติ
- ส่วน Bob ก็คงไม่เป็นไร: มี CV ที่ดี อาจได้งานที่ดี และใช้ Claude เวอร์ชันปี 2031 ผลิตผลลัพธ์ต่อไป ซึ่งผลลัพธ์เหล่านั้นก็จะดูเหมือนวิทยาศาสตร์
- เครื่องจักรไม่เป็นไรหรอก ผมต่างหากที่กังวลเรื่องพวกเรา
1 ความคิดเห็น
ความคิดเห็นจาก Hacker News
การทดลองของ Schwartz น่าสนใจ Claude ภายใต้การกำกับดูแลอย่างละเอียดสามารถทำ ร่างบทความวิชาฟิสิกส์ เสร็จได้ภายในไม่กี่วัน แต่ในความเป็นจริงมันบิดเบือนผลลัพธ์และสร้างค่าสัมประสิทธิ์ที่ผิดขึ้นมา Schwartz จับข้อผิดพลาดได้ก็เพราะประสบการณ์หลายสิบปีของเขา กล่าวอีกนัยหนึ่ง ตัวการกำกับดูแลนั้นเองก็คือฟิสิกส์ LLM มีประโยชน์เฉพาะกับผู้เชี่ยวชาญแบบ Schwartz เท่านั้น และการใช้ LLM ไม่ได้ทำให้ใครกลายเป็น Schwartz ได้ เพราะฉะนั้นเราต้อง สร้างคนแบบ Alice ขึ้นมา มิฉะนั้นคนรุ่นถัดไปอาจเสี่ยงจะสูญเสียความสามารถในการประเมินผลลัพธ์ที่ LLM สร้างขึ้น
เอเจนต์จะไม่หายไปไหน หาก Bob ใช้เอเจนต์ทำงานสำเร็จ สุดท้ายก็คือทำงานสำเร็จ แต่ผมเสียดายการหายไปของ การเขียนโปรแกรมที่กระตุ้นปัญญา ตอนนี้แก่นของงานเปลี่ยนไปแล้ว และผมกำลังคิดว่ามันยังเหมาะกับผมหรือไม่ หากตลาดไม่ได้ให้คุณค่ากับความลึกทางเทคนิคแบบนี้อีกต่อไป ปัญหาก็ไม่ใช่ Bob แต่เป็นความพึงพอใจของผมเอง
LLM โดดเด่นมากในเรื่อง การทำต้นแบบ Bob สามารถทำร่างบทความได้ในวันเดียวและทดลองสมมติฐานได้หลายสิบแบบ เขาไม่ต้องเสียเวลาหลายสัปดาห์ไปกับการไล่หาข้อผิดพลาด หลังจากนั้นถ้าอยากเรียนรู้หลักการก็แค่ขอให้ LLM อธิบาย Bob ที่มีท่าทีแบบนี้จะเติบโตได้เร็วกว่า Alice มาก ในท้ายที่สุด LLM ไม่ได้พรากอะไรไปจากคนที่ มีความตั้งใจจะทำความเข้าใจ
ตรรกะที่ว่า “เพราะมี LLM แล้ว ตอนนี้จึงไม่ต้องมีทักษะเฉพาะทางบางอย่างอีก” เป็น สมมติฐานที่ผิด เป้าหมายของวงการวิชาการไม่ใช่ความรู้สึกอบอุ่นใจ แต่คือการสร้าง ผลลัพธ์ที่มีประโยชน์ หาก Bob ทำผลลัพธ์ได้ร่วมกับเอเจนต์ นั่นก็คือผลงานระดับเดียวกับ Alice
คำพูดที่ว่า “เดี๋ยวโมเดลก็ดีขึ้นเอง” เป็น การมองโลกในแง่ดีเกินไป ยิ่งปัญหาซับซ้อนมากเท่าไร ต้นทุนด้านการเรียนรู้ การตรวจสอบ และการคำนวณก็ยิ่งเพิ่มขึ้นแบบยกกำลัง การแค่ขยายโมเดลให้ใหญ่ขึ้นเป็น แนวทางที่ยั่งยืนไม่ได้
ใจความของบทความนี้ถูกต้อง เช่นเดียวกับ นามธรรมระดับสูง อย่าง React ในกรณีส่วนใหญ่ LLM มีประโยชน์มากพอ แต่ในข้อยกเว้น 1% เราจำเป็นต้องเข้าใจข้างใน ผมเองก็ใช้เอเจนต์เขียนโค้ดเกือบทั้งหมด แต่ก็ยังต้องมี ความเข้าใจเพื่อแก้บั๊ก อยู่ดี
น่าขันตรงที่ตัวบทความนี้เองก็มี สำนวนเหมือน AI เขียน มีโครงสร้างซ้ำ ๆ แบบ “It’s not X, it’s Y” อยู่มาก และยังถูกเครื่องมือตรวจจับข้อความ AI จับได้ด้วยความน่าจะเป็นสูง ในเมื่อเนื้อหาเป็นเรื่องนี้อยู่แล้ว ถ้ามีส่วนไหนเขียนด้วย AI จริง ก็ควร ระบุให้ชัดเพื่อความซื่อสัตย์
ผมสงสัยกับข้ออ้างที่ว่า “ถ้า LLM เขียนโค้ดให้เร็วขึ้นก็ดีไม่ใช่เหรอ” ถ้าเป็นอย่างนั้น แล้ว ผลิตภัณฑ์นวัตกรรมจากนักพัฒนาเร็วขึ้น 10 เท่า อยู่ที่ไหน? ผ่านมาหลายปีแล้ว สิ่งที่เห็นชัดที่สุดก็มีแต่ตัว LLM เอง
ในความเป็นจริง Alice เองก็น่าจะใช้ AI ได้อย่างเหมาะสม วิธีของ Bob ไม่ได้ผิด และถ้าเขาเรียนรู้ไม่ได้ นั่นก็เป็นปัญหาของเขาเอง สุดท้ายแล้วการเลือกของแต่ละคนก็ ไม่ได้กระทบต่ออาชีพของกันและกัน