- OpenAI สนับสนุนร่างกฎหมายวุฒิสภารัฐอิลลินอยส์ SB 3444 ซึ่งมีเนื้อหาเกี่ยวกับการ จำกัดความรับผิดทางกฎหมายของห้องแล็บ AI ภายใต้เงื่อนไขบางประการ แม้โมเดล AI จะก่อให้เกิดการสูญเสียชีวิตจำนวนมากหรือความเสียหายต่อทรัพย์สินมูลค่ามหาศาลก็ตาม
- ร่างกฎหมายนี้นิยามกรณีที่ AI ทำให้มีผู้เสียชีวิตหรือบาดเจ็บสาหัสตั้งแต่ 100 คนขึ้นไป หรือก่อความเสียหายต่อทรัพย์สินมูลค่ามากกว่า 1 พันล้านดอลลาร์ ว่าเป็น “ความเสียหายร้ายแรง (critical harm)”
- หากห้องแล็บ AI ไม่ได้ก่อให้เกิดความเสียหายดังกล่าวจาก เจตนา หรือความประมาทเลินเล่ออย่างร้ายแรง และได้เผยแพร่ รายงานด้านความปลอดภัย ความมั่นคง และความโปร่งใส บนเว็บไซต์ ก็อาจได้รับการยกเว้นความรับผิด
- ร่างกฎหมายกำหนดว่า ‘frontier model’ คือ AI ที่มีต้นทุนการฝึกมากกว่า 100 ล้านดอลลาร์ ซึ่งมีแนวโน้มว่าจะครอบคลุมห้องแล็บ AI รายใหญ่อย่าง OpenAI, Google, xAI, Anthropic และ Meta
- นิยามนี้ถูกมองว่าเป็นความพยายามในการวางกรอบกำกับดูแลที่มุ่งเน้น ระบบ AI สมรรถนะสูง
- โฆษกของ OpenAI Jamie Radice ระบุในแถลงการณ์ทางอีเมลว่า “แนวทางนี้ช่วยลดความเสี่ยงของความเสียหายร้ายแรงจากระบบ AI ขั้นสูง ขณะเดียวกันก็ช่วยให้เทคโนโลยีเข้าถึงภาคธุรกิจและบุคคลทั่วไป”
- นอกจากนี้ยังระบุว่าร่างกฎหมายนี้ช่วยสนับสนุนการจัดทำ มาตรฐานระดับชาติที่ชัดเจนและสอดคล้องกัน แทนกฎระเบียบที่แตกต่างกันในแต่ละรัฐ
- ‘ความเสียหายร้ายแรง’ ตามนิยามของร่างกฎหมายยังรวมถึงกรณีที่ AI สร้างอาวุธเคมี ชีวภาพ รังสี หรือนิวเคลียร์ หรือกระทำการด้วยตนเองในลักษณะที่หากมนุษย์เป็นผู้กระทำจะถือเป็นอาชญากรรม
- แม้การกระทำเหล่านี้จะนำไปสู่ความเสียหายในวงกว้าง หากห้องแล็บ AI ไม่ได้กระทำโดยเจตนาและได้ยื่นรายงานตามที่กำหนด ก็อาจ ได้รับการยกเว้นความรับผิดทางกฎหมาย
-
ความขัดแย้งระหว่างกฎระเบียบระดับรัฐบาลกลางกับร่างกฎหมายระดับรัฐ
- Caitlin Niedermeyer จากทีมกิจการสาธารณะระดับโลกของ OpenAI เน้นย้ำในการให้การสนับสนุน SB 3444 ถึงความจำเป็นของ กรอบกำกับดูแล AI ระดับรัฐบาลกลาง
- เธอระบุว่ากฎระเบียบที่แตกต่างกันไปในแต่ละรัฐ อาจก่อให้เกิดแรงเสียดทานที่ไม่มีประสิทธิภาพ และควรเสริมสร้างความสอดคล้องกับระบบระดับรัฐบาลกลาง
- จุดยืนนี้คล้ายกับ ท่าทีโดยรวมของซิลิคอนแวลลีย์ และสอดคล้องกับตรรกะที่ให้ความสำคัญกับ การรักษาความสามารถในการแข่งขันด้าน AI ของสหรัฐฯ
- Niedermeyer กล่าวว่า “การนำ frontier model ไปใช้อย่างปลอดภัย และการรักษาความเป็นผู้นำด้านนวัตกรรมของสหรัฐฯ ควรเป็น North Star ของการกำกับดูแล”
- Caitlin Niedermeyer จากทีมกิจการสาธารณะระดับโลกของ OpenAI เน้นย้ำในการให้การสนับสนุน SB 3444 ถึงความจำเป็นของ กรอบกำกับดูแล AI ระดับรัฐบาลกลาง
-
โอกาสที่ร่างกฎหมายจะผ่านและเสียงวิจารณ์
- Scott Wisor ผู้อำนวยการนโยบายของ Secure AI Project ประเมินว่าเมื่อพิจารณาจาก แนวโน้มการกำกับดูแลเทคโนโลยี ของรัฐอิลลินอยส์แล้ว ร่างกฎหมายนี้มีโอกาสผ่านต่ำ
- ผลสำรวจความคิดเห็นชาวอิลลินอยส์พบว่า 90% คัดค้านการยกเว้นความรับผิดให้บริษัท AI
- ฝ่ายนิติบัญญัติของรัฐกลับกำลังเสนอร่างกฎหมายที่ เพิ่มความรับผิดของผู้พัฒนา AI มากกว่า
- รัฐอิลลินอยส์เป็นรัฐแรกที่ออก กฎหมายจำกัดการใช้ AI ในบริการสุขภาพจิต และยังเคยผ่าน กฎหมายคุ้มครองข้อมูลชีวมิติ (BIPA) ตั้งแต่ปี 2008
- Scott Wisor ผู้อำนวยการนโยบายของ Secure AI Project ประเมินว่าเมื่อพิจารณาจาก แนวโน้มการกำกับดูแลเทคโนโลยี ของรัฐอิลลินอยส์แล้ว ร่างกฎหมายนี้มีโอกาสผ่านต่ำ
-
ประเด็นที่ยังไม่คลี่คลายเรื่องความรับผิดต่อความเสียหายจาก AI
- แม้ SB 3444 จะมุ่งเน้นไปที่ความเสียหายขนาดใหญ่ แต่การถกเถียงเรื่อง ความเสียหายในระดับปัจเจกบุคคล ก็ยังดำเนินต่อไป
- มีบางครอบครัวยื่นฟ้อง OpenAI โดยอ้างว่าบุตรหลานของตน ฆ่าตัวตายหลังมีปฏิสัมพันธ์ที่ผิดปกติกับ ChatGPT
- การออกกฎหมาย AI ระดับรัฐบาลกลางยังคง ไม่มีความคืบหน้าในสภาคองเกรส
- แม้รัฐบาลทรัมป์จะออกคำสั่งฝ่ายบริหารและกรอบแนวทางต่าง ๆ แต่ การหารือด้านนิติบัญญัติที่เป็นรูปธรรมยังอยู่ในภาวะชะงักงัน
- ท่ามกลางการขาดแนวทางจากรัฐบาลกลาง รัฐต่าง ๆ เช่น แคลิฟอร์เนียและนิวยอร์ก ได้ผ่านกฎหมายของตนเองเพื่อ บังคับให้มีรายงานด้านความปลอดภัยและความโปร่งใส
- ท่ามกลางกระแส AI ที่ดำเนินต่อเนื่องมาหลายปี ความรับผิดทางกฎหมายในกรณีที่โมเดล AI ก่อเหตุการณ์ระดับหายนะ ยังคงเป็น ประเด็นที่ยังไม่ได้ข้อยุติ
- แม้ SB 3444 จะมุ่งเน้นไปที่ความเสียหายขนาดใหญ่ แต่การถกเถียงเรื่อง ความเสียหายในระดับปัจเจกบุคคล ก็ยังดำเนินต่อไป
1 ความคิดเห็น
ความคิดเห็นบน Hacker News
ฉันลองใช้ GPT 5.4 กับ Opus 4.6 เพื่อให้สร้าง วิธีทำสารพิษต่อระบบประสาทจากของใช้ในชีวิตประจำวัน
ตอนแรกโมเดลติดอยู่ที่ขั้นตอนการหา phosphorus (P) แต่สุดท้ายก็แนะนำทั้งรายการขาย “phosphorus สำหรับตกแต่ง” บน eBay และแม้แต่โค้ดเวิร์ดที่ใช้กันจริงในตลาดมืด
ฉันยังได้รับการโค้ชเรื่องข้อควรระวังด้านความปลอดภัย รายการวัสดุ วิธีปกปิด และกระบวนการทางเคมีผ่านการค้นหางานวิชาการ
แน่นอนว่านี่เป็นผลลัพธ์ผิดปกติที่เกิดขึ้นได้ผ่าน การโจมตีแบบ context exhaustion attack และหลังจากนั้นก็รายงานไปยัง OpenAI และ Anthropic แต่ไม่ได้รับการตอบกลับ
เมื่อลองอีกครั้งเมื่อไม่นานมานี้ เซสชันถูกปิดลง ดูเหมือนจะมีการแก้ไขแล้ว
ฉันมั่นใจว่านี่เป็นเรื่อง ระดับที่ทำให้คนในหน่วยต่อต้านการก่อการร้ายนอนไม่หลับ
สมัยก่อนยังมีฟอรัมจำนวนมากที่พูดถึง “ข้อมูลที่รัฐบาลพยายามปกปิด”
แต่ตอนนี้ ส่วนที่น่ากลัวกว่าคือแรงเสียดทานในการลงมือทำลดลง
ฉันเคยลองใช้ ChatGPT กับ Claude ในสาขาที่ตัวเองเชี่ยวชาญ และมันมักสร้าง เนื้อหาที่คนทั่วไปดูแล้วน่าเชื่อถือ แต่จริง ๆ ผิดทั้งหมด
เลยอยากรู้เหมือนกันว่ามีใครเคยทำการทดลองจริงตามคำสั่งเคมีจาก LLM บ้างไหม
จริง ๆ แล้ว ถ้าไม่ได้มีการเขียนทับ system prompt มันก็ควรทำงานแบบนั้นอยู่แล้ว
มีการอ้างข้อความต้นฉบับจาก Illinois Senate Bill 3444
คำว่า ‘critical harm’ หมายถึงกรณีที่โมเดล AI ก่อให้เกิดการเสียชีวิตตั้งแต่ 100 คนขึ้นไป หรือความเสียหายต่อทรัพย์สินเกิน 1 พันล้านดอลลาร์
นักพัฒนาจะได้รับการยกเว้นความรับผิด หากได้ เปิดเผย safety protocol และรายงานความโปร่งใสล่วงหน้า และไม่มีความประมาทโดยเจตนา
แต่ฉันคิดว่าการแค่อัปโหลด PDF ไว้เฉย ๆ มันยังไม่พอ
นั่นหมายความว่าถ้าโมเดลขนาดเล็กก่อเหตุ ก็จะไม่ได้รับความคุ้มครอง
ถ้าตายแค่ 99 คนถือว่าโอเคงั้นเหรอ? เป็นตรรกะแปลก ๆ แบบ “ไปให้สุดหรือกลับบ้านไป”
ไม่ใช่แค่เปิดเผยเอกสาร แต่ต้อง ปฏิบัติตาม protocol เหล่านั้นจริง ๆ จึงจะได้รับความคุ้มครอง
หน่วยงานกำกับควรกำหนด ‘มาตรฐานที่สมเหตุสมผล’ และบริษัทควรได้รับการยกเว้นความรับผิดก็ต่อเมื่อผ่านมาตรฐานนั้น
การยกเว้นความรับผิดแบบไม่มีเงื่อนไข ก็เกินไป และ การรับผิดแบบไม่มีเงื่อนไข ก็เกินไปเช่นกัน
สุดท้ายปัญหาของกฎหมายคือมันตั้งมาตรฐานไว้ต่ำเกินไป
ตัวอย่างคลาสสิกคือ Price–Anderson Act ที่ออกในปี 1957 ซึ่งจำกัดความรับผิดของอุตสาหกรรมนิวเคลียร์
ต่อให้เกิดความเสียหายเกิน 1 ล้านล้านดอลลาร์แบบกรณีอุบัติเหตุ Fukushima รัฐบาลก็ต้องรับภาระส่วนใหญ่
การถกเรื่องการยกเว้นความรับผิดของอุตสาหกรรม AI ก็อยู่ในบริบทเดียวกัน
เสริมอีกนิดว่า ตอนเห็น Gemini ตอบปีหมดอายุของกฎหมายฉบับนี้ผิด ก็ยิ่งรู้สึกว่า การตรวจสอบข้อเท็จจริงของ AI ยังจำเป็นมาก
แน่นอนว่าเป็นการเปรียบเทียบแบบลดทอน แต่ก็ชัดเจนว่าสุดท้ายแล้วมันคือร่างกฎหมายเพื่อเลี่ยงความรับผิด
ดูเหมือนเป็นความพยายามจะหลีกเลี่ยงความรับผิดเมื่อโจมตีเป้าหมายผิด
ถึงขั้นน่าแปลกที่ไม่มีใครพูดถึง “Skynet”
การที่ต้องการการยกเว้นความรับผิด ก็แปลว่ารู้อยู่แล้วว่ามันอันตราย
มันทำให้นึกถึงกรณีของรัฐ Iowa
วุฒิสภารัฐได้ผ่าน ร่างกฎหมายที่กันบริษัทสารกำจัดศัตรูพืชและยาฆ่าวัชพืชจากการถูกฟ้องร้อง หากทำตามฉลากของ EPA มาแล้วสองครั้ง
Iowa เองก็เป็นรัฐที่ อัตราการเกิดมะเร็งเพิ่มขึ้นเร็วที่สุดในสหรัฐฯ ด้วย
ดูเหมือนจะเป็นประเด็นใหญ่ในอนาคต เหมือนคดีเกี่ยวกับ PFAS (ลิงก์บทความ)
เรา สร้างระบบที่เราไม่เข้าใจ แล้วขั้นต่อไปกลับเป็นการขอยกเว้นความรับผิด นี่มันน่าขันดี
แต่สิ่งที่น่ากลัวจริง ๆ คือปฏิกิริยาแบบนี้เกิดจากกรอบความคิดที่ คับแคบเกินไป
ฉันคิดว่าประเด็นเรื่องความรับผิดนั้นง่ายมาก
มนุษย์ที่เป็นผู้ตัดสินใจต้องรับผิดเสมอ
ข้ออ้างว่า “AI เป็นคนสั่ง” ใช้ไม่ได้
แต่ถ้าคนที่ลงมือไม่มีอำนาจ นั่นก็เป็นความรับผิดอีกแบบหนึ่ง
สุดท้าย AI ก็เป็นเพียง แพะรับบาปตัวใหม่
สุดท้ายก็คำนวณแล้วว่า ล็อบบี้รัฐบาลนั้นถูกกว่าและเร็วกว่าการทำให้ผลิตภัณฑ์ปลอดภัยขึ้น
สิ่งที่น่าตกใจกว่าคือยังมี นักพัฒนาจำนวนมากที่อยากมอบกุญแจของโลกให้บริษัทแบบนี้
ใน Illinois ยังมี ร่างกฎหมายอีกฉบับที่บังคับการยืนยันอายุในระดับระบบปฏิบัติการ (HB 5511) ด้วย
สาเหตุที่กฎหมายแย่ ๆ แบบนี้ผ่านได้ก็เพราะ เราไม่ส่งเสียงคัดค้าน
ถ้าเป็นคนในรัฐควรส่งอีเมลหาสมาชิกสภาของตัวเองเดี๋ยวนี้
มีการเปิดพนันกันว่า “โพสต์นี้จะหลุดจากหน้าแรกเมื่อไร?”
ในตัวบทกฎหมายจริง (ลิงก์) มีข้อความ ‘เสียชีวิตมากกว่า 100 คน หรือความเสียหาย 1 พันล้านดอลลาร์’ ระบุไว้อย่างชัดเจน
ฉันคิดว่าชื่อเดิมแม่นยำกว่าด้วยซ้ำ
เรากำลังบริโภคสิ่งนั้นอยู่
เดิมที OpenAI เริ่มต้นจากการเป็น องค์กรไม่แสวงหากำไรเพื่อลดความเสี่ยงของ LLM แต่ตอนนี้กำลังเดินไปในทางตรงกันข้าม
ท่าทีแบบนี้ ไม่น่าแปลกใจสำหรับ OpenAI และ Sam Altman
การที่บริษัท ผลักต้นทุนออกไปให้คนนอกแบกรับ เป็นเรื่องปกติอยู่แล้ว
แต่เราจะหยุดพฤติกรรมแบบนี้ได้อย่างไร?
หรือมันเป็นเพียงผลลัพธ์ที่ ความโลภชนะศีลธรรม?
มีกรณีพิเศษอย่าง ขบวนการต่อต้าน SOPA/PIPA แต่ส่วนใหญ่แรงจูงใจของบริษัทก็มากกว่าผลประโยชน์ของปัจเจกมาก
สุดท้ายมันก็คือกลไกเดียวกับที่ทำให้ ประชาธิปไตยอ่อนแอลง
เพราะบริษัทโดยแก่นแท้แล้วเป็น โครงสร้างเพื่อหลีกเลี่ยงความรับผิด จึงควรจำกัดนิติบุคคลหลายชั้นหรือ special purpose vehicle (SPV)
และไม่ควรลงคะแนนให้กับนักการเมืองและผู้พิพากษาที่เชื่อใน Friedman Doctrine
ตอนนี้สังคมกำลัง เอียงเข้าหาเจ้าของทุน
มันแทบไม่ต่างจากกฎหมายที่บอกว่า “ถ้ามีมูลค่าสินทรัพย์สุทธิเกิน 1 พันล้านดอลลาร์ จะไปทำร้ายใครก็ไม่ต้องรับผิด”
สุดท้าย ตราบใดที่ศาลยังไม่คอร์รัปชัน มันก็น่าจะถูกตีตก
วิธีเปลี่ยนมันให้เป็นการกระทำทางสังคมคือ โจทย์ของอารยธรรมโดยรวม
พรรคเดโมแครตเป็นฝ่ายที่ก่อตั้ง Consumer Financial Protection Bureau (CFPB) และพรรครีพับลิกันก็พยายามทำให้มันอ่อนแอลง
เราควรสนับสนุน พลังทางการเมืองที่ต่อต้านการผูกขาดและการบิดเบือน
โดยเฉพาะตอนนี้ที่คนรุ่นใหม่สายก้าวหน้ากำลังเริ่มมีบทบาท การ เลือกผู้สมัครที่ถูกต้องในการเลือกตั้งขั้นต้น จึงสำคัญมาก
สุดท้ายแล้ว แค่ผู้มีสิทธิเลือกตั้ง 25% เปลี่ยนใจ โลกก็อาจเปลี่ยนได้