1 คะแนน โดย GN⁺ 19 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • OpenAI สนับสนุนร่างกฎหมายวุฒิสภารัฐอิลลินอยส์ SB 3444 ซึ่งมีเนื้อหาเกี่ยวกับการ จำกัดความรับผิดทางกฎหมายของห้องแล็บ AI ภายใต้เงื่อนไขบางประการ แม้โมเดล AI จะก่อให้เกิดการสูญเสียชีวิตจำนวนมากหรือความเสียหายต่อทรัพย์สินมูลค่ามหาศาลก็ตาม
    • ร่างกฎหมายนี้นิยามกรณีที่ AI ทำให้มีผู้เสียชีวิตหรือบาดเจ็บสาหัสตั้งแต่ 100 คนขึ้นไป หรือก่อความเสียหายต่อทรัพย์สินมูลค่ามากกว่า 1 พันล้านดอลลาร์ ว่าเป็น “ความเสียหายร้ายแรง (critical harm)
    • หากห้องแล็บ AI ไม่ได้ก่อให้เกิดความเสียหายดังกล่าวจาก เจตนา หรือความประมาทเลินเล่ออย่างร้ายแรง และได้เผยแพร่ รายงานด้านความปลอดภัย ความมั่นคง และความโปร่งใส บนเว็บไซต์ ก็อาจได้รับการยกเว้นความรับผิด
    • ร่างกฎหมายกำหนดว่า ‘frontier model’ คือ AI ที่มีต้นทุนการฝึกมากกว่า 100 ล้านดอลลาร์ ซึ่งมีแนวโน้มว่าจะครอบคลุมห้องแล็บ AI รายใหญ่อย่าง OpenAI, Google, xAI, Anthropic และ Meta
    • นิยามนี้ถูกมองว่าเป็นความพยายามในการวางกรอบกำกับดูแลที่มุ่งเน้น ระบบ AI สมรรถนะสูง
  • โฆษกของ OpenAI Jamie Radice ระบุในแถลงการณ์ทางอีเมลว่า “แนวทางนี้ช่วยลดความเสี่ยงของความเสียหายร้ายแรงจากระบบ AI ขั้นสูง ขณะเดียวกันก็ช่วยให้เทคโนโลยีเข้าถึงภาคธุรกิจและบุคคลทั่วไป”
    • นอกจากนี้ยังระบุว่าร่างกฎหมายนี้ช่วยสนับสนุนการจัดทำ มาตรฐานระดับชาติที่ชัดเจนและสอดคล้องกัน แทนกฎระเบียบที่แตกต่างกันในแต่ละรัฐ
    • ‘ความเสียหายร้ายแรง’ ตามนิยามของร่างกฎหมายยังรวมถึงกรณีที่ AI สร้างอาวุธเคมี ชีวภาพ รังสี หรือนิวเคลียร์ หรือกระทำการด้วยตนเองในลักษณะที่หากมนุษย์เป็นผู้กระทำจะถือเป็นอาชญากรรม
    • แม้การกระทำเหล่านี้จะนำไปสู่ความเสียหายในวงกว้าง หากห้องแล็บ AI ไม่ได้กระทำโดยเจตนาและได้ยื่นรายงานตามที่กำหนด ก็อาจ ได้รับการยกเว้นความรับผิดทางกฎหมาย
  • ความขัดแย้งระหว่างกฎระเบียบระดับรัฐบาลกลางกับร่างกฎหมายระดับรัฐ

    • Caitlin Niedermeyer จากทีมกิจการสาธารณะระดับโลกของ OpenAI เน้นย้ำในการให้การสนับสนุน SB 3444 ถึงความจำเป็นของ กรอบกำกับดูแล AI ระดับรัฐบาลกลาง
      • เธอระบุว่ากฎระเบียบที่แตกต่างกันไปในแต่ละรัฐ อาจก่อให้เกิดแรงเสียดทานที่ไม่มีประสิทธิภาพ และควรเสริมสร้างความสอดคล้องกับระบบระดับรัฐบาลกลาง
      • จุดยืนนี้คล้ายกับ ท่าทีโดยรวมของซิลิคอนแวลลีย์ และสอดคล้องกับตรรกะที่ให้ความสำคัญกับ การรักษาความสามารถในการแข่งขันด้าน AI ของสหรัฐฯ
      • Niedermeyer กล่าวว่า “การนำ frontier model ไปใช้อย่างปลอดภัย และการรักษาความเป็นผู้นำด้านนวัตกรรมของสหรัฐฯ ควรเป็น North Star ของการกำกับดูแล”
  • โอกาสที่ร่างกฎหมายจะผ่านและเสียงวิจารณ์

    • Scott Wisor ผู้อำนวยการนโยบายของ Secure AI Project ประเมินว่าเมื่อพิจารณาจาก แนวโน้มการกำกับดูแลเทคโนโลยี ของรัฐอิลลินอยส์แล้ว ร่างกฎหมายนี้มีโอกาสผ่านต่ำ
      • ผลสำรวจความคิดเห็นชาวอิลลินอยส์พบว่า 90% คัดค้านการยกเว้นความรับผิดให้บริษัท AI
      • ฝ่ายนิติบัญญัติของรัฐกลับกำลังเสนอร่างกฎหมายที่ เพิ่มความรับผิดของผู้พัฒนา AI มากกว่า
      • รัฐอิลลินอยส์เป็นรัฐแรกที่ออก กฎหมายจำกัดการใช้ AI ในบริการสุขภาพจิต และยังเคยผ่าน กฎหมายคุ้มครองข้อมูลชีวมิติ (BIPA) ตั้งแต่ปี 2008
  • ประเด็นที่ยังไม่คลี่คลายเรื่องความรับผิดต่อความเสียหายจาก AI

    • แม้ SB 3444 จะมุ่งเน้นไปที่ความเสียหายขนาดใหญ่ แต่การถกเถียงเรื่อง ความเสียหายในระดับปัจเจกบุคคล ก็ยังดำเนินต่อไป
      • มีบางครอบครัวยื่นฟ้อง OpenAI โดยอ้างว่าบุตรหลานของตน ฆ่าตัวตายหลังมีปฏิสัมพันธ์ที่ผิดปกติกับ ChatGPT
    • การออกกฎหมาย AI ระดับรัฐบาลกลางยังคง ไม่มีความคืบหน้าในสภาคองเกรส
      • แม้รัฐบาลทรัมป์จะออกคำสั่งฝ่ายบริหารและกรอบแนวทางต่าง ๆ แต่ การหารือด้านนิติบัญญัติที่เป็นรูปธรรมยังอยู่ในภาวะชะงักงัน
      • ท่ามกลางการขาดแนวทางจากรัฐบาลกลาง รัฐต่าง ๆ เช่น แคลิฟอร์เนียและนิวยอร์ก ได้ผ่านกฎหมายของตนเองเพื่อ บังคับให้มีรายงานด้านความปลอดภัยและความโปร่งใส
    • ท่ามกลางกระแส AI ที่ดำเนินต่อเนื่องมาหลายปี ความรับผิดทางกฎหมายในกรณีที่โมเดล AI ก่อเหตุการณ์ระดับหายนะ ยังคงเป็น ประเด็นที่ยังไม่ได้ข้อยุติ

1 ความคิดเห็น

 
GN⁺ 19 일 전
ความคิดเห็นบน Hacker News
  • ฉันลองใช้ GPT 5.4 กับ Opus 4.6 เพื่อให้สร้าง วิธีทำสารพิษต่อระบบประสาทจากของใช้ในชีวิตประจำวัน
    ตอนแรกโมเดลติดอยู่ที่ขั้นตอนการหา phosphorus (P) แต่สุดท้ายก็แนะนำทั้งรายการขาย “phosphorus สำหรับตกแต่ง” บน eBay และแม้แต่โค้ดเวิร์ดที่ใช้กันจริงในตลาดมืด
    ฉันยังได้รับการโค้ชเรื่องข้อควรระวังด้านความปลอดภัย รายการวัสดุ วิธีปกปิด และกระบวนการทางเคมีผ่านการค้นหางานวิชาการ
    แน่นอนว่านี่เป็นผลลัพธ์ผิดปกติที่เกิดขึ้นได้ผ่าน การโจมตีแบบ context exhaustion attack และหลังจากนั้นก็รายงานไปยัง OpenAI และ Anthropic แต่ไม่ได้รับการตอบกลับ
    เมื่อลองอีกครั้งเมื่อไม่นานมานี้ เซสชันถูกปิดลง ดูเหมือนจะมีการแก้ไขแล้ว
    ฉันมั่นใจว่านี่เป็นเรื่อง ระดับที่ทำให้คนในหน่วยต่อต้านการก่อการร้ายนอนไม่หลับ

    • ข้อมูลแบบนี้หาได้ง่ายบนอินเทอร์เน็ตมาตั้งแต่เมื่อ 20~30 ปีก่อนแล้ว
      สมัยก่อนยังมีฟอรัมจำนวนมากที่พูดถึง “ข้อมูลที่รัฐบาลพยายามปกปิด”
      แต่ตอนนี้ ส่วนที่น่ากลัวกว่าคือแรงเสียดทานในการลงมือทำลดลง
    • ประโยคที่ว่า “เจ้าหน้าที่ต่อต้านการก่อการร้ายนอนไม่หลับ” ฟังดูเกินจริงไปหน่อย แต่วันนี้ฉันจะรับพลังบวกนั้นไว้ก็แล้วกัน
    • สงสัยว่าคุณมีพื้นฐานด้านชีวเคมีหรือเปล่า
      ฉันเคยลองใช้ ChatGPT กับ Claude ในสาขาที่ตัวเองเชี่ยวชาญ และมันมักสร้าง เนื้อหาที่คนทั่วไปดูแล้วน่าเชื่อถือ แต่จริง ๆ ผิดทั้งหมด
      เลยอยากรู้เหมือนกันว่ามีใครเคยทำการทดลองจริงตามคำสั่งเคมีจาก LLM บ้างไหม
    • ข้อมูลแบบนี้ก่อนมี AI ก็ เข้าถึงได้พออยู่แล้วด้วยการค้นหา Google อย่างเดียว
    • ฉันไม่เห็นด้วยกับคำพูดที่ว่า “โมเดลไม่ควรทำงานแบบนั้น”
      จริง ๆ แล้ว ถ้าไม่ได้มีการเขียนทับ system prompt มันก็ควรทำงานแบบนั้นอยู่แล้ว
  • มีการอ้างข้อความต้นฉบับจาก Illinois Senate Bill 3444
    คำว่า ‘critical harm’ หมายถึงกรณีที่โมเดล AI ก่อให้เกิดการเสียชีวิตตั้งแต่ 100 คนขึ้นไป หรือความเสียหายต่อทรัพย์สินเกิน 1 พันล้านดอลลาร์
    นักพัฒนาจะได้รับการยกเว้นความรับผิด หากได้ เปิดเผย safety protocol และรายงานความโปร่งใสล่วงหน้า และไม่มีความประมาทโดยเจตนา
    แต่ฉันคิดว่าการแค่อัปโหลด PDF ไว้เฉย ๆ มันยังไม่พอ

    • ประเด็นที่น่าสนใจคือกฎหมายนี้ใช้กับ ‘frontier model’ เท่านั้น
      นั่นหมายความว่าถ้าโมเดลขนาดเล็กก่อเหตุ ก็จะไม่ได้รับความคุ้มครอง
      ถ้าตายแค่ 99 คนถือว่าโอเคงั้นเหรอ? เป็นตรรกะแปลก ๆ แบบ “ไปให้สุดหรือกลับบ้านไป”
    • ประเด็นสำคัญอยู่ที่มาตรา 15
      ไม่ใช่แค่เปิดเผยเอกสาร แต่ต้อง ปฏิบัติตาม protocol เหล่านั้นจริง ๆ จึงจะได้รับความคุ้มครอง
      หน่วยงานกำกับควรกำหนด ‘มาตรฐานที่สมเหตุสมผล’ และบริษัทควรได้รับการยกเว้นความรับผิดก็ต่อเมื่อผ่านมาตรฐานนั้น
      การยกเว้นความรับผิดแบบไม่มีเงื่อนไข ก็เกินไป และ การรับผิดแบบไม่มีเงื่อนไข ก็เกินไปเช่นกัน
      สุดท้ายปัญหาของกฎหมายคือมันตั้งมาตรฐานไว้ต่ำเกินไป
    • การที่บริษัทผลักภาระความรับผิดให้สาธารณะเป็นเรื่องที่เกิดขึ้นบ่อย
      ตัวอย่างคลาสสิกคือ Price–Anderson Act ที่ออกในปี 1957 ซึ่งจำกัดความรับผิดของอุตสาหกรรมนิวเคลียร์
      ต่อให้เกิดความเสียหายเกิน 1 ล้านล้านดอลลาร์แบบกรณีอุบัติเหตุ Fukushima รัฐบาลก็ต้องรับภาระส่วนใหญ่
      การถกเรื่องการยกเว้นความรับผิดของอุตสาหกรรม AI ก็อยู่ในบริบทเดียวกัน
      เสริมอีกนิดว่า ตอนเห็น Gemini ตอบปีหมดอายุของกฎหมายฉบับนี้ผิด ก็ยิ่งรู้สึกว่า การตรวจสอบข้อเท็จจริงของ AI ยังจำเป็นมาก
    • นี่คือเวอร์ชัน AI ของตรรกะ “ปืนไม่ได้ฆ่าคน
      แน่นอนว่าเป็นการเปรียบเทียบแบบลดทอน แต่ก็ชัดเจนว่าสุดท้ายแล้วมันคือร่างกฎหมายเพื่อเลี่ยงความรับผิด
    • กฎหมายนี้ยังโยงกับข้อถกเถียงเรื่อง การพัฒนาอาวุธอัตโนมัติ ด้วย
      ดูเหมือนเป็นความพยายามจะหลีกเลี่ยงความรับผิดเมื่อโจมตีเป้าหมายผิด
      ถึงขั้นน่าแปลกที่ไม่มีใครพูดถึง “Skynet”
      การที่ต้องการการยกเว้นความรับผิด ก็แปลว่ารู้อยู่แล้วว่ามันอันตราย
  • มันทำให้นึกถึงกรณีของรัฐ Iowa
    วุฒิสภารัฐได้ผ่าน ร่างกฎหมายที่กันบริษัทสารกำจัดศัตรูพืชและยาฆ่าวัชพืชจากการถูกฟ้องร้อง หากทำตามฉลากของ EPA มาแล้วสองครั้ง
    Iowa เองก็เป็นรัฐที่ อัตราการเกิดมะเร็งเพิ่มขึ้นเร็วที่สุดในสหรัฐฯ ด้วย

    • ถ้าเป็นสินค้าที่รัฐบาลอนุมัติ ต่อมาภายหลังพบว่าเป็นอันตราย บริษัทก็ควรต้องรับผิดอยู่ไหม?
      ดูเหมือนจะเป็นประเด็นใหญ่ในอนาคต เหมือนคดีเกี่ยวกับ PFAS (ลิงก์บทความ)
    • สุดท้ายมันก็ดูเป็นปัญหาเรื่อง ผลประโยชน์ของอุตสาหกรรมท้องถิ่นปะทะกับสาธารณสุข
  • เรา สร้างระบบที่เราไม่เข้าใจ แล้วขั้นต่อไปกลับเป็นการขอยกเว้นความรับผิด นี่มันน่าขันดี

    • ใช่ จุดประสงค์คือ การหลีกเลี่ยงความรับผิด
      แต่สิ่งที่น่ากลัวจริง ๆ คือปฏิกิริยาแบบนี้เกิดจากกรอบความคิดที่ คับแคบเกินไป
  • ฉันคิดว่าประเด็นเรื่องความรับผิดนั้นง่ายมาก
    มนุษย์ที่เป็นผู้ตัดสินใจต้องรับผิดเสมอ
    ข้ออ้างว่า “AI เป็นคนสั่ง” ใช้ไม่ได้
    แต่ถ้าคนที่ลงมือไม่มีอำนาจ นั่นก็เป็นความรับผิดอีกแบบหนึ่ง
    สุดท้าย AI ก็เป็นเพียง แพะรับบาปตัวใหม่

    • แต่คำถามว่า “ใครคือผู้รับผิดชอบ” มันก็ไม่ได้ชัดเจนเสมอไป
  • สุดท้ายก็คำนวณแล้วว่า ล็อบบี้รัฐบาลนั้นถูกกว่าและเร็วกว่าการทำให้ผลิตภัณฑ์ปลอดภัยขึ้น
    สิ่งที่น่าตกใจกว่าคือยังมี นักพัฒนาจำนวนมากที่อยากมอบกุญแจของโลกให้บริษัทแบบนี้

    • เอาจริง ๆ วิธีแบบนี้ก็เป็น กลยุทธ์มาตรฐานของบริษัทมาตั้งแต่กลางศตวรรษที่ 20 และมันก็ได้ผลมาตลอด
    • แต่จะทำให้ผลิตภัณฑ์แบบ nondeterministic ‘ปลอดภัย’ ได้อย่างไรกัน?
  • ใน Illinois ยังมี ร่างกฎหมายอีกฉบับที่บังคับการยืนยันอายุในระดับระบบปฏิบัติการ (HB 5511) ด้วย
    สาเหตุที่กฎหมายแย่ ๆ แบบนี้ผ่านได้ก็เพราะ เราไม่ส่งเสียงคัดค้าน
    ถ้าเป็นคนในรัฐควรส่งอีเมลหาสมาชิกสภาของตัวเองเดี๋ยวนี้

  • มีการเปิดพนันกันว่า “โพสต์นี้จะหลุดจากหน้าแรกเมื่อไร?”

    • ชื่อเรื่องถูกเปลี่ยนเป็น “OpenAI backs Illinois bill that would limit when AI labs can be held liable”
      ในตัวบทกฎหมายจริง (ลิงก์) มีข้อความ ‘เสียชีวิตมากกว่า 100 คน หรือความเสียหาย 1 พันล้านดอลลาร์’ ระบุไว้อย่างชัดเจน
      ฉันคิดว่าชื่อเดิมแม่นยำกว่าด้วยซ้ำ
    • อัปเดต: หลุดจากหน้าแรกภายในประมาณ 1~4 ชั่วโมง
    • แต่ฉันคิดว่านี่เป็น ผลทางการตลาด เลยคงไม่ถูกลบหรอก
      เรากำลังบริโภคสิ่งนั้นอยู่
    • ถ้าให้เดา ฉันว่าอย่างน้อย 3 เดือน — ถ้าไม่หลุดลงไปก็ถือว่าชนะเดิมพันไปตลอดชีวิต
  • เดิมที OpenAI เริ่มต้นจากการเป็น องค์กรไม่แสวงหากำไรเพื่อลดความเสี่ยงของ LLM แต่ตอนนี้กำลังเดินไปในทางตรงกันข้าม

    • นั่นเป็นเรื่องก่อนที่พวกเขาจะค้นพบ ศักยภาพของเงิน
    • บริษัทที่มีคำว่า “Open” อยู่ในชื่อ ส่วนใหญ่มัก ปิด
    • สุดท้ายแล้ว ทุกคนมีราคา
    • ตอนนี้พวกเขาก็ ลืมอุดมคติแรกเริ่มไปแล้ว
    • หรือบางทีตั้งแต่แรกมันอาจเป็น เรื่องโกหก ก็ได้
  • ท่าทีแบบนี้ ไม่น่าแปลกใจสำหรับ OpenAI และ Sam Altman
    การที่บริษัท ผลักต้นทุนออกไปให้คนนอกแบกรับ เป็นเรื่องปกติอยู่แล้ว
    แต่เราจะหยุดพฤติกรรมแบบนี้ได้อย่างไร?
    หรือมันเป็นเพียงผลลัพธ์ที่ ความโลภชนะศีลธรรม?

    • ในระดับสังคม มันหยุดได้ยาก
      มีกรณีพิเศษอย่าง ขบวนการต่อต้าน SOPA/PIPA แต่ส่วนใหญ่แรงจูงใจของบริษัทก็มากกว่าผลประโยชน์ของปัจเจกมาก
      สุดท้ายมันก็คือกลไกเดียวกับที่ทำให้ ประชาธิปไตยอ่อนแอลง
    • ทางออกอาจเป็น การเปลี่ยนแนวคิดเรื่องนิติบุคคลเสียใหม่
      เพราะบริษัทโดยแก่นแท้แล้วเป็น โครงสร้างเพื่อหลีกเลี่ยงความรับผิด จึงควรจำกัดนิติบุคคลหลายชั้นหรือ special purpose vehicle (SPV)
      และไม่ควรลงคะแนนให้กับนักการเมืองและผู้พิพากษาที่เชื่อใน Friedman Doctrine
      ตอนนี้สังคมกำลัง เอียงเข้าหาเจ้าของทุน
    • ถ้ากฎหมายแบบนี้ผ่าน ก็มีโอกาสสูงที่จะขัดรัฐธรรมนูญ
      มันแทบไม่ต่างจากกฎหมายที่บอกว่า “ถ้ามีมูลค่าสินทรัพย์สุทธิเกิน 1 พันล้านดอลลาร์ จะไปทำร้ายใครก็ไม่ต้องรับผิด”
      สุดท้าย ตราบใดที่ศาลยังไม่คอร์รัปชัน มันก็น่าจะถูกตีตก
    • สิ่งที่คนคนหนึ่งทำได้มีจำกัด
      วิธีเปลี่ยนมันให้เป็นการกระทำทางสังคมคือ โจทย์ของอารยธรรมโดยรวม
    • หลายคนอาจเมินเฉย แต่ฉันอยากบอกว่า จงลงคะแนนให้พรรคเดโมแครต
      พรรคเดโมแครตเป็นฝ่ายที่ก่อตั้ง Consumer Financial Protection Bureau (CFPB) และพรรครีพับลิกันก็พยายามทำให้มันอ่อนแอลง
      เราควรสนับสนุน พลังทางการเมืองที่ต่อต้านการผูกขาดและการบิดเบือน
      โดยเฉพาะตอนนี้ที่คนรุ่นใหม่สายก้าวหน้ากำลังเริ่มมีบทบาท การ เลือกผู้สมัครที่ถูกต้องในการเลือกตั้งขั้นต้น จึงสำคัญมาก
      สุดท้ายแล้ว แค่ผู้มีสิทธิเลือกตั้ง 25% เปลี่ยนใจ โลกก็อาจเปลี่ยนได้