- Meta Platforms ประกาศอย่างเป็นทางการว่าจะไม่ลงนามใน แนวปฏิบัติด้านปัญญาประดิษฐ์ ของสหภาพยุโรป (EU)
- Joel Kaplan หัวหน้าฝ่ายนโยบายทั่วโลกของ Meta เน้นย้ำว่าแนวปฏิบัตินี้เป็น กฎระเบียบที่เข้มงวดเกินไป และขัดขวางนวัตกรรมกับการเติบโต
- แนวปฏิบัติดังกล่าวมีเป้าหมายเพื่อจัดทำแนวทางด้านความโปร่งใสและความปลอดภัยสำหรับการปฏิบัติตาม AI Act (ประกาศใช้ในปี 2024)
- คณะกรรมาธิการยุโรปได้เผยแพร่แนวปฏิบัติฉบับสุดท้ายสำหรับ โมเดล AI อเนกประสงค์ เมื่อสัปดาห์ที่แล้ว และแต่ละบริษัทสามารถตัดสินใจได้เองว่าจะลงนามหรือไม่
- นอกจาก Meta แล้ว บริษัทอย่าง ASML, Airbus ก็เข้าร่วมในจดหมายเรียกร้องให้เลื่อนการบังคับใช้เช่นกัน ขณะที่ OpenAI ระบุว่าตั้งใจจะเข้าร่วมแนวปฏิบัตินี้
เบื้องหลังการปฏิเสธแนวปฏิบัติ AI ของยุโรปโดย Meta
- Meta Platforms ประกาศอย่างเป็นทางการว่าตัดสินใจจะไม่ลงนามในแนวปฏิบัติด้านปัญญาประดิษฐ์ของสหภาพยุโรป
- Joel Kaplan หัวหน้าฝ่ายนโยบายทั่วโลก ระบุจุดยืนว่า “ยุโรปกำลังเดินไปผิดทางในเรื่อง AI”
- Kaplan อ้างว่าแนวปฏิบัตินี้ สร้างความไม่แน่นอนทางกฎหมายให้กับนักพัฒนาโมเดล และกำลังนำมาตรการที่ เข้มงวดเกินไป ซึ่งเกินขอบเขตของ AI Act มาใช้
- แนวปฏิบัตินี้จัดทำขึ้นเพื่อทำให้ข้อกำหนดด้านความโปร่งใสและความปลอดภัยของ AI Act ที่ประกาศใช้เมื่อปีที่แล้วมีความชัดเจนยิ่งขึ้น และมีกำหนดเริ่มบังคับใช้ในเดือนหน้า
ภาพรวมของแนวปฏิบัติ AI ของสหภาพยุโรป
- คณะกรรมาธิการยุโรปได้เผยแพร่แนวปฏิบัติฉบับสุดท้ายสำหรับโมเดล AI อเนกประสงค์
- แต่ละบริษัทสามารถตัดสินใจได้เองว่าจะลงนามในแนวปฏิบัติหรือไม่
- จุดประสงค์ของแนวปฏิบัติคือเพื่อจัดทำ framework สำหรับการปฏิบัติตาม AI Act และรับรอง ความโปร่งใสกับความปลอดภัย ของเทคโนโลยี AI
ปฏิกิริยาจากอุตสาหกรรมและประเด็นสำคัญ
- Kaplan ของ Meta วิจารณ์ว่า “แนวปฏิบัตินี้มีลักษณะกำกับดูแลที่เข้มงวดเกินไป และจะกลายเป็น อุปสรรคสำคัญต่อการพัฒนาโมเดล AI และการเติบโตของธุรกิจในยุโรป”
- บริษัทยักษ์ใหญ่บางแห่ง เช่น ASML, Airbus แสดงจุดยืนเชิงวิจารณ์ด้วยการลงนามในจดหมายเรียกร้องให้เลื่อนการบังคับใช้ออกไป 2 ปี
- ในทางกลับกัน OpenAI ได้แสดง เจตจำนงในการเข้าร่วม แนวปฏิบัติของยุโรปอย่างเป็นทางการ
การเปลี่ยนตัวหัวหน้าฝ่ายนโยบายทั่วโลกของ Meta
- Joel Kaplan ได้รับแต่งตั้งเป็นหัวหน้าฝ่ายนโยบายทั่วโลกของ Meta ตั้งแต่ต้นปี 2025
- ก่อนหน้านี้เขาเคยดำรงตำแหน่งรองประธานฝ่ายนโยบายสหรัฐของ Facebook และเคยทำงานในรัฐบาลของ George W. Bush
2 ความคิดเห็น
คำอธิบายร่างแรกของ EU AI Act จาก Latham & Watkins ที่มีการพูดถึงในคอมเมนต์ Hacker News ด้านล่าง
European Commission Releases First Draft of General-Purpose AI Code of Practice
สาระสำคัญของร่าง EU AI Act
ความโปร่งใส
การปฏิบัติตามกฎหมายลิขสิทธิ์
Text and Data Mining(TDM)
ความโปร่งใสในการปฏิบัติตามกฎหมายลิขสิทธิ์
การจัดประเภทความเสี่ยงเชิงระบบ
กรอบการจัดการความเสี่ยงเชิงระบบ
ความคิดเห็นจาก Hacker News
ไม่ใช่แค่ Meta เท่านั้น แต่ยังมีบริษัทในยุโรป 40 แห่งที่ขอให้ EU เลื่อนการบังคับใช้กฎหมาย AI ออกไป 2 ปี โดยให้เหตุผลว่าการบังคับใช้ยังไม่ชัดเจน ส่วน code of practice ฉบับนี้เป็นมาตรฐานแบบสมัครใจ และครอบคลุมกว่าตัวบทกฎหมายจริง EU ยังส่งสัญญาณว่าหากเข้าร่วมมาตรฐานนี้โดยสมัครใจ อาจถูกกำกับดูแลน้อยลง อย่างไรก็ตาม Meta มองว่าตนเองยังไงก็ถูกกำกับในทุกด้านอยู่แล้ว จึงเห็นว่าการยินยอมโดยสมัครใจแบบนี้แทบไม่มีประโยชน์ในทางปฏิบัติ ประเด็นสำคัญในกฎหมายคือผู้ให้บริการโมเดลอาจต้องรับผิดแม้กระทั่งเมื่อพาร์ตเนอร์นำไปใช้ไม่เหมาะสม ซึ่งเป็นข้อกำหนดที่หนักมากสำหรับโอเพนซอร์ส ตัวอย่างเช่น ผู้ให้บริการ GPAI ต้องมีมาตรการที่สมเหตุสมผลเพื่อป้องกันการละเมิดลิขสิทธิ์ และยังถูกสนับสนุนให้ระบุในสัญญาด้วยว่าพาร์ตเนอร์ต้องปฏิบัติตามมาตรการป้องกันดังกล่าว รายละเอียดเพิ่มเติมดูได้ที่ คำอธิบายของ Latham & Watkins
ถ้าอ่านคำอ้างอิงจะเข้าใจบริบทว่าทำไม EU ถึงใส่ข้อยกเว้นที่อนุญาตให้นำเนื้อหาที่มีลิขสิทธิ์มาใช้เป็นข้อมูลฝึกโดยไม่ต้องมีไลเซนส์ แม้จะมีความยากในการบังคับใช้ แต่ก็ถือว่าเป็นความพยายามสร้างสมดุลที่ค่อนข้างงดงาม
ผมคิดว่ามาตรฐานนี้สมเหตุสมผล สำหรับโมเดล AI โอเพนซอร์สก็สามารถใส่เงื่อนไขในไลเซนส์ได้ว่า “ต้องใช้มาตรการที่เหมาะสมเพื่อไม่ให้สร้างผลลัพธ์ที่ซ้ำกับหรือคล้ายกับเนื้อหาที่มีลิขสิทธิ์อย่างต่อเนื่อง” นี่คือกฎหมายยุโรป ไม่ใช่กฎหมายสหรัฐฯ และแนวคิดเรื่อง “reasonable” นั้นผู้พิพากษาจะตีความโดยชั่งน้ำหนักผลประโยชน์ของทั้งสองฝ่าย จึงไม่ได้ตัดสินจากตัวอักษรเพียงอย่างเดียว
น่าหงุดหงิดจริง ๆ ที่รีบออกกฎกับอุตสาหกรรมเกิดใหม่ทั้งที่ยังไม่รู้อะไรเลยว่าตลาดจะพัฒนาไปทางไหน
ถ้าคุณสร้างโมเดลที่สามารถผลิตซ้ำงานลิขสิทธิ์จำนวนมากได้ ก็ไม่ควรอนุญาตให้เผยแพร่ ผมไม่คิดว่ามาตรฐานนี้เกินเลยในจุดนั้น แม้แต่ซอฟต์แวร์ธรรมดาก็คงไม่ได้รับอนุญาตแบบนั้น แค่เป็นโมเดล AI ก็ไม่ควรได้ข้อยกเว้น
ส่วนที่ว่าผู้ให้บริการโมเดลต้องรับผิดถึงการใช้ในทางที่ผิดของพาร์ตเนอร์นั้นจริง ๆ ไม่มีอยู่ในตัวบทกฎหมายต้นฉบับ[0] แต่เป็นเนื้อหาในหมวดลิขสิทธิ์ของ Code of Practice อย่างไรก็ตาม Code นี้ไม่ได้เพิ่มข้อกำหนดใหม่เหนือกฎหมาย แต่มีลักษณะเป็นตัวอย่างว่า ‘จะ’ ปฏิบัติตามกฎหมายได้อย่างไร เช่น ในกฎหมายกำหนดให้ต้องเคารพ ‘machine-readable opt-out’ แต่ไม่ได้ระบุวิธีชัดเจน ส่วนใน code ก็ยกตัวอย่างการใช้ robots.txt เนื้อหาเรื่องลิขสิทธิ์ถูกระบุไว้ใน measure 1.4 โดยระบุว่า a) ต้องมีมาตรการทางเทคนิคเพื่อไม่ให้โมเดลผลิตซ้ำเนื้อหาที่ละเมิดลิขสิทธิ์ b) ต้องระบุให้ชัดในข้อกำหนดการใช้งานหรือเอกสารว่าไม่อนุญาตให้ใช้ในทางละเมิดลิขสิทธิ์ สำหรับโมเดลโอเพนซอร์ส แค่แจ้งเรื่องนี้ไว้ในเอกสารก็พอ Code of Practice นี้ใช้เฉพาะกับผู้ที่ลงนามโดยสมัครใจเท่านั้น ไม่ใช่ว่าคนอื่นเอาโมเดลของผมไปใช้แล้วไปลงนามเอง จากนั้นผมจะต้องรับผิด เหมือนกับการที่ปล่อยปลั๊กอิน Photoshop ภายใต้ GPL ไม่ได้แปลว่าจะบังคับให้เปิดซอร์สของ Photoshop ได้ กฎหมายเองก็มีข้อยกเว้นสำหรับโอเพนซอร์สอยู่พอสมควร เหตุที่ Meta คัดค้านน่าจะเป็นเพราะ EU AI Office ไม่ยอมรับ Meta AI ว่าเป็นโอเพนซอร์ส จึงไม่ได้รับข้อยกเว้นเหล่านี้ ดูต้นฉบับเพิ่มเติมได้ที่ ลิงก์กฎหมาย และ ลิงก์ Code of Practice
ผมยอมรับว่าแค่เห็นปฏิกิริยาของ Meta ต่อกฎหมาย AI ฉบับนี้ ก็ทำให้เกิดอคติไปก่อนแล้วว่ามันน่าจะเป็นสิ่งที่เราต้องการจริง ๆ ทั้งที่จริง ๆ ยังไม่รู้เลยว่ามีอะไรอยู่ในนั้น
“AI Code of Practice” แบ่งเป็น 3 บท ดูได้จากที่นี่ และประวัติร่าง ผมยังไม่ได้อ่านฉบับเต็ม และคุ้นกับกฎหมาย AI ฉบับก่อนหน้า (artificialintelligenceact.eu) มากกว่า แต่เดาว่าสิ่งที่ Meta มีปัญหาคือบทที่ 2 เรื่องลิขสิทธิ์ โดยเฉพาะจุดที่ขัดกับแนวปฏิบัติการ crawl เนื้อหาลิขสิทธิ์โดยไม่ได้รับอนุญาต ซึ่งจนถึงตอนนี้ก็ยังไม่ชัดว่าเข้าข่าย ‘fair use’ จริงหรือไม่
ผมไม่คิดว่าการที่บริษัทหนึ่ง ‘ชั่วร้าย’ จะหมายความว่าข้อโต้แย้งของบริษัทนั้นต้องผิดเสมอไป
สำหรับคนที่อยากได้สรุปของ guideline ดูได้จากที่นี่ เห็นได้ชัดว่าเป็นกฎที่มีภาระสูง และเมื่อดูจริง ๆ แล้วก็ดูจะเป็นประโยชน์ต่อเจ้าของลิขสิทธิ์รายใหญ่ ทนาย และข้าราชการมากกว่า
กฎแบบนี้สุดท้ายอาจกลายเป็นกับดักสำหรับบริษัทในยุโรป พอข้ามขนาดหนึ่งไป ภาระด้านกฎระเบียบจะพุ่งขึ้นอย่างรวดเร็ว ทำให้บริษัท AI ยุโรปขนาดเล็กหรือสตาร์ตอัปกลัวที่จะเติบโตจนเลยจุดวิกฤตนั้น ในทางกลับกัน บิ๊กเทคจากสหรัฐฯ และจีนสามารถเร่งนวัตกรรมได้เร็วกว่า ยกระดับ AI และขยายทุนได้ในสภาพแวดล้อมที่เอื้อมากกว่า สุดท้ายพวกเขาอาจเข้าตลาด EU พร้อมผลิตภัณฑ์ที่ขัดเกลามาดีกว่าและเงินทุนที่หนากว่า ทำให้การแข่งขันจริง ๆ เอนเอียงไปทางฝ่ายนั้น
ยุโรปไม่เคยสร้างอุตสาหกรรม AI ให้เติบโตมาก่อน แต่กลับพยายามกำกับทั้งอุตสาหกรรมอย่างละเอียดเกินไป เป็นการกำกับเพื่อการกำกับล้วน ๆ ผมเคยหวังว่ารายงานความสามารถในการแข่งขันของ EU ของ Draghi จะเป็นจุดเปลี่ยน แต่ก็ผิดหวังมากที่ EU ไม่ได้เปลี่ยนทิศทางเลย ทำให้หมดความเชื่อมั่นต่อแนวนโยบายของ EU
คุณบอกว่ามัน ‘มีภาระสูง’ ผมเลยอยากรู้ว่าจริง ๆ แล้วจุดไหนที่ทำให้รู้สึกว่าหนักขนาดนั้น
กฎของ EU บางครั้งก็มีพลังบังคับให้ทั้งโลกทำตามได้ เหมือนนโยบายคุกกี้ โดยทั่วไปถ้าคนส่วนน้อยอยากให้คนส่วนใหญ่ทำตาม ต้นทุนในการปฏิบัติตามต้องต่ำกว่าต้นทุนในการขัดขืน แต่ AI ไม่เหมือนกัน เกมนี้ใหญ่เกินไปและไม่มีใครจะหยุด AI ได้ เว้นแต่จะเกิดสงครามนิวเคลียร์
ความเสี่ยงที่อาจเกิดจาก AI นั้นมหาศาล ตั้งแต่อาวุธอัตโนมัติไปจนถึง AGI ที่มีเจตนาร้าย เยอรมนียังมีบาดแผลทางใจจากป้อมปืนกลอัตโนมัติในยุคแบ่งแยกเยอรมนีตะวันออก-ตะวันตก และยูเครนก็กำลังเผชิญผลกระทบทางจิตใจอย่างหนักจากสงครามโดรน ความเสี่ยงที่เป็นรูปธรรมจาก AI มีอยู่จริง ดังนั้นกฎระเบียบและกฎหมายจึงจำเป็น
ผลลัพธ์ของกฎหมายคุกกี้มีแค่ทำให้คนต้องทนกับป๊อปอัปไม่รู้จบ ถ้าไม่มี uBlock การใช้งานเว็บแทบจะทรมาน การติดตามผู้ใช้ก็ย้ายไปฝั่งเซิร์ฟเวอร์ และความเป็นส่วนตัวจริง ๆ ก็ไม่ได้ดีขึ้น เพราะมีเงินหมุนในระบบมากเกินไปจนภาคอุตสาหกรรมหาทางเลี่ยงกฎแบบหละหลวมนี้ได้ง่าย
ผมแปลกใจที่มีคอมเมนต์จำนวนมากสนับสนุนกฎของยุโรปแบบแทบไม่ตั้งคำถาม เลยสงสัยว่าผมเป็นคนเดียวหรือเปล่าที่มองว่ากฎยุโรปโดยพื้นฐานแล้วมักเกินเลยและออกแบบได้ไม่ดี
จนถึงตอนนี้ยุโรปยังไม่เคยออกนโยบายที่สามารถทำลายการผูกขาดของบิ๊กเทคสหรัฐฯ ได้จริง ผู้ใช้ใน EU ส่วนใหญ่ก็ยังพึ่งพา Google, Meta, Amazon เหมือนเดิม ดูเหมือนเป้าหมายของ EU ไม่ใช่การต่อต้านบริษัทอเมริกันโดยตรง แต่เป็นการรักษามารยาทและปกป้องผลประโยชน์ด้านความมั่นคงของบางประเทศมากกว่า เป็นจุดยืนที่สุภาพเกินไปแต่ก็มีเหตุผลในตัวเอง
ถ้ามองในแง่การคุ้มครองประชาชน ผมก็สงสัยว่าต่อให้กฎเข้มมาก มันจะมีข้อเสียอะไรนัก
การสรุปว่าเป็นการเห็นด้วยแบบ ‘มืดบอด’ เท่ากับตั้งต้นว่าตัวเองถูก ส่วนคนอื่นตัดสินใจแบบนั้นเพราะไม่รู้ ทั้งที่คุณเองก็พูดว่า ‘โดยพื้นฐานแล้วผมตั้งสมมติฐานไว้แบบนั้น’ จึงแทบไม่ต่างจากการวิจารณ์ตัวเอง
จริง ๆ แล้วดูเหมือนจะมีความเห็นจากภายนอกที่พยายามกดทับยุโรปมากเกินไป
ปัญหาคือการที่คุณ ‘ตั้งสมมติฐานไว้ก่อน’ นั่นเอง อย่าเพิ่งสมมติ ลองอ่านเนื้อหาที่เกี่ยวข้องแล้วสร้างความเห็นของตัวเองจะดีกว่า ผมอยากเสนอให้แต่ละคนมีความเห็นของตัวเอง นอกเหนือจากความเห็นของบรรษัทข้ามชาติขนาดใหญ่
ผมรู้สึกกังวลว่า EU อาจจะทำให้ LLM ต้องมีป๊อปอัปเต็มไปหมดเหมือนทุกเว็บไซต์
เดิมทีอินเทอร์เน็ตก็เต็มไปด้วยป๊อปอัปและรูปแบบ UX ที่พยายามดึงความสนใจอยู่แล้ว แต่สิ่งเดียวที่คนกลับหยิบมาวิจารณ์คือป๊อปอัปที่เปิดโอกาสให้ผู้ใช้เลือกปฏิเสธการติดตามด้วยตัวเอง ซึ่งก็น่าแปลกดี
คนที่บังคับให้มีป๊อปอัปไม่ใช่ EU แต่เป็นฝั่งบริษัทต่างหาก ถ้าเจ้าของเว็บไซต์ลดการเก็บข้อมูลเองหรือเลี่ยงไปเลย ก็ไม่จำเป็นต้องมีป๊อปอัป แต่พวกเขากลับเลือกใส่ป๊อปอัปไร้ความหมายโดยยอมเสียประสบการณ์ใช้งานไป ผลลัพธ์เลยกลายเป็นความเละเทะอย่างที่เห็น อย่างน้อยเว็บไซต์ที่ไม่เก็บอะไรเลย (เช่น บล็อกของ Fabien Sanglard) ก็ไม่มีป๊อปอัปเลย ความผิดพลาดของ EU คือคาดไม่ถึงว่ามันจะถูกใช้ในทางที่ผิดแบบนี้ ซึ่งผลลัพธ์ก็แย่มากจริง ๆ
ทำได้โดยไม่ต้องมีป๊อปอัปอยู่แล้ว แต่ทุกคนมัวแต่เลียนแบบบริษัทยักษ์ใหญ่ ให้ความสำคัญกับการทำตามมากกว่าประสบการณ์ผู้ใช้
ผมเกลียดป๊อปอัปแบบนี้มาก และการที่ปล่อยให้สถานการณ์นี้ดำเนินต่อไปก็แสดงให้เห็นว่าผู้รับผิดชอบช้าแค่ไหน
ผมเดาว่าเป้าหมายคือการสกัดการเติบโตของ Meta ถ้าดูโพสต์บน LinkedIn Meta กลับบอกว่ากังวลเรื่องการขัดขวางการเติบโตของบริษัทในยุโรป โดยระบุว่า “กฎที่เกินความจำเป็นแบบนี้จะบั่นทอนการพัฒนา/เผยแพร่ frontier AI models ในยุโรป และยังทำให้บริษัทในยุโรปที่ต้องการสร้างธุรกิจบนโมเดลเหล่านี้หดตัวลงด้วย”
เวลาที่ Meta บอกว่า “เราแบ่งปันความกังวลเดียวกับบริษัทอื่น” ความหมายจริง ๆ ก็คือใช้เหตุผลที่สะดวกในตอนนั้นเพื่อทำ PR ให้ตัวเองเท่านั้น ความจริงแล้วบริษัทไม่ได้สนใจประโยชน์สาธารณะหรือผลประโยชน์ของบริษัทอื่นเลย สนใจแค่เก็บข้อมูลให้มากขึ้นและขายโฆษณาให้มากขึ้น
ถ้าลองไล่ดู Code of Practice จริง ๆ ก็ไม่ได้มีอะไรที่เกินเลยเป็นพิเศษหรือถึงขั้นเรียกว่า ‘ใช้อำนาจเกินขอบเขต’ ท้ายที่สุดก็แค่กำหนดให้ผู้ให้บริการโมเดลต้องดำเนินการอย่างโปร่งใส ซึ่งดันขัดกับวิธีทำงานเดิมของ Meta เท่านั้น
ในโพสต์ LinkedIn ของ Kaplan ไม่มีการระบุเลยว่านโยบายส่วนไหนมีปัญหา คำว่า “ขัดขวางการเติบโต” ในความเป็นจริงอาจหมายถึงเรื่องเล็กน้อยอย่างการบังคับ opt-in สำหรับฟีเจอร์ใหม่ก็ได้
สภาพแวดล้อมโลกกำลังแบ่งขั้วมากขึ้นเรื่อย ๆ และผมคิดว่า Meta ก็มีส่วนช่วยขยายความไม่พอใจและความขัดแย้งนั้น วันหนึ่งผมอยากไปยุโรปแล้วใช้โอเพนซอร์ส LLM ได้อย่างอิสระ
ผมหวังว่าการถกเถียงนี้จะไม่ไหลไปสู่ข้อสรุปว่า “ถ้ามีกฎ AI ก็จะหยุดพัฒนา” เพราะเรื่องอย่างลิขสิทธิ์หรือการคุ้มครองแหล่งที่มาของข้อมูลก็มีคุณค่าเพียงพอเช่นกัน