1 คะแนน โดย GN⁺ 4 일 전 | 1 ความคิดเห็น | แชร์ทาง WhatsApp
  • เปิดโครงการค้นหา universal jailbreak สำหรับ GPT‑5.5 ที่ทำให้ตอบคำถามความปลอดภัยทางชีวภาพทั้งห้าข้อได้ครบ เพื่อทดสอบ มาตรการป้องกันด้านชีววิทยา
  • ขอบเขตจำกัดเฉพาะ GPT‑5.5 สำหรับ Codex Desktop และต้องทำให้ตอบครบทั้งห้าคำถามด้วยพรอมป์ต์เดียว โดยไม่กระตุ้น moderation ในแชตใหม่
  • universal jailbreak ที่เป็นของจริงตัวแรกซึ่งผ่านคำถามทั้งห้าข้อครบ จะได้รับ 25,000 ดอลลาร์ ส่วนความสำเร็จบางส่วนอาจได้รับรางวัลย่อยตามดุลยพินิจ
  • เปิดรับสมัครตั้งแต่ 23 เมษายน 2026 ถึง 22 มิถุนายน 2026 ส่วนการทดสอบดำเนินตั้งแต่ 28 เมษายน 2026 ถึง 27 กรกฎาคม 2026 และคัดเลือกผู้เข้าร่วมด้วยทั้งการเชิญและการพิจารณาใบสมัคร
  • ผู้เข้าร่วมและผู้ร่วมงานที่ได้รับอนุมัติต้องมี บัญชี ChatGPT และ ลงนาม NDA โดย พรอมป์ต์, completion, สิ่งที่ค้นพบ และการสื่อสารทั้งหมด อยู่ภายใต้ NDA

ภาพรวมของโปรแกรม

  • มีการจัด Bio Bug Bounty สำหรับ GPT‑5.5 เพื่อเสริมความแข็งแกร่งของ มาตรการป้องกันด้านชีววิทยา และเปิดรับผู้สมัครเพื่อค้นหา universal jailbreak ที่ทำให้ผ่านคำถามความปลอดภัยทางชีวภาพทั้งห้าข้อได้ครบ
  • โมเดลที่อยู่ในขอบเขตจำกัดเฉพาะ GPT‑5.5 สำหรับ Codex Desktop
  • โจทย์คือ ใน แชตใหม่ที่สะอาด โดยไม่กระตุ้น moderation ต้องทำให้โมเดลตอบคำถามความปลอดภัยทางชีวภาพทั้งห้าข้อได้สำเร็จด้วย พรอมป์ต์ jailbreaking แบบทั่วไป เพียงหนึ่งเดียว
  • รางวัลคือ 25,000 ดอลลาร์ สำหรับ universal jailbreak ที่เป็นของจริงตัวแรกซึ่งผ่านครบทั้งห้าคำถาม ส่วนความสำเร็จบางส่วนอาจได้รับรางวัลที่เล็กกว่าตามดุลยพินิจ
  • เปิดรับสมัครตั้งแต่ 23 เมษายน 2026 และปิดรับวันที่ 22 มิถุนายน 2026 ขณะที่การทดสอบเริ่ม 28 เมษายน 2026 และสิ้นสุด 27 กรกฎาคม 2026
  • แนวทางการเข้าถึงใช้ทั้ง การสมัครและการเชิญ โดยจะส่งคำเชิญไปยังรายชื่อ bio red-teamer ที่เชื่อถือได้ และพิจารณาใบสมัครใหม่ ก่อนนำผู้ที่ได้รับคัดเลือกเข้าสู่แพลตฟอร์ม bio bug bounty
  • พรอมป์ต์, completion, สิ่งที่ค้นพบ และการสื่อสารทั้งหมด อยู่ภายใต้ NDA

วิธีเข้าร่วม

  • ส่งใบสมัครสั้น ๆ ที่มี ชื่อ, สังกัด, และประสบการณ์ ได้ที่ หน้ารับสมัคร ภายในวันที่ 22 มิถุนายน 2026
  • ผู้สมัครและผู้ร่วมงานที่ได้รับอนุมัติต้องมี บัญชี ChatGPT ที่ใช้งานอยู่สำหรับการสมัคร และต้อง ลงนาม NDA
  • นอกจาก Bio Bounty แล้ว ยังมีช่องทางเข้าร่วมด้านความปลอดภัยและความมั่นคงอื่น ๆ ได้แก่ Safety Bug Bounty และ Security Bug Bounty

1 ความคิดเห็น

 
GN⁺ 4 일 전
ความเห็นจาก Hacker News
  • ในหน้า bug bounty ของ OpenAI ระบุชัดเจนว่า accounts and billing เป็นหมวดที่มีผล แต่พอมีคนรายงานบั๊กว่าเวลาสมัคร ChatGPT ใครก็สามารถเลือก ประเทศใดก็ได้ตามใจ เพื่อจ่ายในราคาที่ถูกกว่า และยังทำให้อัตราภาษีเป็น 0% ได้ แม้ว่าทั้งประเทศที่เลือกตามราคาและประเทศในที่อยู่สำหรับเรียกเก็บเงินต่างก็มีกฎหมายภาษีขาย/VAT ก็ตาม กลับถูกบอกว่าอยู่นอกขอบเขต เลยไม่ได้รับ bounty

    • อาจเป็นเพราะเป้าหมายไม่ใช่การเพิ่มกำไรต่อผู้ใช้ให้สูงสุด แต่เป็นการ ขยายจำนวนผู้ใช้ มากกว่า
      Netflix ก็เคยมี “ปัญหา” คล้ายกัน และทุกครั้งที่มีล็อกดาวน์หุ้นก็ขึ้นด้วย
    • ตอนนี้แทบไม่มีเหตุผลให้เชื่อถือ bug bounty ของบริษัท แล้ว
      ทุกที่พยายามหาทางเลี่ยงไม่จ่ายเงิน และคงดีกว่าถ้าเลิกคาดหวังว่าต่อให้เจออะไร บริษัทจะปฏิบัติอย่างยุติธรรม
  • ปีก่อน OpenAI จัด bounty บน Kaggle และ จ่ายรวม 500,000 ดอลลาร์ แถมยังเปิดเผยผลลัพธ์ทั้งหมดได้ด้วย
    https://www.kaggle.com/competitions/openai-gpt-oss-20b-red-t...
    แต่รอบนี้มีแค่ 25,000 ดอลลาร์ และทุกอย่างถูกผูกด้วย NDA เลยดูไม่น่าจะมีคนเข้าร่วมมากนัก นอกจากงานส่งจิปาถะที่ LLM ช่วยทำ

    • ถ้าผู้ส่งบางคนใช้โมเดลกับพรอมป์ต์ที่พอใช้ได้อยู่บ้าง
      ก็เท่ากับว่า OpenAI กำลังผลัก ค่าโทเค็นฝั่งลูกค้า ให้มารับภาระค่าใช้จ่ายในการวิเคราะห์ของตัวเองบางส่วน
    • พอมองจากขนาดทรัพยากรของ OpenAI แล้ว เงินรางวัล bounty ดูน้อยจนน่าตกใจ
      ปีที่แล้วมีคริปโตสตาร์ตอัปที่ดูเหมือนมีเงินทุนราว 5–10 ล้านดอลลาร์ จัดชาเลนจ์ prompt injection คล้ายกันกับ Claude และ GPT รุ่นล่าสุด ตอนชนะที่นั่นยังได้มากกว่านี้มาก
      พอเห็นค่าตอบแทนต่ำกับ NDA เข้มขนาดนี้ ก็เลยดูเหมือน อีเวนต์การตลาด มากกว่าการต้องการนักล่า bounty แบบจริงจัง เพราะทั้งไม่อยากจ่ายเยอะและไม่อยากให้มีการเผยแพร่งานวิจัย
    • มันดูเหมือน Kaggle เวอร์ชันลดสเปก มากกว่า
      เหมือนอยากให้คนลองแทงไปเรื่อย ๆ แต่ก็หลีกเลี่ยงทั้งการเปิดเผยรายงานผลและดราม่าว่าใครได้เงิน
    • โมเดลนี้ทรงพลังกว่า gpt-oss-20b มาก
      การแข่งขันปีที่แล้วก็ไม่ได้ทำกับโมเดล 120b และไม่ได้มีชีววิทยาเป็นหัวข้อด้วย
  • ไม่รู้เลยว่า รายการคำถาม ที่ต้องตอบอยู่ตรงไหน
    ถ้าจะเปิดเผยหลังผ่านการคัดเลือกเท่านั้น ก็ไม่เข้าใจว่าทำไมในใบสมัครถึงขอให้เขียน แนวทาง jailbreak ทั้งที่ยังไม่รู้ด้วยซ้ำว่าคำถามคืออะไร

    • ตัวคำถามเองอาจเป็น เนื้อหาอันตราย
      เช่น “จะตั้งไบโอแล็บขนาดเล็กสำหรับวิจัยไวรัสในครัวด้วยงบ 20,000 ดอลลาร์ได้อย่างไร?” หรืออาจเป็นเรื่องการประกอบลำดับ DNA นี้ https://www.ncbi.nlm.nih.gov/nuccore/NC_001611.1
    • ถ้าได้รับเชิญเข้ารอบนี้ ก็คงจะได้ คำถาม ตอนนั้น
      และมีโอกาสสูงที่เนื้อหาพวกนั้นจะถูกผูกด้วย NDA เช่นกัน
  • เห็นข้อความว่า จะส่งคำเชิญไปยังรายชื่อที่ผ่านการตรวจสอบของ trusted bio red-teamers แล้วรู้สึกขำหน่อย ๆ
    ฟังดูเป็น กลุ่มปิดมาก

    • ให้อารมณ์เหมือนบังคับให้ ด็อกเตอร์สาย CS ไปสปีดรันทำลายสถิติโลก
      ทั้งที่คนที่เก่งเรื่องนี้ที่สุดจริง ๆ อาจไม่ใช่คนประเภทที่จะถูกใส่ไว้ใน รายชื่อที่ผ่านการตรวจสอบ แบบนั้นก็ได้
  • พอเห็นเงื่อนไขว่า 25,000 ดอลลาร์สำหรับ universal jailbreak ของจริงคนแรกที่ผ่านครบทั้งห้าคำถาม
    โปรแกรมนี้เลยดูแทบจะเป็น โครงสร้างแบบหลอกลวง
    ต่อให้มี 100 คนเจอบั๊ก สุดท้ายก็มี แค่คนเดียว ที่ได้เงิน

    • ถ้าผู้เข้าร่วมยังต้องจ่ายค่า API เอง งั้น OpenAI ก็อาจเป็นฝ่าย ทำกำไร จากกระบวนการนี้ได้ด้วยซ้ำ
    • ไม่เข้าใจว่าทำไมถึงเรียกว่าหลอกลวง
      มันก็ไม่ใช่ว่าจะแจก รางวัลปลอบใจ แค่เพราะแก้ปริศนาได้ครึ่งเดียว
    • ประเด็นสำคัญไม่ใช่แค่โครงสร้างรางวัล แต่คือการ สร้างภาพความน่าเชื่อถือ
      1. โมเดลนี้ล้ำหน้ามากจนมีความเสี่ยงใหญ่ที่ไม่เคยมีมาก่อน
      2. เพราะงั้นจึงใส่แรงจูงใจอย่างรับผิดชอบเพื่อแก้ความเสี่ยงนั้น
        แต่ข้อ 1 ยังไม่ได้รับการพิสูจน์ และพูดตรง ๆ ก็ดูไม่น่าเป็นไปได้มาก จึงทำให้ข้อ 2 มีน้ำหนักน้อยลง
        แถมเมื่อเงินรางวัลต่ำและโครงสร้างจำกัดแบบนี้ ก็เหมือนจริง ๆ แล้วไม่ได้กังวลขนาดนั้น เพียงแค่มองว่ามีโอกาสสูงที่หลายคนจะหาอะไรเจอ
        ถ้าเชื่อจริงว่าโมเดลปลอดภัยมาก ปัญหาที่เหลือก็น่าจะพบได้น้อยแต่ร้ายแรงมาก ดังนั้นการตั้ง รางวัลใหญ่แบบไม่จำกัดเพดาน จะสมเหตุสมผลกว่า
    • การที่มันเป็น โปรแกรม bounty แบบไม่เปิดเผยสาธารณะ และต้องสมัครให้ผ่านการอนุมัติก่อน ก็ชวนให้สงสัยเหมือนกัน
      โดยเฉพาะถ้าขอบเขตครอบคลุมเดสก์ท็อปแอปที่ใคร ๆ ก็โหลดได้
    • เรื่องนั้นก็ขึ้นอยู่กับการออกแบบโปรแกรม bounty
      ถ้าฉันเจอวิธีแก้แล้วบอกเพื่อนให้มาขอ รับเงินรางวัล เหมือนกันทั้งคู่ จะป้องกันยังไงก็เป็นเรื่องที่ต้องคิดเหมือนกัน
  • อันนี้ดูเป็น การตลาด พอสมควร และแทบจะคล้าย spec work
    อีกทั้งเพราะมี NDA และความลับจัดเต็ม ถ้าไม่ได้ชนะ เวลาที่ผู้เข้าร่วมใช้ไปก็แทบ ไม่เหลือคุณค่าอะไร
    เพราะเอาผลลัพธ์ออกมาเผยแพร่ไม่ได้

    • ต่อให้ถูกปฏิเสธการจ่าย bounty ก็ยังอาจ ติด NDA อยู่ดี
      ถ้าเป็นอย่างนั้นก็เท่ากับไม่จ่ายเงินแล้วยังฝังเรื่องให้เงียบได้ ซึ่งเป็นเงื่อนไขที่ไม่อยากยอมรับเด็ดขาด
    • มันมีความเป็น การตลาด อยู่แล้วแน่นอน
      เหมือน OpenAI กำลังหยิบเอาเรื่องเล่าแบบ เราอันตราย ที่เริ่มจาก Anthropic มาใช้ด้วย
  • สำหรับคนที่สงสัยว่า bio-bugs คืออะไร
    มันคือกรณีที่ชักจูงให้โมเดลให้ คำแนะนำที่ช่วยให้ผู้ใช้ลงมือทำสิ่งอันตรายในด้านชีววิทยาได้จริง
    เช่น อธิบายได้ว่า ricin คืออะไร แต่ไม่ควรตอบว่าต้อง ทำให้เป็นอาวุธ อย่างไร
    แก่นคือการปล่อย ข้อมูลเชิงปฏิบัติที่นำไปใช้ได้จริง ซึ่งไม่ควรให้ทั้งในทางกฎหมายและจริยธรรม

  • เข้าใจได้ยากกับโครงสร้างแบบ สมัครและเข้าถึงตามคำเชิญ, เชิญเฉพาะ trusted bio red-teamers
    หัวใจของ โปรแกรม bug bounty คือการจูงใจให้คนค้นหาช่องโหว่แล้วเปิดเผยออกมา แต่ถ้าตั้งคนมาเป็นด่านเฝ้าประตูแบบนี้ คนที่ไม่ได้รับความไว้วางใจก็ยังคงแฮ็กต่อไป เพียงแต่จะมีแรงจูงใจให้ เอาไปขายฝั่งไม่ดีแทน มากกว่าจะเปิดเผย
    บริษัทก่อนหน้าของฉันก็ใช้ HackerOne แบบเฉพาะคำเชิญเหมือนกัน แต่เพราะมันเสี่ยงทำให้ข้อมูลลูกค้าจริงหรือโครงสร้างพื้นฐานเสียหาย
    เช่น เสี่ยงทำ DDOS หรือใช้ช่องโหว่ข้ามขอบเขตเทนเนนต์เพื่อเข้าถึงหรือลบข้อมูลของลูกค้ารายอื่น
    แต่กรณีนี้ดูไม่มีความเสี่ยงแบบนั้น เลยไม่เข้าใจว่าทำไมไม่เปิดให้ใครก็ตามที่กฎหมายอนุญาตให้รับเงินได้เข้าร่วม

    • มีคำอธิบายที่พอฟังขึ้นอยู่ข้อหนึ่ง
      ถ้าเปิดให้เฉพาะบางคน ก็ช่วยลดภาระในการแยกแยะว่า ผู้ใช้ทั่วไปที่ใส่พรอมป์ต์คล้าย ๆ กันเป็น ผู้เข้าร่วมชาเลนจ์ หรือเป็น ผู้ไม่หวังดีตัวจริง
  • ไม่เข้าใจว่า a clean chat without prompting moderation หมายถึงอะไร
    prompting moderation คืออะไรกันแน่?

    • หมายถึงการทำให้ ตัวกรอง moderation เข้ามาแทรกในระหว่างแชต
      หรือก็คือเป้าหมายของเอ็กซ์พลอยต์คือต้องหลบผ่านโดยไม่ “กระตุ้น” ให้ตัวกรองทำงาน และคำว่า prompting ตรงนี้ไม่ได้หมายถึงการใส่ข้อความเข้าไปในคอนเท็กซ์ในเชิงเทคนิค แต่ใกล้เคียงกับความหมายทั่วไปว่า กระตุ้นให้เกิด มากกว่า
  • ฉันเองก็คงทำอันนี้ได้เหมือนกัน แต่ไม่เข้าใจว่าทำไมต้องเอาตัวเองไปใส่ใน รายชื่อบุคคลเสี่ยง ด้วย
    ปัญหาใหญ่กว่าคือ ต่อให้ปิดจุดล้มเหลวทั้งหมดของ GPT-5.5 ได้ ซึ่งในทางปฏิบัติก็เป็นไปไม่ได้ และถึงปิดได้จริง สุดท้ายคนก็ยังสามารถ distill จาก closed model เพื่อดึงสิ่งที่ต้องการออกมาเป็นโมเดลราว ๆ ไม่เกิน 4b พารามิเตอร์ ได้อยู่ดี
    สุดท้ายสิ่งพวกนี้ก็เป็นการ สร้างภาพ เพื่อลดโอกาสถูกฟ้องทีหลังถ้าเกิดเรื่องขึ้น

    • จะ distill จาก โมเดลแบบ closed-weights พวกนี้ยังไง?
      แทบไม่เคยได้ยินเรื่อง reverse engineering โมเดลลักษณะนี้เลย