ดูเหมือนเป็นข้ออ้างที่เกินจริงไปหน่อยนะครับ แม้ว่าจะเป็นความจริงที่ตอนนี้ยังไม่มีกรอบความปลอดภัยที่เหมาะสมสำหรับสกิล แต่ถ้าดาวน์โหลดแหล่งที่มายังไม่ผ่านการตรวจสอบแล้วนำมารัน การโจมตีก็เกิดขึ้นได้เหมือนกันไม่ใช่หรือกับตัวจัดการแพ็กเกจสำหรับภาษา/แอป? สกิลนั้นขึ้นอยู่กับประสิทธิภาพของโมเดลและการจะถูกรันหรือไม่ก็ยังไม่แน่นอน แต่โค้ดนั้นถ้ารันก็คือถูกรันอย่างแน่นอนอยู่แล้วไม่ใช่หรือครับ?

 

รู้สึกว่าชื่อที่เหมาะกว่าน่าจะเป็น "บันทึกการพัฒนาบอต AI ที่ถ้าสื่อเจ๊ง มันก็เจ๊งไปด้วยกัน"

 

เราควรถกกันอย่างจริงจังเรื่องการลดชั่วโมงทำงาน แต่ก็อดกังวลไม่ได้จริง ๆ เพราะคงมีแค่เกาหลีใต้ประเทศเดียวที่ทำงานน้อยลงไม่ได้

 

เดิมทีราคาโปรโมชันช่วงเปิดตัวสำหรับ Max อยู่ที่ $360 ต่อปี แต่ตอนนี้กลายเป็น $672 แล้ว...

 

ดูเหมือนว่าพอ WordPad ถูกลบออกไป เลยเอาข้อความที่มีการจัดรูปแบบแบบก้ำกึ่งว่าจะใส่ในโปรแกรมประมวลผลคำดีไหมมาใส่เป็น Markdown แล้วสุดท้ายก็เกิดเรื่องขึ้นนะครับ ผมว่าถ้าเข้าไปที่การตั้งค่าแล้วปิดฟีเจอร์ AI กับฟังก์ชันการจัดรูปแบบทั้งหมด น่าจะดีกว่าในแง่ความปลอดภัย

 

ได้โปรดให้ส่วนพื้นฐานจริง ๆ อย่าง OS กับเบราว์เซอร์มีแค่ฟังก์ชันพื้นฐานก็พอ โดยไม่ต้องยัดพวกขยะอย่างคลาวด์ / AI / การเชื่อมต่ออะไรพวกนี้เข้ามา

ฟีเจอร์ของผู้ขายจะทำเป็นเลเยอร์อยู่ข้างบนก็เพียงพอแล้ว...

 

ตอนที่ผมเห็นครั้งแรก ผมไม่รู้ว่า Google News คืออะไร เลยเข้าใจว่าเป็นข่าวที่กูเกิลทำขึ้นมาเอง แต่ไม่ใช่อย่างนั้นสินะ
ถ้า Google News คือการครอวล์ข่าวจากสำนักข่าวเกาหลี ผมก็พอเข้าใจแล้วว่าทำไมถึงมีปฏิกิริยาแบบนั้น

แม้แต่ส่วนที่ Google News ให้บริการผ่าน RSS นี่ สำนักข่าวต่าง ๆ ได้ทำสัญญาไว้ด้วยหรือเปล่าครับ?

 

คงเดาไม่ออกเหมือนกันว่าจะเป็นอย่างไร เมื่อแนวโน้มที่จำนวนคนทำงานลดลงจากการลดลงของประชากร มาบรรจบกับแนวโน้มที่งานของคนจะลดลงเพราะการพัฒนา AI เร่งตัวขึ้น

 

เรากำลังบันทึก debug log ปริมาณมหาศาลทุกวันอยู่แล้ว เลยคิดขึ้นมาว่า ตอนนี้ถึงขั้นจะเอามันไป commit ด้วยแล้วสินะ

 

เรื่องแบบนี้น่าจะลองทำตามดูได้ครับ

 

โพสต์ต้นฉบับไม่ใช่บทความสายเทค แต่เป็นบทวิจารณ์เกี่ยวกับสื่อครับ..

 

เป็นเพราะมีเทคโนโลยีที่รากฐานไม่โปร่งใสเกิดขึ้น ข้อมูลที่ LLM "เรียนรู้" มาไม่ได้รับอนุญาตให้นำมาใช้เพื่อจุดประสงค์แบบนี้ (แม้พวกเขาจะอ้างว่าได้รับอนุญาตแล้วก็ตาม) ดังนั้นจึงไม่สามารถแม้แต่จะระบุได้อย่างถูกต้องว่ามีการ "เรียนรู้" จากข้อมูลใดบ้าง จึงทำให้ไม่อาจเข้าใจโครงสร้างของมันได้ เทคโนโลยีนี้เริ่มต้นขึ้นโดยไม่เคารพจิตใจของมนุษย์ตั้งแต่รากฐาน และเป็นเทคโนโลยีที่ผลิตสำเนาปลอมโดยไม่ได้รับอนุญาตจำนวนมากพร้อมทั้งทำลายสิ่งแวดล้อม

 

ในเมื่อทำงานมากขึ้น แล้วผลกำไรของบริษัทเพิ่มขึ้นตามไปด้วยหรือเปล่า?

 

ถ้าสั่งให้มันวนลูปแก้ไปเรื่อย ๆ สักวันหนึ่งมันก็น่าจะได้คอมไพเลอร์ที่ยอดเยี่ยมกว่านี้ออกมาไม่ใช่หรือ

 

https://ground.news/

ผมเองก็อยากลองทำหลายอย่างเหมือนกัน ตั้งแต่ข่าวที่แบ่งฝั่งซ้าย/ขวาแบบนี้

แต่ก็อย่างที่หลายคนพูดกัน กฎหมายบ้านเราค่อนข้างเข้มครับ

ไม่ง่ายเลยครับ

สิ่งที่ได้รู้ผ่านพัฒนาการของ AI คือ

คอขวดของหลายธุรกิจ/ไอเดีย จริงๆ แล้วไม่ใช่การพัฒนา....