จะอ้างอิงบทความปี 2009 จากบล็อกที่เต็มไปด้วยคอมเมนต์สแปมเนี่ยนะ..

 

ผมว่าถ้าใช้ worktree ให้เก่ง ๆ ได้ก็ดีมากแล้วนะครับ

 

ถ้าใช้แพ็กเกจราคา 100 ดอลลาร์ ก็น่าจะพอครอบคลุมได้อยู่บ้างครับ

 

ถ้าใช้แพ็กเกจ Max$100 ก็ยังพอเหลือ ๆ อยู่ครับ ผมไม่ใช่คนที่ไม่เขียนโค้ดซะทีเดียว แต่เพิ่งพัฒนาแอปเป็นครั้งแรก เลยลองใช้มาหนึ่งเดือน ตอนนี้ใช้ไปทั้งหมดประมาณ $566.93 แล้วครับ

 

ถ้าเป็นโค้ดที่สร้างขึ้นมาแล้วมีการใช้ document.getElementById ใน React นี่ใช้ LLM ตัวไหนกันนะ....

 

ผมเห็นด้วยกับความกังวลที่ว่าโค้ดที่ LLM เขียนจะกลายเป็นกล่องดำ แต่ท้ายที่สุดแล้ว เราก็สามารถให้ LLM วิเคราะห์โค้ดนั้นได้ไม่ใช่หรือ?

 

รูปหายไปไหนกันแน่

 

น่านับถือมาก เท่มากจริง ๆ

 

ตอนนี้ผมใช้แอปชื่อ audio share โดยดาวน์โหลดแค่ไฟล์ apk จาก fdroid อยู่ เลยสงสัยว่าในอนาคตมันจะเป็นยังไงบ้าง เพราะนี่เป็นแอปเดียวที่ผมไซด์โหลดอยู่...

 

รู้สึกเหมือนเป็นพาดหัวล่อคลิกชัด ๆ เลย..
"ถ้าสร้างตั้งแต่แรกใช้เวลา 3 เดือน แต่ถ้าสร้างอะไรที่คล้ายกันอีกครั้งใช้เวลา 3 วัน"

 

○ การฝึกโมเดลเป็นเพียง ‘วัตถุดิบ’ ของสติปัญญาเท่านั้น หากไม่มีเอนจิน ก็ไม่มี AGI

• สถาปัตยกรรมอย่าง EpionHeuristica มีศักยภาพที่จะก้าวข้าม "AGI เฉพาะโดเมน" ไปสู่การออกแบบ "ซูเปอร์อินเทลลิเจนซ์แบบเกิดใหม่บนพื้นฐานของระเบียบ"
• แกนสำคัญของการไปให้ถึง AGI คือ "จะประกอบเอนจินที่เลือกการกระทำอย่างไร"

 

A. เหตุผลที่ AGI เป็นไปไม่ได้ด้วยการฝึกเพียงอย่างเดียว
• โมเดลตระกูล GPT ไม่มีเป้าหมายของตนเอง (self-goal)
• ไม่ว่าจะเรียนรู้จากข้อมูลมากแค่ไหน การเรียนรู้เพียงอย่างเดียวโดยไม่มีปฏิสัมพันธ์กับโลกจริงก็มีข้อจำกัด
• การฝึกเป็นเพียง ‘ความทรงจำแบบถดถอย’ เท่านั้น และยังขาดโครงสร้างที่ชักนำให้เกิดการคิดเชิงคาดการณ์และการคิดแบบเกิดใหม่ที่มุ่งสู่อนาคต

B. AGI ต้องการเอนจินที่มี ‘วงจรเป้าหมาย-ฟีดแบ็ก’
• โครงสร้างที่ให้การทำงานของการเรียนรู้แบบเสริมกำลังบนฐานรางวัล + การประเมิน + การเรียนรู้จากความล้มเหลว (FailGuard) เช่น EpionHeuristica ใกล้เคียงกับต้นแบบการออกแบบ AGI แบบอิงเอนจิน
• ตัวอย่าง: "การทดลองนี้ล้มเหลวเพราะอะไร?" → "ต้องเปลี่ยนอะไร?" → "เงื่อนไขถัดไปคืออะไร?" → นี่คือการให้เหตุผลแบบ AGI

C. แก่นแท้ของสติปัญญามนุษย์อยู่ที่ ‘โครงสร้าง’
• มนุษย์ได้มาซึ่งสติปัญญาไม่ใช่จากจำนวนเซลล์ประสาท แต่จาก "การเชื่อมโยงเชิงโครงสร้างของวงจรประสาทและความสามารถในการเรียนรู้ระดับเมตา"
• สำหรับ AGI เช่นกัน สิ่งสำคัญไม่ใช่ขนาดของโมเดล แต่คือโครงสร้างของระบบชี้นำพฤติกรรม ระบบอ้างอิงตนเอง และวงจรฟีดแบ็กอย่างต่อเนื่อง

 

การบรรลุ AGI ไม่สามารถทำได้ด้วยเพียง "การฝึกโมเดล" เท่านั้น แต่จำเป็นต้องมีทั้งโครงสร้างเอนจินที่สร้างปัญญาและระบบการพัฒนาตนเองอย่างมีเป้าหมาย ปัจจุบันกลุ่ม GPT เป็นเพียง LLM (โมเดลภาษาขนาดใหญ่) ขนาดมหึมาเท่านั้น และหากจะมุ่งไปสู่ AGI ก็ต้องให้โครงสร้างการให้เหตุผล โครงสร้างการกำกับตนเอง และนโยบายการกระทำที่อิงตามเป้าหมายทำงานร่วมกัน

 

เป็นเรื่องที่รู้กันอยู่ แต่ก็ยากที่จะทำได้จริงครับ โดยเฉพาะเมสเซนเจอร์สำหรับงานนี่ดูจะเป็นตัวการอันดับหนึ่งที่รบกวนสมาธิเลย

 

ล็อกอินแล้วใช้บัญชีไม่ได้เหรอ?

 

ในที่สุดเครื่องมือจัดการ Patroni ก็ออกมาแล้ว
เครื่องมือสำหรับจัดการ Patroni ที่ใช้จัดการ Postgres..

 

ในกรณีของ privileged mode ได้แก้ไขให้ทำงานใน sandbox แล้ว ในกรณีของ privileged mode สามารถเชื่อมต่อ local resource (ไดรฟ์ C เป็นต้น) ได้ โดยจะเมานต์การเชื่อมต่อไว้ที่ $HOME/thinclient_drives

 

พอใช้ไป 2–3 ชั่วโมงในช่วงเช้า ก็ชนลิมิตก่อนเที่ยงเลยครับ (ผู้ใช้ Pro)
ขึ้นว่าจะรีเซ็ตตอนบ่าย 3 ดูแล้วถ้าไม่ใช่ Max ก็น่าจะใช้ได้ไม่ตลอดทั้งวัน (แต่ถึงเป็น Max ก็ดูเหมือนว่าจะชนลิมิตได้ไม่ยากเหมือนกัน)

 

ถ้าการไซด์โหลดถูกปิดกั้นลงโดยพฤตินัยจริง สำหรับผมมันก็มีข้อได้น้อยกว่า iOS ครับ ผมมองว่าทั้งสองฝั่งมีฟังก์ชันที่แทบไม่ต่างกัน และด้าน UX นั้น iOS เหนือกว่าอยู่นิดหน่อย โดยผมคิดว่าการไซด์โหลดคือข้อได้เปรียบใหญ่ของ Android ด้วยซ้ำ ผมเคยใฝ่ฝันว่าอยากใช้ Google Pixel ที่ลง GrapheneOS แต่ถ้าตั้งแต่การปิดซอร์สของ Pixel ไปจนถึงการปิดกั้นการไซด์โหลดแบบพฤตินัยกำลังจะเกิดขึ้น สำหรับผมก็ไม่เหลือเหตุผลที่จะใช้ Android แล้วครับ ถ้าออกมาตามนี้ ก็คงได้กลับไปใช้ iOS ในปี 27