
TL;DR
ข่าวใหญ่ 3 ชิ้นในสัปดาห์เดียวกันกำลังบอกทิศทางเดียวกันชัดมาก
- Anthropic เปิด Project Glasswing พร้อม Claude Mythos Preview แต่ไม่ปล่อยสู่สาธารณะ เพราะความสามารถด้าน cybersecurity สูงเกินไป
- Z.ai ปล่อย GLM-5.1 แบบ open-weight สำหรับ agentic engineering และงานที่ต้องรันยาวหลายรอบ
- Google ปล่อย Gemma 4 ภายใต้ Apache 2.0 และวางตำแหน่งชัดว่าเหมาะกับ advanced reasoning และ agentic workflows
ข้อสรุปสำคัญคือ ตลาด AI ไม่ได้วิ่งไปทางเดียว แต่กำลังแยกเป็น 2 ชั้น
- ชั้นของ frontier models ที่ทรงพลังมากจนต้องถูกจำกัดการเข้าถึง
- ชั้นของ open models ที่องค์กรเอาไป deploy เอง ต่อระบบเอง และ optimize ต้นทุนเองได้
สำหรับธุรกิจไทย นี่สำคัญมาก เพราะคำถามในปี 2026 อาจไม่ใช่แค่ “จะใช้ AI หรือไม่” แต่คือ “จะออกแบบ AI stack แบบไหน”
—
What changed, และทำไมมันไม่ใช่แค่ข่าวเปิดตัวโมเดลอีกชุด
ถ้าดูทีละข่าว ข่าวพวกนี้อาจเหมือนคนละเรื่อง
- ข่าวหนึ่งคือ model ด้าน cybersecurity ที่ปล่อยไม่ได้
- ข่าวหนึ่งคือ open-weight model จากจีน
- ข่าวหนึ่งคือ Google ปรับ license ของ Gemma เป็น Apache 2.0
แต่ถ้าดูรวมกัน มันกำลังสะท้อนการเปลี่ยนโครงสร้างของตลาด AI ครับ
เมื่อก่อนเราเถียงกันว่า model ไหนเก่งกว่าใคร ปีนี้คำถามเริ่มเปลี่ยนเป็น
- model ไหน “อันตราย” จนต้องถูกควบคุม
- model ไหน “เปิดพอ” ให้คนเอาไปสร้าง product จริงได้
- model ไหนเหมาะกับระบบที่ต้องการ autonomy, privacy, compliance และต้นทุนที่คุมได้
นั่นแปลว่าการแข่งขันกำลังย้ายจาก model leaderboard ไปสู่ deployment architecture
—
1) Anthropic กำลังบอกตลาดว่า บาง capability จะไม่ถูกปล่อยเป็น public commodity
Anthropic เปิด Project Glasswing เมื่อ 7 เมษายน 2026 พร้อมบอกชัดว่า Claude Mythos Preview จะไม่เปิดให้ใช้งานทั่วไป
เหตุผลไม่ใช่เพราะ model ยังไม่พร้อม แต่เพราะมันมีความสามารถด้าน cybersecurity สูงมากจนบริษัทมองว่าถ้าปล่อยกว้างเกินไป ความเสี่ยงต่อเศรษฐกิจ ความปลอดภัยสาธารณะ และความมั่นคงอาจรุนแรงเกินรับได้
จากประกาศทางการ Anthropic ระบุว่า Mythos Preview พบ zero-day vulnerability จำนวนมากใน
- every major operating system
- every major web browser
- software สำคัญอีกหลายตัว
และหลายกรณี model ทำงานได้แบบ autonomous เกือบทั้งหมด
นี่คือสัญญาณสำคัญมาก
เพราะมันทำให้เห็นว่า ต่อจากนี้ frontier AI บางประเภทอาจไม่ถูกขายเหมือน API ทั่วไปอีกแล้ว แต่จะถูกปล่อยแบบ
- gated access
- invite-only
- limited research preview
- use-case specific deployment
สำหรับคนทำธุรกิจ ความหมายคือ capability ขั้นบนสุดของตลาดอาจไม่ได้เข้าถึงได้เท่ากันทุกคน
—
2) แต่ในเวลาเดียวกัน ฝั่ง open model ก็กำลังเร่งแรงขึ้นมาก
ในสัปดาห์เดียวกัน Z.ai ปล่อย GLM-5.1 บน Hugging Face และวาง positioning ชัดมากว่าเป็น model สำหรับ agentic engineering
จุดที่น่าสนใจไม่ใช่แค่ตัวเลข 754B parameters หรือ 1.51TB weights แต่คือ narrative ที่ต่างจาก model ทั่วไป
GLM-5.1 ไม่ได้ขายตัวเองในฐานะ chatbot ที่ตอบดีขึ้นนิดหน่อย มันขายตัวเองในฐานะ model ที่เหมาะกับงานแบบ
- long-horizon tasks
- repo generation
- terminal tasks
- iterative problem solving
- งานที่ต้องใช้ tool หลายรอบและ revise strategy ระหว่างทาง
ภาษาง่ายๆ คือมันถูกเล่าในฐานะ “คนทำงาน” มากกว่า “คนตอบคำถาม”
นี่ตรงกับ direction ของตลาดอย่างแรง เพราะ agent ที่ใช้จริงในองค์กรไม่ได้มีโจทย์แค่ตอบไว แต่ต้องทำงานต่อเนื่อง, อ่านผลลัพธ์, ทดลองใหม่, และแก้แผนระหว่างทาง
—
3) Google เปลี่ยนเกมอีกด้านด้วย Gemma 4 และ Apache 2.0
Google เปิดตัว Gemma 4 เมื่อ 2 เมษายน 2026 และจุดที่สำคัญมากคือ Google เปลี่ยนมาใช้ Apache 2.0
นี่ไม่ใช่แค่เรื่อง license ที่ดู technical แต่มันคือเรื่อง “ความกล้าเอาไปใช้จริง” ขององค์กร
เพราะเมื่อ license ชัดขึ้น องค์กรจะตัดสินใจง่ายขึ้นในเรื่อง
- legal review
- on-prem deployment
- sovereign infrastructure
- internal fine-tuning
- long-term productization
Google ยังวาง message ชัดมากว่า Gemma 4 ถูกสร้างมาเพื่อ
- advanced reasoning
- function calling
- structured JSON output
- native system instructions
- agentic workflows
- local-first code assistant
นั่นเท่ากับว่า Google กำลังบอกตลาดว่า open model ไม่ได้มีไว้แค่ research หรือของเล่นอีกแล้ว แต่มีไว้เป็น foundation สำหรับ production agents
—
4) ตลาดกำลังแยกเป็น 2 ชั้น ไม่ใช่ผู้ชนะคนเดียวกินทั้งหมด
ถ้าสรุปภาพใหญ่จาก 3 ข่าวนี้ ผมมองว่าตลาด AI กำลังแยกเป็น 2 ชั้นชัดขึ้น
ชั้นที่ 1: Restricted frontier intelligence
เหมาะกับงานที่มี capability สูงมากและ risk สูงมาก เช่น
- cybersecurity
- offensive/defensive code reasoning
- exploit generation
- high-stakes decision support
- autonomous workflows ที่ถ้าพลาดแล้วผลกระทบสูงมาก
โลกนี้จะมีลักษณะคือ
- access จำกัด
- governance หนา
- partner ecosystem สำคัญ
- audit และ safety มาก่อน growth
- ผู้เล่นที่ได้ของแรงสุด อาจไม่ใช่คนที่จ่ายเงินได้ แต่เป็นคนที่ผ่านเงื่อนไข trust และ control
ชั้นที่ 2: Open deployable intelligence
เหมาะกับงานที่องค์กรอยากเอาไป build เอง เช่น
- internal copilots
- automation workflows
- coding assistants
- document agents
- edge/on-prem use cases
- use case ที่ต้อง integrate กับระบบภายในหลายตัว
โลกนี้จะมีลักษณะคือ
- deploy เองได้
- tune เองได้
- ต้นทุนคุมได้
- ต่อเข้ากับระบบองค์กรได้เร็ว
- สามารถออกแบบ latency, privacy, logging และ fallback เองได้
ดังนั้น future ของ AI อาจไม่ใช่เกม winner-takes-all แบบมี model เดียวกินทุกอย่าง แต่เป็นเกมของ stack design
—
5) ทำไมการแยกเป็น 2 ชั้นแบบนี้ถึงสำคัญกว่าที่เห็น
เรื่องนี้สำคัญ เพราะมันเปลี่ยน economics ของการใช้ AI ทั้งระบบ
ในโลกเก่า บริษัทจำนวนมากถามว่า
- จะใช้ OpenAI, Anthropic, Google หรือเจ้าไหนดี
- benchmark ใครสูงสุด
- model ไหนตอบฉลาดกว่ากัน
แต่ในโลกใหม่ คำถามเริ่มกลายเป็น
- งานแบบนี้ควรซื้อ capability หรือควรถือ infrastructure เอง
- use case นี้ต้องการความเก่งสูงสุด หรือแค่ความเสถียรและราคาที่คุมได้
- งานนี้ควรอยู่บน public API หรือ private runtime
- เรากำลัง optimize quality, cost, speed หรือ control กันแน่
พอคำถามเปลี่ยน วิธีตัดสินใจก็เปลี่ยนตาม
หลายองค์กรจะพบว่า model ที่ดีที่สุด “บนกระดาษ” ไม่ได้แปลว่าเหมาะที่สุด “ใน workflow จริง”
—
6) Anthropic กำลังสร้างอีกตลาดหนึ่ง, ตลาดของ capability ที่ต้องมีใบผ่านก่อนใช้
ข่าว Glasswing ไม่ได้สำคัญแค่เพราะ Mythos เก่ง แต่สำคัญเพราะมันสะท้อนว่า lab เริ่มยอมรับแล้วว่า model บางระดับไม่ควรแจกกว้างเหมือน feature release ปกติ
มองอีกแบบหนึ่ง Anthropic กำลังทดลองโมเดลธุรกิจและโมเดล governance ไปพร้อมกัน
คือแทนที่จะถามว่า “ทำยังไงให้คนใช้เยอะที่สุด” มันถามว่า “ทำยังไงให้ capability ที่แรงมาก ไปอยู่ในมือคนที่ใช้เพื่อ defense ก่อน”
สำหรับคนทำธุรกิจ ประเด็นนี้สำคัญมาก เพราะแปลว่า
- capability ระดับบนสุดอาจไม่กลายเป็น commodity เร็วเท่าที่หลายคนคิด
- ความสัมพันธ์กับ ecosystem, trust, security maturity และ compliance อาจกลายเป็นปัจจัยในการเข้าถึง model
- ในบางอุตสาหกรรม เช่น security, finance, infra, healthcare ผู้ชนะอาจไม่ใช่คนที่ prompt เก่งที่สุด แต่คือคนที่ผ่าน governance gate ได้เร็วที่สุด
นี่คือเหตุผลที่ผมมองว่า Glasswing ไม่ใช่แค่ announcement ของ model ใหม่ แต่เป็น announcement ของ “ตลาด AI แบบมีชั้นความเสี่ยง”
—
7) ฝั่ง open model ไม่ได้เป็นแค่ของถูกกว่า แต่มันคืออิสระในการออกแบบระบบ
เวลาเราได้ยินคำว่า open model หลายคนจะตีความเร็วๆ ว่า
- ถูกกว่า
- ปรับแต่งได้
- เหมาะกับคนไม่อยากพึ่ง vendor เดียว
ทั้งหมดนี้จริง แต่ยังไม่พอ
คุณค่าจริงของ open model ในปี 2026 คือมันทำให้องค์กรเริ่ม “ออกแบบระบบการทำงานของ AI ได้เอง”
ตัวอย่างเช่น ถ้าคุณอยากสร้าง agent ภายในบริษัทที่ต้อง
- อ่าน policy ภายใน
- คุยกับ ERP หรือ CRM
- วิ่งบน network ปิด
- เก็บ log ทุก step
- ส่งงานเข้า human review ในบางเงื่อนไข
- บังคับให้ตอบใน JSON format เท่านั้น
สิ่งที่สำคัญไม่ใช่แค่ตัว model เก่งหรือไม่เก่ง แต่คือคุณควบคุม execution environment ได้แค่ไหน
ตรงนี้เองที่ Gemma 4 และ GLM-5.1 น่าสนใจ
- Gemma 4 ชูเรื่อง Apache 2.0, local deployment, agentic workflows, structured outputs
- GLM-5.1 ชูเรื่อง long-horizon tasks, repeated tool use, iterative improvement
สองตัวนี้พูดคนละภาษาเชิงการตลาด แต่ส่งสัญญาณเดียวกัน
open model รุ่นใหม่ไม่ได้แค่พยายามเป็น chatbot ที่เก่งขึ้น แต่พยายามเป็น worker ในระบบจริง
—
8) ประเด็นที่คนชอบมองข้าม, open ไม่ได้แปลว่าเหมาะเสมอไป
ผมอยากเตือนตรงนี้นิดหนึ่ง เพราะเวลาตลาดเห่อ open model คนมักเผลอคิดว่ามันคือคำตอบทุกอย่าง
ความจริงคือ open model มีต้นทุนของมันเหมือนกัน
- ต้องมีทีมที่ดู infra พอสมควร
- ต้องมีคน monitor performance และ hallucination
- ต้องทำ evaluation เอง
- ต้องจัดการ security, patching, serving และ observability
- ต้องยอมรับว่า benchmark บางงานยังสู้ frontier model ชั้นบนไม่ได้
ดังนั้น open model ไม่ใช่ “ของฟรีที่คุ้มกว่าเสมอ” แต่มันคือ “ทางเลือกที่คุ้มเมื่อโจทย์ต้องการ control มากพอ”
พูดอีกแบบคือ
- ถ้างานนั้นเปลี่ยนเร็ว ต้องการ quality สูงมาก และไม่อยากดู infra เอง, public frontier API อาจคุ้มกว่า
- ถ้างานนั้นวิ่งซ้ำเยอะ มีข้อมูลภายในชัด ต้องการ cost predictability และ control สูง, open model อาจเหมาะกว่า
คนที่มองเห็น trade-off นี้จะตัดสินใจได้ดีกว่าคนที่เลือกข้างแบบสุดโต่ง
—
9) สิ่งที่กำลังเปลี่ยนจริงคือ “AI strategy” ขององค์กร
หลายองค์กรยังคิดว่า AI strategy คือเลือก vendor หลักหนึ่งเจ้า แล้วจบ
แต่จากสัญญาณรอบนี้ ผมคิดว่า mindset แบบนั้นจะเริ่มใช้ไม่ได้
เพราะความจริงกำลังกลายเป็นแบบนี้
- งานบางอย่างต้องใช้ frontier model แบบ gated
- งานอีกจำนวนมากใช้ open model ที่ deploy เองคุ้มกว่า
- บางงานต้องรัน local เพราะ privacy หรือ latency
- บางงานต้องใช้ cloud เพราะ scale หรือ model quality
- บางงานต้องมีหลาย model ใน workflow เดียวกันด้วยซ้ำ
นั่นแปลว่า strategy ใหม่อาจต้องเป็น hybrid AI stack
ตัวอย่างเช่น
- ใช้ model ปิดสำหรับ reasoning ที่ซับซ้อนมากหรือ quality-critical tasks
- ใช้ open model สำหรับ internal agents ที่ต้องต่อกับ data และ workflow ภายใน
- ใช้ edge/open model สำหรับ use case ที่ต้องการ speed, privacy หรือ offline execution
- ใช้ lightweight model สำหรับ classification, routing และ guardrail ก่อนส่งต่อไปยัง model ใหญ่
คนที่ยังคิดแบบ one-model-for-everything อาจเริ่มเสียเปรียบ เพราะสุดท้ายจะเจอทั้ง cost ที่บาน, control ที่ไม่พอ, หรือคุณภาพที่ไม่เหมาะกับบางงาน
—
10) สำหรับทีม product และ CTO คำถามใหม่ไม่ใช่ “ใช้ model ไหน” แต่คือ “แบ่งงานยังไง”
สิ่งที่ผมคิดว่าสำคัญที่สุดจากข่าวชุดนี้ คือมันเปลี่ยนคำถามระดับบริหาร
จากเดิม:
- model ไหนดีที่สุด
- เจ้าไหน benchmark สูงสุด
เป็นคำถามใหม่:
- workload ไหนควรใช้ model เปิด
- workload ไหนควรใช้ model ปิด
- งานไหนยอมให้ agent ทำเองได้แค่ไหน
- governance level ไหนพอสำหรับแต่ละ use case
- อะไรคือ cost per workflow ไม่ใช่ cost per token
- ถ้า provider เปลี่ยนนโยบายหรือราคา เรามี fallback architecture หรือยัง
นี่คือจุดที่การคุยเรื่อง AI เริ่ม mature ขึ้น
เพราะบริษัทที่ชนะจะไม่ชนะด้วยการโพสต์ benchmark แต่จะชนะด้วยการออกแบบระบบที่รันงานจริงได้เร็ว, ปลอดภัย, และวัดผลได้
—
11) ตัวอย่างภาพจริง, ถ้าเป็นองค์กรไทยควรแบ่ง stack ยังไง
เพื่อให้เห็นภาพ ผมลองยก 3 archetype ง่ายๆ
แบบที่ 1: ทีม consulting / agency
เหมาะกับการใช้
- frontier API สำหรับงานคิด, สรุป, วาง narrative
- open model สำหรับ internal search, proposal helper, knowledge base
เหตุผลคือ quality ของงาน client-facing สำคัญ แต่ข้อมูลองค์กรภายในก็ควรเริ่มแยก layer ออกมา
แบบที่ 2: ทีม software / product
เหมาะกับการใช้
- frontier model สำหรับ hard reasoning, code review, architecture exploration
- open model สำหรับ repetitive coding tasks, ticket triage, docs, test scaffolding
เพราะงาน dev มีทั้งส่วนที่ต้องการ raw intelligence และส่วนที่ต้องการ cheap repeated execution
แบบที่ 3: enterprise ที่มีข้อจำกัดด้าน data
เหมาะกับการเริ่มจาก
- local/open model สำหรับ use case ภายใน
- เลือก frontier access เฉพาะงานที่ข้อมูลไม่ sensitive หรือมี human gate ชัด
เพราะ pain point หลักไม่ใช่ model quality อย่างเดียว แต่คือ legal, audit, และความสบายใจของฝ่าย compliance
—
12) ทำไมเรื่องนี้สำคัญกับไทยมากกว่าที่คิด
หลายคนอาจมองว่าข่าวพวกนี้เป็นเรื่องของ lab ใหญ่ในอเมริกากับจีน แต่จริงๆ มันกระทบไทยตรงๆ ครับ
มุมที่ 1: เราไม่จำเป็นต้องรอ frontier access เสมอไป
ถ้าองค์กรไทยอยากเริ่ม build agent วันนี้ หลาย use case ใช้ open model ได้เลย โดยเฉพาะงานภายในที่มี rule ชัด
มุมที่ 2: เรื่อง license และ deployment flexibility สำคัญมาก
เพราะองค์กรไทยจำนวนมากยังมีข้อจำกัดเรื่อง data governance, budget และ infra readiness model ที่เอาไปรันเองได้จริง จะมีน้ำหนักมากกว่าที่หลายคนคิด
มุมที่ 3: คนที่ออกแบบ workflow เป็น จะได้เปรียบกว่าคนที่แค่ตาม model news
เพราะเมื่อ model options เยอะขึ้น ความได้เปรียบจะไปอยู่ที่คนที่รู้ว่าเอา model ไหนไปต่อกับ process ไหน
มุมที่ 4: ตลาดไทยมีโอกาสข้ามบางขั้นได้
หลายองค์กรไทยไม่ได้มี legacy AI stack หนาเหมือนบริษัทใหญ่ในตะวันตก นี่กลับเป็นข้อดี เพราะสามารถออกแบบ hybrid stack ตั้งแต่ต้นได้เลย ไม่ต้องรื้อของเดิมมาก
—
13) แล้วควรทำอะไรต่อ ถ้าคุณเป็น founder, CTO หรือ operator
ผมแนะนำ 7 ข้อครับ
1. แยก use case เป็น 3 กลุ่มก่อน
- งานที่ต้องการ quality สูงมาก
- งานที่ต้องการ privacy/control สูง
- งานที่ต้องการ scale และต้นทุนต่ำ
2. เลิกคิดว่า AI procurement คือเรื่อง vendor เดียว
ให้คิดเหมือนออกแบบ cloud architecture คือมีหลายชั้น และแต่ละชั้นมีหน้าที่ต่างกัน
3. เริ่มวัดผลที่ workflow level
อย่าวัดแค่ว่า model เก่งหรือไม่เก่ง ให้วัดว่า workflow ไหนจบเร็วขึ้น, ใช้คนน้อยลง, error ลดลง, หรือ margin ดีขึ้น
4. เตรียม governance สำหรับ agent ตั้งแต่ต้น
โดยเฉพาะงานที่แตะ code, infra, customer data หรือระบบภายใน
5. สร้าง fallback plan ตั้งแต่วันแรก
ถ้าวันหนึ่ง provider จำกัด usage, ขึ้นราคา หรือเปลี่ยนนโยบาย access เราจะย้าย workload บางส่วนไปที่ไหน
6. ทำ evaluation แยกตามงาน ไม่ใช่ดู benchmark รวม
งาน summarize, coding, retrieval, routing, planning, and compliance checks ใช้ model ต่างกันได้
7. ลงมือทดลองกับ open model ตอนนี้
เพราะต่อให้สุดท้ายคุณยังใช้ frontier API เป็นแกนหลัก ความเข้าใจเรื่อง open deployment จะกลายเป็น leverage สำคัญในอีก 6-12 เดือนข้างหน้า
—
บทสรุป
ผมคิดว่าข่าวทั้ง 3 ชิ้นนี้บอกเราชัดมากว่า AI market กำลังโตต่อ แต่ไม่ได้โตแบบเส้นเดียว
โลกหนึ่งกำลังไปทาง power ที่สูงขึ้นจนต้องคุมเข้มขึ้น อีกโลกหนึ่งกำลังไปทาง openness ที่มากขึ้นจน deploy ได้จริงขึ้น
และนี่คือเหตุผลว่าทำไมเกมรอบต่อไปจะไม่ใช่แค่ใครมี model ที่เก่งที่สุด แต่คือใครออกแบบ AI stack, workflow และ governance ได้ดีกว่ากัน
ถ้าดูให้ลึก สัปดาห์นี้ไม่ใช่แค่สัปดาห์ที่มีโมเดลใหม่ 3 ตัว แต่มันอาจเป็นสัปดาห์ที่ทำให้เราเห็นชัดขึ้นว่า
อนาคตของ AI จะไม่ใช่ “โมเดลเดียวครองโลก” แต่เป็น “หลายชั้น หลายระดับความเสี่ยง และหลายรูปแบบการ deploy”
และนั่นทำให้ความได้เปรียบย้ายจาก “ใครเข้าถึง model ไหน” ไปสู่ “ใครออกแบบระบบการใช้ model ได้ดีกว่า”
คนที่เข้าใจเรื่องนี้ก่อน จะวางหมากได้ดีกว่าคนอื่น
—
FAQ
Q1: แล้ว open model จะชนะ frontier model ไหม?
ไม่น่าจะเป็นเกมชนะขาดครับ ทั้งสองฝั่งจะอยู่ร่วมกัน แต่รับงานคนละแบบ งานที่ต้องการ capability สูงมากหรือมีความเสี่ยงสูงจะยังอยู่กับฝั่ง restricted frontier model ส่วนงานที่ต้องการ flexibility, privacy, cost control และ deploy เร็ว จะเปิดทางให้ open model มากขึ้น
Q2: ธุรกิจเล็กควรเริ่มจากฝั่งไหน?
ถ้าเป็น use case ภายในที่ไม่ได้ซับซ้อนมาก ผมคิดว่าการเริ่มจาก open model หรือ model ที่ควบคุม deployment ได้ จะช่วยให้เรียนรู้เร็วและคุมต้นทุนได้ดีกว่า แล้วค่อยเสริม frontier model ในจุดที่ต้องการคุณภาพสูงจริง
Q3: ข่าวนี้เกี่ยวกับ agent ยังไง?
เกี่ยวตรงๆ เพราะทั้ง GLM-5.1 และ Gemma 4 ถูกวางตำแหน่งไปที่งาน reasoning + tool use + workflow execution ชัดเจน ส่วน Anthropic ก็สะท้อนให้เห็นว่าเมื่อ capability ของ agent สูงขึ้น ความเสี่ยงและ governance ก็ต้องสูงขึ้นตาม
Q4: ทำไมเรื่อง license ถึงสำคัญนัก?
เพราะสำหรับองค์กร เรื่อง license ไม่ได้เป็นรายละเอียดเล็กๆ แต่มันคือสิ่งที่กำหนดว่า deploy ได้ไหม, แก้ไขได้ไหม, รัน on-prem ได้ไหม, และ legal team จะยอมให้ใช้หรือเปล่า
