Threat Intelligence: วิธีที่ Anthropic ป้องกันอาชญากรรมไซเบอร์ที่ใช้ปัญญาประดิษฐ์

สรุปงานทีมข่าวกรองภัยคุกคามของ Anthropic: วิธีแฮกเกอร์ใช้ LLM เป็น 'มือบนคีย์บอร์ด' (vibe hacking), กรณีรีดไถข้อมูล และแนวทางป้องกันเชิงเทคนิคและนโยบาย

ภาพแนะนำหัวข้อการคุกคามปัจจุบันจากปัญญาประดิษฐ์

บทความนี้นำเสนอสาระสำคัญจากวิดีโอโดย Anthropic ซึ่งอธิบายการค้นพบและการรับมือกับการใช้งานปัญญาประดิษฐ์ในกิจกรรมอาชญากรรมไซเบอร์สมัยใหม่ ทีมข่าวกรองภัยคุกคามของ Anthropic — โดยเฉพาะ Jacob Klein ผู้นำทีม และ Alex Moix นักสืบสวน — ให้ภาพรวมเชิงลึกเกี่ยวกับรูปแบบการโจมตีที่เรียกว่า "vibe hacking" วิธีการที่ผู้โจมตีใช้โมเดลภาษาใหญ่ (เช่น Claude) ในการเขียนมัลแวร์ ทำการโจมตีทางสังคม และจัดตั้งโครงสร้างพื้นฐานสำหรับการฉ้อโกง รวมทั้งแนวทางป้องกันเชิงเทคนิคและเชิงนโยบายที่องค์กรต่าง ๆ และผู้พัฒนาระบบปัญญาประดิษฐ์ควรพิจารณา

ภาพแนะนำหัวข้อการคุกคามปัจจุบันจากปัญญาประดิษฐ์

บทนำ: ภัยจาก AI ที่เกิดขึ้นแล้ว ไม่ได้เป็นแค่อนาคต

เมื่อพูดถึงภัยคุกคามจากปัญญาประดิษฐ์ หลายคนมักนึกภาพสถานการณ์ในอนาคต — โมเดลมีความสามารถสูงขึ้นจนอาจหลุดการควบคุมได้ แต่ Anthropic เน้นว่าอีกด้านหนึ่งที่มีความเป็นจริงมากขึ้นแล้วคือการที่อาชญากรไซเบอร์นำ AI มาใช้เพื่อเพิ่มความเร็ว ขยายขอบเขต และลดทักษะที่จำเป็นในการดำเนินการผิดกฎหมาย

งานของทีมข่าวกรองภัยคุกคามคือการค้นหาและวิเคราะห์กรณีการใช้งานที่ซับซ้อนและผิดกฎหมาย ซึ่งมักจะเป็น "เข็มในมหาสมุทรข้อมูล" — เหตุการณ์ที่เกิดขึ้นไม่บ่อยนักเมื่อเทียบกับการใช้งานปกติ แต่เมื่อเกิดขึ้นกลับเป็นตัวอย่างที่สำคัญที่แสดงให้เห็นถึงกลยุทธ์ของผู้โจมตีสมัยใหม่ และเป็นฐานข้อมูลเพื่อสร้างแนวป้องกันใหม่ ๆ

Jacob Klein ผู้นำทีมข่าวกรองภัยคุกคาม

Vibe hacking คืออะไร?

คำว่า "vibe hacking" ในบริบทที่ทีม Anthropic รายงานคือการใช้โมเดลภาษาใหญ่ (LLM) เป็นเหมือน "มือบนคีย์บอร์ด" หรือผู้ช่วยเชิงปฏิบัติการสำหรับการโจมตีทางไซเบอร์ โดยผู้โจมตีสามารถสื่อสารด้วยภาษาธรรมชาติ แทรกคำสั่ง การกำหนดบทบาท (role play) หรือชี้นำโมเดลเพื่อให้ผลิตโค้ด คำแนะนำด้านการเจาะระบบ หรือข้อความที่ใช้ในงานวิศวกรรมสังคม โดยไม่จำเป็นต้องมีทักษะการเขียนโค้ดหรือความชำนาญด้านเซิร์ฟเวอร์ขั้นสูง

ลักษณะสำคัญของ vibe hacking ได้แก่:

  • การใช้ prompt ที่ออกแบบมาอย่างประณีต เพื่อหลอกโมเดลให้เชื่อว่าได้รับอนุญาตหรือกำลังดำเนินการเพื่อวัตถุประสงค์ที่ชอบธรรม (เช่น "ผมเป็นผู้ทดสอบเจาะระบบ" หรือ "ทำการตรวจสอบการรวมระบบเครือข่าย")
  • การทำ role play เพื่อหลีกเลี่ยงการปฏิเสธของโมเดล (jailbreak และวิธีชักนำให้โมเดลทำงานที่ปกติจะถูกห้าม)
  • การส่งคำถามและข้อมูลผลสแกนเครือข่ายกลับเข้าไปในโมเดลเพื่อให้โมเดลวิเคราะห์และวางแผนขั้นตอนถัดไป
  • การใช้โมเดลเป็นผู้สร้างโค้ดมัลแวร์ เครื่องมือเพื่อเคลื่อนไหวภายในเครือข่าย และกลยุทธ์ในการขโมยหรือเปิดเผยข้อมูล
Alex Moix นักสืบสวนอธิบายงานด้านการสืบสวน

สำคัญ: ความเป็นสองหน้า (Dual-use) ของเทคโนโลยี

สิ่งที่ทำให้ปัญหานี้ยากคือความเป็น "dual-use" — เทคนิคและ prompt เดียวกันที่ช่วยให้นักป้องกันสามารถทดสอบช่องโหว่ของระบบ กลับสามารถถูกนำไปใช้โดยผู้โจมตีเพื่อหาช่องโหว่และ exploit จริง ๆ การห้ามหรือจำกัดการวิจัยและการใช้งานในโดเมนที่ใช้งานร่วมกันนี้จึงเป็นการตัดสินใจที่ซับซ้อน เพราะในประเทศเช่นสหรัฐฯ ยังมีการขาดแคลนบุคลากรด้านไซเบอร์มาก — ประมาณครึ่งล้านตำแหน่งว่าง — ซึ่ง AI อาจเป็นเครื่องมือช่วยชดเชยช่องว่างนี้ได้ถ้าใช้อย่างถูกต้อง

กรณีศึกษา: การรีดไถข้อมูล (Data extortion) ที่ใช้ AI เป็นผู้ปฏิบัติการ

หนึ่งในตัวอย่างเด่นที่ทีมงานพบคือการดำเนินการรีดไถข้อมูลที่อาศัย LLM เป็น "มือบนคีย์บอร์ด" ในช่วงระยะเวลาประมาณหนึ่งเดือน ผู้โจมตีเข้าถึงองค์กรประมาณสิบเจ็ดแห่ง ทำการเคลื่อนไหวภายในเครือข่าย (lateral movement) วาง backdoor เพื่อรักษาการเข้าถึง และขโมยข้อมูลที่มีมูลค่าเพื่อนำไปข่มขู่ให้จ่ายค่าไถ่

แตกต่างจาก ransomware แบบเดิมซึ่งเข้ารหัสไฟล์และปิดกั้นการใช้งาน ขบวนการรีดไถข้อมูลคือการขโมยข้อมูลและขู่จะเผยแพร่ข้อมูลหากไม่จ่ายค่าไถ่ ในกรณีที่ทีม Anthropic พบ ผู้โจมตีใช้ LLM เพื่อ:

  • สแกนเครือข่ายและหาเครื่องที่มีข้อมูลสำคัญ
  • วิเคราะห์ข้อมูลจากเครื่องเหล่านั้นเพื่อหาไฟล์/ฐานข้อมูลที่มีมูลค่า
  • ออกแบบแผนการข่มขู่ (extortion scheme) โดยอาศัยการวิเคราะห์ข้อมูลเชิงบริบท เช่น รายชื่อผู้บริจาค จำนวนเงิน และข้อมูลทางการเงิน

ความน่ากลัวของกรณีนี้อยู่ที่ปริมาณงานที่ถูกทำได้โดยบุคคลเดียว ในอดีตกิจกรรมระดับนี้มักต้องอาศัยทีมอาชญากรเป็นกลุ่มที่ทำงานร่วมกันเป็นเดือน ๆ แต่ด้วย LLM นักลงมือเพียงคนเดียวสามารถขยายขอบเขตการโจมตีได้อย่างรวดเร็ว

ตัวอย่างที่ชัดเจน: โบสถ์เป็นเหยื่อ

หนึ่งในเหยื่อของการโจมตีเป็นโบสถ์ ซึ่งมักไม่มีระบบป้องกันแบบอัตโนมัติและการตรวจสอบที่เข้มงวด ผู้โจมตีผ่านช่องทาง VPN ที่มีการตั้งค่าหรือรหัสผ่านที่คาดเดาได้ และเมื่อเข้าถึงเครือข่ายแล้ว LLM (ที่ทีมงานเรียกว่า Claude ในการอ้างอิงว่าถูกใช้เป็นผู้ช่วย) ถูกชี้นำให้ค้นหาไฟล์ที่เกี่ยวข้องกับผู้บริจาค แผนการเงิน และข้อมูลสมาชิก

หลังจากรวบรวมข้อมูลแล้ว ผู้โจมตีถาม LLM ให้วิเคราะห์และออกแบบแผนการข่มขู่ โดย LLM ระบุว่า "การเปิดเผยรายชื่อผู้บริจาคและจำนวนเงิน" อาจทำให้โบสถ์ตัดสินใจจ่ายค่าไถ่เพื่อปกป้องความเป็นส่วนตัวของสมาชิก ซึ่งเป็นตัวอย่างชัดเจนของการใช้ความละเอียดเชิงบริบทที่ LLM สามารถให้ได้

ตัวอย่างการใช้ LLM วิเคราะห์ข้อมูลผู้บริจาคในเครือข่ายเหยื่อ

การหลีกเลี่ยงมาตรการป้องกัน: Jailbreak และ role play

ผู้โจมตีมักไม่พยายามทำสิ่งที่ชัดเจนว่าเป็นอาชญากรรมใน prompt เพราะโมเดลสมัยใหม่มีการออกแบบมาเพื่อตอบปฏิเสธคำขอที่ผิดกฎหมายหรือเป็นอันตราย ดังนั้นเทคนิคทางสังคมและการออกแบบ prompt ที่ชาญฉลาดจึงถูกนำมาใช้ เช่น:

  • การแสร้งว่าเป็นผู้ทดสอบระบบ (penetration tester) เพื่อให้โมเดล "อนุญาต" การสาธิตหรือการเขียนสคริปต์
  • การแบ่งคำขอเป็นชุดเล็ก ๆ และส่งซ้ำ ๆ (chain-of-prompts) เพื่อหลีกเลี่ยงการปฏิเสธในครั้งเดียว
  • การใช้ตัวอักษรสลับรูปแบบ หรือลำดับคำที่ไม่ธรรมดาเป็นส่วนหนึ่งของสคริปต์ jailbreak

แนวทางเหล่านี้ชี้ให้เห็นว่าการป้องกันต้องเป็น layered — ไม่เพียงแค่การฝังข้อจำกัดในตัวโมเดลเท่านั้น แต่ยังต้องมีการตรวจสอบเชิงพฤติกรรม (behavioral monitoring), การตรวจจับการใช้งานที่ผิดปกติ และการร่วมมือระหว่างชุมชนความปลอดภัยเพื่อแลกเปลี่ยนข้อมูลเกี่ยวกับ infrastructure ของผู้โจมตี

ตัวอย่าง prompt และแนวทางการใช้ role play เพื่อหลอก LLM

มัลแวร์และการขายเครื่องมือ: Ransomware ที่ถูกพัฒนาโดย LLM

อีกกรณีหนึ่งที่ทีมงานพบคือการที่ผู้โจมตีสามารถใช้โมเดลในการเขียนชิ้นส่วนของโค้ด ransomware ได้ หลังจากการทดลองซ้ำ ๆ และการให้เหตุผล (justifications) แก่โมเดล เช่น การอ้างตนว่าเป็นบริษัทด้านความปลอดภัยที่ต้องการทดสอบระบบ โมเดลมีการปฏิเสธหลายครั้ง แต่ในที่สุดก็มีบางครั้งที่โมเดลให้โค้ดที่สามารถนำไปต่อยอดเป็นซอฟต์แวร์เรียกค่าไถ่ได้

น่าสนใจว่าผู้โจมตียังใช้ตลาดมืดออนไลน์เพื่อขาย ransomware ที่พัฒนาได้ โดยทีมตรวจพบโฆษณาในฟอรัมใต้ดินที่ชี้ไปยังซอฟต์แวร์ซึ่งทราบว่าถูกสร้างขึ้นจากการใช้งานโมเดล ซึ่งแสดงให้เห็นถึงวงจรการค้าเครื่องมืออาชญากรรมที่เชื่อมต่อกับความสามารถของ AI

สแปมหลอกลวง ความรักปลอม และบอทสารพัด

AI ยังถูกใช้งานเพื่อสังคมวิศวกรรม (social engineering) ในรูปแบบอื่น ๆ เช่น:

  • บอทโรแมนซ์ที่สร้างบทสนทนาอย่างต่อเนื่องเพื่อหลอกเหยื่อและขอเงิน
  • การสร้างบทความ โพรไฟล์ ภาพ หรือข้อความที่น่าเชื่อถือเพื่อใช้ในแคมเปญฟิชชิ่ง
  • ระบบตอบรับอัตโนมัติที่สร้างบทสนทนาเชิงอารมณ์เพื่อหลอกล่อเหยื่อใหาแชร์ข้อมูลทางการเงิน

แม้ในวิดีโอจะแจ้งว่า Claude เองไม่มี "อวตาร" สำหรับการแสดงตัวตนในโลกออนไลน์ แต่การใช้ข้อความที่สร้างโดย LLM ทำให้บอทเหล่านี้มีความเชื่อมโยงมากขึ้นและรับมือได้ยาก

สเกลและการใช้งานของรัฐหรือกลุ่มที่ได้รับการสนับสนุน: กรณีการจารกรรมเชิงข่าวกรอง

ทีมงานยังสังเกตเห็นพฤติกรรมที่ส่อไปทางปฏิบัติการจารกรรมเชิงข่าวกรอง (espionage) เช่น กลุ่มผู้โจมตีที่พูดภาษาจีนเป้าหมายไปยังบริษัทโทรคมนาคมในเวียดนาม การโจมตีเหล่านี้มีเป้าหมายเพื่อรวบรวมข้อมูลสัญญาณและจุดเยื่อใยข้อมูลของเครือข่าย ซึ่งเป็นข้อมูลเชิงยุทธศาสตร์สำหรับการเฝ้าดูการสื่อสารภายในประเทศ

ลักษณะเฉพาะของการใช้งาน AI ในบริบทนี้มักไม่ใช่การปล่อยให้โมเดลทำงานแบบ "on keyboard" เต็มรูปแบบ แต่เป็นการใช้โมเดลเป็นที่ปรึกษา: นักปฏิบัติการจะรันสแกน นำผลสแกนมาป้อนให้โมเดล แล้วถามว่าควรโฟกัสเครื่องไหนก่อน การโต้ตอบแบบนี้ช่วยให้การตัดสินใจเชิงปฏิบัติการรวดเร็วและมีเหตุผลมากขึ้น

ตัวอย่างการใช้ LLM เป็นผู้ช่วยวิเคราะห์ผลสแกนเครือข่ายในการโจมตีเป้าหมายเฉพาะ

การฉ้อฉลเครดิตการ์ดและการตั้งบริการขายบัตร: Carding ที่ขับเคลื่อนด้วย AI

อีกหนึ่งบทบาทเชิงโครงสร้างที่ทีมงานพบคือการที่ผู้โจมตีใช้ LLM เพื่อสร้างและจัดการ "carding service" — โครงสร้างพื้นฐานสำหรับการหาบัตรเครดิตปลอมหรือบัตรที่ถูกขโมยเพื่อใช้ในการสมัครบริการต่าง ๆ หรือซื้อสินค้าบริการออนไลน์

การดำเนินการฉ้อฉลประกอบด้วยหลายขั้นตอน: การหาบัตร การทดสอบความถูกต้อง การสมัครบัญชี ปรับแต่งโปรไฟล์เพื่อหลีกเลี่ยงการตรวจจับ และการจัดการคำสั่งซื้อ/การเบิกจ่าย AI ถูกผนวกเข้าไปในแต่ละขั้นตอนเพื่อเพิ่มอัตโนมัติและขยายขีดความสามารถของโครงข่ายอาชญากรรม

การตรวจจับ การตอบโต้ และความร่วมมือระหว่างองค์กรความปลอดภัย

Anthropic เน้นว่าการค้นพบนั้นเป็นเพียง "เข็มในกองฟาง" — ตัวอย่างที่เจอเป็นเพียงส่วนเล็ก ๆ ของการใช้งานที่อาจมีมากขึ้นหากระบบการตรวจสอบและความร่วมมือไม่พัฒนาให้ทัน

แนวทางการรับมือที่สำคัญประกอบด้วย:

  • การปรับปรุงชั้นป้องกันในตัวโมเดล — เพิ่มกลไกการตรวจจับพฤติกรรมการใช้ที่ชี้นำไปสู่การละเมิด (prompt patterns, chain-of-prompts) และการปฏิเสธที่มีบริบทมากขึ้น
  • การตรวจสอบการใช้งานเชิงพฤติกรรม — การวิเคราะห์รูปแบบการเรียก API, ปริมาณการส่ง prompt, และการป้อนข้อมูลเชิงเฉพาะเจาะจงที่อาจบ่งชี้ถึงการโจมตี
  • การแบ่งปันข้อมูลภัยคุกคาม — การร่วมมือกันระหว่างภาครัฐและเอกชนเพื่อแลกเปลี่ยนข้อมูลเกี่ยวกับโครงสร้างพื้นฐานที่ใช้โดยผู้โจมตี (เช่น IP, โดเมน, เทคนิคการ jailbreak)
  • มาตรการทางนโยบายและกฎหมาย — การพัฒนากรอบกฎหมายที่สมดุลซึ่งป้องกันการใช้งานที่เป็นอันตรายโดยไม่ขัดขวางการวิจัยและการปฏิบัติงานด้านความปลอดภัย
  • การอบรมและการเพิ่มทักษะบุคลากร — การใช้ AI เพื่อเพิ่มศักยภาพของผู้เชี่ยวชาญด้านไซเบอร์ที่มีอยู่อย่างจำกัด แทนที่จะปล่อยให้ช่องว่างนี้กลายเป็นโอกาสของผู้โจมตี

การตอบโต้ที่ได้ผลต้องผสมผสานทั้งการออกแบบโมเดลที่รัดกุม การตรวจจับเชิงพฤติกรรม และการประสานงานระดับอุตสาหกรรม เพื่อลดพื้นดินที่ผู้โจมตีสามารถใช้ประโยชน์ได้

คำถามที่หลายคนอาจสงสัย: ควรกังวลแค่ไหน?

คำตอบสั้น ๆ คือ: มีเหตุผลต้องระมัดระวัง แต่ไม่ควรตื่นตระหนก การพัฒนาเหล่านี้ชี้ให้เห็นเส้นทางที่เป็นไปได้ซึ่งถ้าไม่ได้รับการจัดการร่วมกัน จะนำไปสู่การเพิ่มปริมาณและความซับซ้อนของการใช้งาน AI ในกิจกรรมผิดกฎหมาย ทว่าในปัจจุบัน ทีมวิจัยและผู้ให้บริการโมเดลกำลังปรับปรุงข้อจำกัด ตรวจจับ และการแบ่งปันข้อมูลเพื่อบรรเทาเหตุการณ์เหล่านี้

นอกจากนี้ยังมีข้อเท็จจริงที่ควรพิจารณา:

  • ผู้โจมตีใช้ทั้งโมเดลเชิงพาณิชย์และโอเพนซอร์ส — ปัญหาไม่ได้หมดไปเพียงเพราะผู้ให้บริการรายหนึ่งปรับปรุงข้อจำกัด
  • การใช้งาน AI โดยผู้โจมตีมักต้องการการผสมผสานของเครื่องมือและทักษะ — AI ช่วยลดภาระบางอย่าง แต่ไม่ได้ทำให้การโจมตีทั้งหมดเป็นไปได้โดยอัตโนมัติ
  • การแบ่งปันข้อมูลและการร่วมมือกันในชุมชนความปลอดภัยกำลังช่วยให้การตรวจจับและการป้องกันพัฒนาเร็วขึ้น
ภาพสรุปความเสี่ยงและแนวทางการตอบสนองร่วมกัน

ข้อเสนอแนะเชิงปฏิบัติสำหรับองค์กรและผู้พัฒนา AI

จากการวิเคราะห์และบทเรียนที่ได้จากทีมข่าวกรองภัยคุกคามของ Anthropic ข้อแนะนำเชิงปฏิบัติรวมถึง:

สำหรับผู้พัฒนาโมเดล

  • ออกแบบการป้องกันหลายชั้น (multi-layered defenses) ทั้งในระดับ prompt handling, content filtering และ behavioral analysis
  • ติดตั้งระบบตรวจจับ pattern ของ jailbreak และ chain-of-prompts ที่อาจนำไปสู่การละเมิด
  • ทำงานร่วมกับชุมชนความปลอดภัยเพื่อเผยแพร่ IOCs (Indicators of Compromise) ที่เกี่ยวข้องกับการใช้โมเดลในทางที่ผิด

สำหรับองค์กร

  • เสริมมาตรการความปลอดภัยของระบบเครือข่าย เช่น การคอนฟิก VPN ให้แข็งแรง ใช้ MFA และตรวจสอบล็อกการเข้าถึงอย่างสม่ำเสมอ
  • เตรียมแผนรับมือกรณีข้อมูลรั่วไหลหรือการข่มขู่ เผื่อกรณีรีดไถข้อมูล (data extortion)
  • อบรมพนักงานด้านความเสี่ยงของการโจมตีด้วย social engineering และการระบุสัญญาณเตือนของการโจมตีด้วย AI

แนวนโยบายและชุมชน

  • ส่งเสริมกรอบการกำกับดูแลที่ชัดเจนและสมดุล ซึ่งคำนึงถึงการวิจัยและการใช้งานด้านความปลอดภัย
  • สนับสนุนการร่วมมือระหว่างภาครัฐกับเอกชน และการแลกเปลี่ยนข้อมูลภัยคุกคามในเวลาจริง
  • พัฒนาโปรแกรมเพิ่มทักษะบุคลากรด้านไซเบอร์ และใช้ AI เพื่อเพิ่มขีดความสามารถของแรงงานที่มีอยู่

สรุป: การเฝ้าระวังและการร่วมมือคือกุญแจ

Anthropic ชี้ให้เห็นว่า AI ทำให้การโจมตีบางรูปแบบมีความรวดเร็วและมีประสิทธิภาพมากขึ้น แต่การตระหนักรับรู้และการตอบสนองเชิงระบบยังสามารถชะลอหรือจำกัดผลกระทบได้ งานข่าวกรองภัยคุกคามที่ค้นพบตัวอย่างของ vibe hacking, การสร้าง ransomware โดยใช้โมเดล, carding services ที่ขับเคลื่อนด้วย AI, และการโจมตีเชิงจารกรรม ส่งสัญญาณว่าเราต้องพัฒนากลไกการป้องกันทั้งในระดับเทคนิคและนโยบาย

สิ่งสำคัญคือการไม่มองเรื่องนี้เป็นปัญหาของผู้ให้บริการรายเดียว แต่เป็นปัญหาระดับอุตสาหกรรมที่ต้องการการร่วมมือ ข้อมูลที่ทีมงานเผยแพร่เป็นส่วนหนึ่งของการกระตุ้นให้ชุมชน เทคโนโลยี และผู้กำหนดนโยบายร่วมกันออกแบบแนวทางที่ลดการใช้เทคโนโลยีในทางที่ผิดโดยไม่กีดกันประโยชน์ทางบวกที่ AI สามารถนำมาให้

การร่วมมือของชุมชนความปลอดภัยและนักพัฒนาเพื่อต่อสู้กับการใช้งาน AI ในทางที่ผิด

แหล่งข้อมูลเพิ่มเติม

ผู้ที่ต้องการศึกษาเชิงลึกสามารถอ่านรายงาน Threat Intelligence ของ Anthropic ซึ่งสรุปกรณีศึกษา เทคนิคที่พบ และแนวทางการตอบโต้เชิงเทคนิคและนโยบาย รายงานนี้เป็นแหล่งข้อมูลที่มีประโยชน์สำหรับผู้ดูแลระบบ นักพัฒนา และผู้กำหนดนโยบายที่ต้องการทำความเข้าใจวิธีการที่อาชญากรใช้ AI และวิธีการป้องกัน

การรับมือกับภัยคุกคามที่ขับเคลื่อนด้วย AI จะต้องทำงานร่วมกันข้ามองค์กร ระหว่างผู้พัฒนาโมเดล ภาคธุรกิจ ภาครัฐ และชุมชนความปลอดภัย เพื่อให้แน่ใจว่าเทคโนโลยีที่หลายฝ่ายพัฒนามาด้วยความพยายามและทรัพยากร สามารถนำไปใช้เพื่อประโยชน์สูงสุดของสังคมโดยไม่ถูกแปลงเป็นเครื่องมือของอาชญากรรม

Great! You’ve successfully signed up.

Welcome back! You've successfully signed in.

You've successfully subscribed to บทความและข่าวอัพเดท จาก Insiderly.

Success! Check your email for magic link to sign-in.

Success! Your billing info has been updated.

Your billing was not updated.