แล้วถ้าเรามี AI ที่ช่วยจับโกหกล่ะ? คำตอบคือในปัจจุบันยังไม่มี AI ที่สมบูรณ์แบบสำหรับงานนี้ แต่มีงานวิจัยที่น่าสนใจโดยทีมงานของ Riccardo Loconte ซึ่งได้ใช้เทคนิคที่เรียกว่า “fine tuning” เพื่อเทรน AI ให้จับโกหกได้ในบางบริบท
“Large language models” หรือโมเดลภาษาใหญ่ คือระบบ AI ที่ถูกออกแบบมาเพื่อสร้างข้อความที่เหมือนมนุษย์พูดคุยกัน แต่อย่างไรก็ตาม การทำให้ AI เหล่านี้มีความเชี่ยวชาญในงานเฉพาะ เช่น การจับโกหก ต้องใช้การเทรนเพิ่มเติมที่เจาะจงกว่าการเรียนรู้ทั่วไปเหมือนนักเรียนที่เรียนจบปริญญาตรีแล้วต้องไปเรียนต่อเฉพาะทาง
การเทรน AI ด้วยชุดข้อมูล (Datasets)
การเทรน AI จำเป็นต้องใช้ชุดข้อมูลที่มีทั้งข้อความจริงและข้อความที่โกหก เพื่อให้ AI เรียนรู้ความแตกต่าง อย่างในงานวิจัยนี้ใช้ชุดข้อมูลสามชุดหลัก ได้แก่ ข้อความเกี่ยวกับความคิดเห็นส่วนตัว, ความทรงจำในอดีต และเจตนาในอนาคต
หลังจากเทรน AI ด้วยชุดข้อมูลเหล่านี้แล้ว จะมีการทดสอบ AI ด้วยชุดข้อมูลที่ AI ไม่เคยเห็นมาก่อน เพื่อดูว่า AI สามารถแยกแยะความจริงและโกหกได้ดีแค่ไหน เหมือนการสอบปลายภาคของนักเรียนที่ต้องทำข้อสอบใหม่โดยไม่เคยเห็นข้อสอบนี้มาก่อน
ในงานวิจัยนี้ใช้โมเดลที่ชื่อว่า FLAN-T5 (หรือเรียกเล่นๆ ว่า “Flanny”) ซึ่งเป็นโมเดลภาษาใหญ่ที่พัฒนาโดย Google
ผลการทดลองที่น่าสนใจ
งานวิจัยแบ่งเป็น 3 การทดลองหลัก:
เทรน AI กับชุดข้อมูลแต่ละชุดแยกกัน
เทรน AI กับสองชุดข้อมูลพร้อมกัน แล้วทดสอบกับชุดที่เหลืออีกชุด
แต่ในการทดลองที่สอง โมเดลทำได้แค่ประมาณ 50% เท่านั้น ซึ่งเท่ากับการเดาแบบสุ่ม นี่แสดงให้เห็นว่า AI ยังมีปัญหาในการนำความรู้ที่เรียนจากบริบทหนึ่งไปใช้กับอีกบริบทหนึ่ง เพราะการโกหกนั้นมีลักษณะขึ้นอยู่กับบริบทและสถานการณ์ที่แตกต่างกัน
โอกาสและความท้าทายในอนาคต
ผลการทดลองชี้ให้เห็นว่า AI สามารถช่วยตรวจจับโกหกได้ดีในบริบทที่ได้รับการเทรนมาดีพอ แต่ยังต้องการการพัฒนาและทดสอบเพิ่มเติมก่อนจะนำไปใช้จริงในชีวิตประจำวัน
อย่างไรก็ตาม เทคโนโลยีนี้ยังมีความเสี่ยง หากผู้คนเชื่อ AI อย่างไม่ตั้งคำถาม อาจทำให้เกิดการกล่าวหากันโดยไม่มีมูล และทำลายความไว้วางใจในสังคม เพราะการพึ่งพา AI มากเกินไปอาจทำให้มนุษย์ละเลยการคิดวิเคราะห์และตัดสินใจด้วยตนเอง
ความสำคัญของความโปร่งใสและการตีความผล AI
สิ่งที่ผู้วิจัยเน้นคือ AI ควรไม่ใช่แค่บอกว่าใครโกหกหรือไม่ แต่ควรอธิบายเหตุผลและหลักฐานที่ทำให้ AI ตัดสินใจเช่นนั้น เหมือนกับรีวิวร้านอาหารที่ไม่ใช่แค่ให้ดาว แต่ยังมีรีวิวบอกว่าจุดเด่นและจุดด้อยของร้านคืออะไร เพื่อให้ผู้ใช้สามารถตัดสินใจด้วยตัวเองได้
โลกอนาคตที่น่าจะเป็นคือโลกที่ AI เป็นเครื่องมือเสริมสร้างความเข้าใจและช่วยให้มนุษย์ตัดสินใจได้ดีขึ้น ไม่ใช่เป็นผู้ตัดสินแทนมนุษย์อย่างสิ้นเชิง
ศัพท์เทคนิคที่ควรรู้
Large Language Models (โมเดลภาษาใหญ่): ระบบ AI ที่ถูกเทรนด้วยข้อมูลจำนวนมหาศาลเพื่อสร้างข้อความในรูปแบบที่เหมือนมนุษย์พูด
Fine Tuning (การเทรนเฉพาะทาง): การฝึก AI เพิ่มเติมเพื่อทำงานเฉพาะด้าน โดยใช้ชุดข้อมูลที่เฉพาะเจาะจง
Dataset (ชุดข้อมูล): ข้อมูลที่ใช้ในการเทรน AI โดยประกอบด้วยตัวอย่างข้อมูลจริงและข้อมูลปลอม (โกหก) เพื่อสอน AI ให้รู้จักแยกแยะ
บทสรุปจาก Insiderly
การใช้ AI ในการตรวจจับความจริงและความเท็จเป็นการก้าวหน้าทางเทคโนโลยีที่น่าตื่นเต้นและมีศักยภาพสูง ผลการวิจัยชี้ให้เห็นว่า AI สามารถทำงานนี้ได้ดีกว่ามนุษย์ในบางบริบท แต่ยังมีข้อจำกัดในเรื่องการปรับใช้ข้ามบริบทที่แตกต่างกัน
ความท้าทายที่สำคัญคือการรักษาสมดุลระหว่างการใช้ AI เพื่อช่วยในการตัดสินใจและการรักษาความสามารถในการคิดวิเคราะห์ของมนุษย์ ไม่ควรปล่อยให้ AI กลายเป็นผู้ตัดสินแทนทั้งหมด เพราะนั่นอาจนำไปสู่ความเสี่ยงของการสูญเสียความไว้วางใจและการพึ่งพาเทคโนโลยีอย่างไม่ลึกซึ้ง
ดังนั้นอนาคตของ AI ในการตรวจจับโกหกจึงไม่ใช่แค่เรื่องของเทคโนโลยี แต่เป็นเรื่องของการพัฒนาเครื่องมือที่ช่วยเสริมสร้างความเข้าใจและความเชื่อมั่นระหว่างมนุษย์ด้วยกันเองและกับเทคโนโลยี
การพัฒนา AI ที่โปร่งใส อธิบายเหตุผลได้ และยังคงส่งเสริมให้ผู้ใช้คิดวิเคราะห์เองได้ จะเป็นกุญแจสำคัญที่จะทำให้เทคโนโลยีนี้เป็นประโยชน์จริงในสังคม
สำรวจวิสัยทัศน์ Anthropic ในการพัฒนา AI agents ทรงพลัง พร้อมเปิดตัว Claude 4 Opus และ Sonnet ที่ช่วยนักพัฒนาเพิ่มประสิทธิภาพการทำงานและนวัตกรรมองค์กรอย่างปลอดภัยและมีประสิทธิผล