3 แนวทางกำกับ AI ‘มาตรฐาน’ ต้องมาก่อน ‘กฎหมาย’

สรุปเนื้อหาจากปาฐกถาหัวข้อ “AI กับจริยธรรมสื่อมวลชน: เมื่ออัลกอริทึมมีอิทธิพลต่อความจริง” โดย ดร.ชัย วุฒิวิวัฒน์ชัย ผู้อำนวยการศูนย์เทคโนโลยีอิเล็กทรอนิกส์และคอมพิวเตอร์แห่งชาติ (เนคเทค สวทช.) ในเสวนา: AI กับจริยธรรมสื่อมวลชนถอดรหัสความสัมพันธ์อันซับซ้อนระหว่างปัญญาประดิษฐ์ (AI) และจริยธรรมในยุคดิจิทัล กับเสวนา Side-Event “UNESCO Global Forum on the Ethics of AI 2025” จัดโดย สภาการสื่อมวลชนแห่งชาติ และภาคีเครือข่าย เมื่อวันที่ 24 มิถุนายน 2568

ภาพอนาคต AI เมื่อเทคโนโลยีวิ่งนำหน้าจริยธรรม

ดร.ชัย ได้อธิบายถึงวิวัฒนาการของ AI ที่ก้าวหน้าไปไกลกว่าที่คนทั่วไปรับรู้ โดยเริ่มจาก AI ในยุคแรกที่เน้นการรับรู้เฉพาะทาง (Perception AI) มาสู่ยุคปัจจุบัน คือ Generative AI ที่สร้างสรรค์เนื้อหาใหม่ ๆ ได้ ก้าวต่อไปคือ Agentic AI ที่ AI จะทำหน้าที่เป็นตัวแทนในการทำงานที่ซับซ้อนข้ามแอปพลิเคชันได้เอง ซึ่งสอดคล้องกับทิศทางของบริษัทเทคโนโลยีชั้นนำที่กำลังพัฒนา AI agents ให้เป็นผู้ช่วยส่วนตัวที่มีความสามารถสูงขึ้น โดย ดร.ชัย มองว่า กรมสรรพากรของไทย เป็นหน่วยงานที่มีศักยภาพใกล้เคียงกับการเป็น Agentic AI มากที่สุด เนื่องจากมีกฎหมายรองรับให้สามารถดึงข้อมูลได้อย่างครอบคลุม
 
จากนั้นจะเข้าสู่ยุคของ AI ในโลกกายภาพ (Physical AI) ที่ AI ควบคุมหุ่นยนต์ได้อย่างสมบูรณ์ ซึ่งเนคเทค สวทช. กำลังวิจัยหุ่นยนต์ Humanoid และชุด Exoskeleton อยู่ในขณะนี้ ทิศทางนี้สอดรับกับการแข่งขันในระดับโลกที่กำลังเร่งพัฒนาหุ่นยนต์ Humanoid เพื่อนำมาใช้งานจริงในภาคอุตสาหกรรม เป้าหมายสูงสุด คือ Artificial General Intelligence หรือ AGI ที่หุ่นยนต์หนึ่งตัวจะสามารถทำงานได้ทุกอย่างเทียบเท่ามนุษย์ ทั้งหมดนี้จะทำงานผ่าน Multimodal AI ที่รับรู้และตอบโต้ได้ทั้งภาพและเสียง พร้อมกับมี ชิป AI ฝังในโทรศัพท์มือถือเพื่อการประมวลผลที่รวดเร็ว
 
อย่างไรก็ตาม ทิศทางที่น่ากังวลที่สุด คือ เทคโนโลยี Brain Decoding ซึ่งมีงานวิจัยจากมหาวิทยาลัยเทกซัส ออสติน ที่ประสบความสำเร็จในการใช้ AI แปลกิจกรรมในสมอง (fMRI scans) ออกมาเป็นข้อความได้อย่างต่อเนื่อง ความก้าวหน้านี้ทำให้ UNESCO ต้องพิจารณาตั้งคณะกรรมการด้านระบบประสาท (Neurological Committee) ขึ้นมาเพื่อถกเถียงเรื่องการกำกับดูแลเทคโนโลยีทางประสาท (Neurotechnology) และการปกป้องสิทธิทางระบบประสาท (Neuro-rights) ของมนุษย์

โอกาสและความเสี่ยง เมื่อ AI คือดาบสองคม

ดร.ชัย ชี้ว่า AI สร้างประโยชน์มหาศาลให้วงการสื่อ ตั้งแต่การสร้างและคัดเลือกเนื้อหา ไปจนถึงการวิเคราะห์ผู้ฟัง โดยยกตัวอย่างการใช้งานจริงในองค์กรอย่าง Thai PBS และการสร้าง AI Avatar ที่เนคเทค สวทช. เคยทำให้กับคุณสุทธิชัย หยุ่น ซึ่งพบว่าคนรุ่นใหม่ให้ความสนใจรับฟัง
 
แต่ในทางกลับกัน ผลกระทบเชิงลบก็ปรากฏชัดเจนขึ้นใน 4 มิติหลัก ได้แก่ (1) ปัญหาลิขสิทธิ์ (Copyright) ซึ่งยังคงเป็นคดีความสำคัญทั่วโลก (2) การใช้ในทางที่ผิด (Misuse) เช่น การใช้ Deepfake สร้างข่าวปลอมทางการเมือง หรือการหลอกลวงทางการเงิน (3) ความผิดพลาดของ AI (AI Mistake) ซึ่งเป็นสิ่งที่ภาครัฐกังวลอย่างยิ่ง โดยปัจจุบันมีฐานข้อมูล incidentdatabase.ai ซึ่งเป็นโครงการรวบรวมเหตุการณ์ที่เกิดจากความผิดพลาดของ AI เพื่อการศึกษาและป้องกัน และ (4)การแทนที่งาน (Job Replacement) ซึ่งรายงาน ‘Future of Jobs Report 2023’ ของ World Economic Forum ประเมินว่าตำแหน่งงานในกลุ่มธุรการและงานประจำ (routine jobs) มีความเสี่ยงสูงที่จะถูกแทนที่ด้วยระบบอัตโนมัติ

แนวทางกำกับ AI ของไทย ต้องสร้าง 'มาตรฐาน' ก่อนไปถึง 'กฎหมาย'

หัวใจสำคัญของปาฐกถาคือข้อเสนอแนวทางการกำกับดูแล AI แบบ 3 ระดับ ที่เน้นความสมดุลและปฏิบัติได้จริง

1.  ระดับประเทศ ต้องเน้นมาตรฐาน ชะลอกฎหมาย
 
ดร.ชัย ย้ำว่าการออกกฎหมายควรเป็นทางเลือกสุดท้าย เพราะอาจสร้างกับดักให้นวัตกรรมสะดุด แม้ปัจจุบัน สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA) จะเป็นผู้รับผิดชอบการยกร่าง พ.ร.บ. AI และได้ออกแนวปฏิบัติมาอย่างต่อเนื่อง แต่ ดร.ชัย ตั้งข้อสังเกตว่าด้วยลักษณะที่เป็นข้อแนะนำ จึงอาจยังไม่เพียงพอที่จะสร้างการเปลี่ยนแปลงในทางปฏิบัติได้จริง โดยเสนอว่าประเทศไทยควรมุ่งไปที่ การออกมาตรฐาน (Standardization) เป็นอันดับแรก โดยเนคเทค สวทช. มีแผนจะจัดตั้ง ศูนย์ทดสอบมาตรฐาน AI ซึ่งจะประเมินตามหลักการ 5 ข้อ ได้แก่ (1) ความปลอดภัย (Safety Concern) (2) การแทรกแซงโดยมนุษย์ (Human Intervention) (3) ความแม่นยำ (Precision) (4) ความน่าเชื่อถือและเสถียรภาพ (Reliability & Robustness) และ (5) ธรรมาภิบาลข้อมูล (Data Governance) แนวคิดนี้สอดคล้องกับกรอบการบริหารความเสี่ยง AI (AI Risk Management Framework) ของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) ที่เน้นให้แนวทางแบบสมัครใจแก่องค์กรต่าง ๆ ในการจัดการความเสี่ยง
 
เมื่อเทียบกับ EU AI Act ซึ่งได้รับการอนุมัติอย่างเป็นทางการในเดือนพฤษภาคม 2024 และถือเป็นกฎหมายควบคุม AI ฉบับแรกของโลกที่ครอบคลุม โดยมีการแบ่งระดับความเสี่ยงและห้ามใช้ AI บางประเภทอย่างเด็ดขาด เช่น Social Scoring โดยภาครัฐ โดยกฎหมาย Thai AI Act ซึ่งถูกร่างขึ้นมาแล้วและผ่านการทำประชาพิจารณ์ไปแล้วอย่างน้อย 2 ครั้ง ซึ่ง ETDA เป็นหน่วยงานหลักในการดำเนินการ จะมีความยืดหยุ่นกว่า โดยให้แต่ละภาคส่วนร่วมกันกำหนดนิยามความเสี่ยงสูงของตนเอง และยังมีการส่งเสริมนวัตกรรมผ่านการทำ Data Mining และ Regulatory Sandbox ควบคู่ไปด้วย
 
2. ระดับประชาคม เริ่มจากนโยบายสู่การปฏิบัติ
 
ดร.ชัย มองว่าแนวปฏิบัติที่สภาการสื่อมวลชนแห่งชาติได้ออกมาแล้วนั้น ถือเป็นจุดเริ่มต้นที่ดี พร้อมแนะนำให้องค์กรสื่อนำไปปรับใช้เป็นข้อกำหนดภายใน และยกตัวอย่างกระบวนการของ สวทช. ที่มีคณะกรรมการ AI และเครื่องมือประเมินเพื่อจำแนกความเสี่ยงโครงการวิจัยออกเป็นระดับสูง กลาง และต่ำ เป็นต้นแบบ (Best Practice) ที่สามารถนำไปปรับใช้ได้ นอกจากนี้ ในภาคการศึกษา สำนักงานปลัดกระทรวงอุดมศึกษาฯ กำลังพิจารณาผลักดันให้ทุกหลักสูตรในมหาวิทยาลัยต้องมีการสอนใช้เครื่องมือ AI เพื่อให้นักศึกษาทุกสาขาอาชีพคุ้นเคยและสามารถใช้งานได้อย่างมีจริยธรรม ดร.ชัย อธิบาย
 
3. ระดับบุคคล เน้นยกระดับทักษะและยึดมั่นจรรยาบรรณ
 
ดร.ชัย ได้ยกประเด็นที่น่ากังวลโดยอ้างอิงข้อมูลจาก OECD ที่พบว่านับตั้งแต่มีการใช้ Generative AI แพร่หลาย ความสามารถในการให้เหตุผลและการแก้ปัญหาของเด็กลดลงอย่างต่อเนื่อง อย่างไรก็ตามไม่ว่าจะเป็นเด็ก หรือ ผู้ใหญ่ หากใช้เครื่องมือ AI โดยที่ทักษะของตนเองไม่พัฒนาขึ้น ก็จะเกิดปัญหาในลักษณะเดียวกันได้ ทางออกในเรื่องนี้ไม่ใช่การห้ามใช้ แต่คือการปรับกระบวนทัศน์ไปสู่ Active Learning ที่ครูหรือผู้ประกอบวิชาชีพจะเปลี่ยนบทบาทเป็นผู้ควบคุม AI เพื่อใช้เป็นเครื่องมือเสริมประสิทธิภาพ
 
ท้ายที่สุด ดร.ชัย สรุปว่า กฎหมายบังคับควรเป็นทางเลือกสุดท้ายที่นึกถึง แต่ควรหันมาให้ความสำคัญกับการกำกับดูแลตนเองผ่านนโยบายและแนวปฏิบัติในระดับประชาคมหรือสมาคมวิชาชีพ พร้อมทั้งส่งเสริมให้เกิดต้นแบบ (Best Practice) ที่ดี เช่น การทำ AI Governance ขององค์กรสื่อ เพื่อเป็นแนวทางให้หน่วยงานอื่นพิจารณา หน้าที่สำคัญของสภาวิชาชีพ คือ การปกป้องคุณค่าของงานที่ต้องอาศัยดุลยพินิจของมนุษย์ไม่ให้ถูกแทนที่ โดยยกตัวอย่างวงการแพทย์ที่ท้ายที่สุดแล้ว แพทย์ยังคงต้องเป็นผู้ลงนามรับผิดชอบเสมอ ซึ่งเป็นกลไกที่รักษาความรับผิดชอบของมนุษย์ไว้ สำหรับผู้ปฏิบัติงาน ดร.ชัย ย้ำว่าเกราะป้องกันที่ดีที่สุดคือการสร้างคุณค่าให้ตนเอง พัฒนาทักษะการใช้ AI ให้เป็นเครื่องมือเสริมประสิทธิภาพ และยึดมั่นในจริยธรรมแห่งวิชาชีพอย่างเคร่งครัด

ชมเสวนาย้อนหลัง ได้ที่ https://www.facebook.com/PressCouncilThailand/videos/1062295482665265

Share to...

Facebook
Twitter
Email