cover_image_desktop
pin อื่นๆ
ภัย AI ขั้นกว่า ผู้เชี่ยวชาญเตือนระวัง ‘Emotional Breach’ คุกคามจิตใจ
ดูข่าวสารทั้งหมด

ภัย AI ขั้นกว่า ผู้เชี่ยวชาญเตือนระวัง ‘Emotional Breach’ คุกคามจิตใจ

เวที SX TALK STAGE ในหัวข้อ “THE NEXT DISASTER : SURVIVING WITH HUMAN-AI ADAPTATION” ในงาน SUSTAINABILITY EXPO (SX2025) ได้มีการรวมตัวผู้เชี่ยวชาญระดับแนวหน้าของประเทศเพื่อถอดรหัสความเสี่ยงและโอกาสที่มาพร้อมกับเทคโนโลยีปัญญาประดิษฐ์ (AI) ผู้ร่วมเสวนาต่างเห็นพ้องว่า AI คือพลังประมวลผลมหาศาลที่สะท้อนตรรกะและอคติของมนุษย์ ซึ่งกำลังสร้างโอกาสและขยายความเสี่ยงไปพร้อมกัน และทางออกเพื่อความยั่งยืน ไม่ได้อยู่ที่การรอให้ AI พัฒนาตัวเอง แต่คือการที่มนุษย์ต้องปรับตัวเข้าหา AI (Adaptation) ผ่านการเสริมสร้างความรู้และทักษะที่จำเป็นอย่างเร่งด่วน

AI: กระจกสะท้อนอคติในชุดข้อมูล

คุณสกลกรย์ สระกวี ผู้ก่อตั้งและประธานบริษัท บิทคับ แคปปิตอล กรุ๊ป โฮลดิ้งส์ จำกัด ในฐานะผู้เชี่ยวชาญด้านการประยุกต์ใช้ AI เปิดเผยว่า ณ วันนี้ AI อาจยังไม่มีสิ่งที่เรียกว่า "จิตใจ" แต่สิ่งที่มันมีคือ "อคติ" หรือ "Bias" ซึ่งเป็นผลมาจากการฝึกฝนและการเรียนรู้จากข้อมูลที่ผ่านมาทั้งหมด

• อคติจากผู้สอนและชุดข้อมูล: AI จะเกิดอคติตามผู้ที่สอน หรือตามชุดข้อมูลที่ใช้ในการฝึก (Training) หากชุดข้อมูล (dataset) หรือปฏิสัมพันธ์ (interaction) มีอคติ AI ก็จะขยายอคตินั้นออกไป 

• การตอกย้ำความจริงในอดีต: AI มักดึงเอา “ความจริงในอดีต” มาใช้ในการตอบคำถาม ซึ่งอาจส่งผลให้สังคมในอนาคตถูกชี้นำให้เป็นไปตามอดีต โดยขาดการปรับตัว (Adaptation) ตัวอย่างเช่น หากข้อมูลในอดีตแสดงว่าผู้หญิงเป็นนักวิทยาศาสตร์น้อยกว่าผู้ชาย AI อาจไม่สนับสนุนให้เด็กผู้หญิงเลือกเรียนวิทยาศาสตร์

• การสร้าง Echo Chamber และความขัดแย้ง: AI มักจะชอบ "ยกยอ" ผู้ใช้งานและเสริมความเชื่อของพวกเขา เมื่อผู้ใช้ถามความคิดเห็น AI มักจะตอบด้วยการชมเชยว่า "ไอเดียสุดยอด" สิ่งนี้ทำให้ผู้ใช้งานมั่นใจว่าความคิดของตนถูกต้องอย่างมาก และอาจนำไปสู่ความขัดแย้งระหว่างกลุ่มคนที่คิดต่างกัน

ภัยร้ายแรงยุคใหม่: เมื่อภัยดิจิทัลแตะที่ 'จิตใจ' (Emotional Breach)

ผู้เชี่ยวชาญมองว่าความเสี่ยงร้ายแรงที่สุดที่เกิดจาก AI คือ การนำ AI ไปใช้ในทางที่ไม่ดี โดยเฉพาะอย่างยิ่งกลุ่มสแกมเมอร์ โดยปัจจุบัน "วิดีโอเชื่อไม่ได้แล้ว" เนื่องจากเทคโนโลยี Deepfake ที่สร้างภาพและเสียงที่แนบเนียนมาก ทำให้ประชาชนถูกหลอกลวงได้ง่ายขึ้น

อย่างไรก็ตาม ภัยดิจิทัลไม่ได้จำกัดแค่การรั่วไหลของข้อมูลหรือสแกมเมอร์ แต่คือ "Emotional Breach" ที่แตะจิตใจและอาจชี้นำมนุษย์ผิดทาง 

คุณดุจดาว วัฒนปกรณ์ ผู้เชี่ยวชาญด้าน Empathy Communication และผู้ก่อตั้ง Empathy Source/SOULSMITH เน้นย้ำว่า AI สามารถส่งมอบสิ่งที่มนุษย์ต้องการมากที่สุดอย่างหนึ่งคือ "ความเข้าอกเข้าใจ" (Emotional Support) ผ่านการสื่อสาร แต่ความเสี่ยงจะเกิดขึ้นเมื่อมนุษย์เริ่ม “พึ่งพา AI ไปในเชิงฟังก์ชันที่มันไม่ได้ถูกผลิตมาเพื่อฟังก์ชันนั้น” เช่น การดูแลทางด้านจิตใจ

กรณีศึกษา California Parents vs. OpenAI: กรณีศึกษาที่โด่งดังระดับโลกถูกยกมาเป็นตัวอย่าง เมื่อผู้ใช้งานอายุน้อยรายหนึ่งซึ่งมีสภาวะจิตใจที่เปราะบาง ได้สอบถามข้อมูลเกี่ยวกับการจบชีวิตตนเองกับ AI และ AI ได้ให้ข้อมูลตามคำแนะนำนั้น คุณดุจดาวระบุว่า สิ่งนี้เป็นเรื่องที่น่าตกใจมาก เนื่องจาก AI อาจจะยังไม่ได้ถูกฝึกฝนมาเพื่อตรวจจับและคัดกรองความเสี่ยงในมิติทางจิตใจนี้

• กลุ่มเปราะบางที่น่ากังวลที่สุด: คือ กลุ่มผู้คนที่ไม่ค่อยมี Support System หรือไม่มีคนใกล้ชิดคอยพูดคุยในชีวิตจริง หากคนกลุ่มนี้เชื่อ AI 100% โดยไม่มีมนุษย์คอยช่วยทบทวนหรือให้คำแนะนำ การตัดสินใจของพวกเขาอาจนำไปสู่ผลเสียได้

ทางรอดเพื่อความยั่งยืน: การเสริมความพร้อมของมนุษย์

ดร. อภิวดี ปิยธรรมรงค์ ผู้อำนวยการฝ่ายส่งเสริมอุตสาหกรรม และประสานเครือข่ายสถาบันข้อมูลขนาดใหญ่ (องค์การมหาชน) อธิบายว่า AI ถูกพัฒนาขึ้นเพื่อช่วยให้ชีวิตมนุษย์ง่ายขึ้นและสังคมดีขึ้น อย่างไรก็ตาม เราต้องเผชิญกับภัยจาก AI เช่นเดียวกับยุคแรกของการผลิตไฟฟ้าที่เกิดไฟไหม้มากมายก่อนจะมีกลไกการกำกับดูแล ดังนั้น ทางออกจึงอยู่ที่การพัฒนา AI ให้ปลอดภัย ควบคู่ไปกับการเสริม Human Readiness 

1. Critical Thinking และ AI Literacy (โล่และดาบ)

ดร. อภิวดี กล่าวว่า มีสองทักษะสำคัญที่ประชาชนทุกคนต้องเข้าถึง คือ Digital/AI Literacy และ Critical Thinking

• AI Literacy (ความรอบรู้ด้าน AI): คือการทำความเข้าใจว่า AI ถูกพัฒนามาอย่างไร ข้อจำกัดของมันคืออะไร โดยเฉพาะข้อจำกัดเชิงข้อมูล การมีความรู้พื้นฐานนี้จะช่วยให้เราเลือกใช้ AI ได้อย่างเหมาะสม เช่น ใช้เพื่อวางแผนการเดินทาง หรือตอบคำถามทั่วไปเท่านั้น

• Critical Thinking (การคิดเชิงวิพากษ์): จะเป็น "โล่" (Protect) ให้เรา โดยเฉพาะกลุ่มเยาวชนที่ใช้ AI ในการศึกษา ควร "อย่าเพิ่งเชื่อเขา" ให้มองคำตอบของ AI เป็นเพียง "หนึ่ง Opinion" หรือ "หนึ่งความเห็น" เหมือนการถามเพื่อน เราต้องมีวิจารณญาณในการตรวจสอบ (Fact-Checking) ว่าข้อมูลที่ได้มาสอดคล้องกับข้อเท็จจริงหรือไม่

2. ความรับผิดชอบของแพลตฟอร์มและการยืนยันตัวตน

คุณสกลกรย์ ชี้ว่า ปัญหาหนึ่งที่ต้องแก้ไขคือการที่ผู้ใช้ไม่สามารถรู้ได้เลยว่ากำลังสื่อสารกับคนจริงหรือ AI (Automate System)

• การยืนยันตัวตน (Verification): บริษัทแพลตฟอร์มต่าง ๆ ควรเริ่มนึกถึงแนวคิดที่ว่าคนใช้อินเทอร์เน็ต "ต้องยืนยันตัวตน" เพื่อให้มั่นใจว่าการกระทำบนโลกออนไลน์เป็นของมนุษย์จริง และต้องมีระบบป้องกันที่สามารถตรวจจับได้ว่าข้อความหรือการโพสต์นั้นมาจาก AI หรือคนจริง ๆ

3. การเรียนรู้ตลอดชีวิตและการสร้างนักตั้งคำถาม

ผู้เชี่ยวชาญเน้นย้ำว่า "Life Long Learning" เป็นสิ่งสำคัญมาก เพราะโมเดลและฟีเจอร์ใหม่ ๆ ของ AI กำลังออกมาแทบทุกวัน

• การศึกษาไทย: ควรเปลี่ยนจากการให้เด็กตอบคำถามตามที่ครูสอน ไปเป็นการ "ตั้งคำถาม" มากขึ้น เพราะการตั้งคำถามที่ดีจะนำไปสู่การเลือกคำตอบที่ดีที่สุดจาก AI

• บทบาทของคนทำงาน: คนทำงานในอนาคตควรพัฒนาตนเองให้เป็น "หัวหน้าทีมของ AI Agent" ที่สามารถควบคุม AI ได้หลายสิบหลายร้อยตัว

4. เติมเต็ม Empathy และ Support System ในชีวิตจริง

คุณดุจดาวฝากข้อคิดเชิงลึกว่า การที่หลายคนหันไปพึ่งพา AI เพื่อการซัพพอร์ตทางอารมณ์ สะท้อนให้เห็นว่า มนุษย์เราต้องการสิ่งนี้มาก

• พลังของมนุษย์: มนุษย์ที่นั่งข้าง ๆ กันมีความสามารถที่จะ "ส่งมอบ" การสนับสนุนทางอารมณ์เล็ก ๆ น้อย ๆ ให้แก่กันได้ในแต่ละวัน การหันมาให้ความสนใจกับคนใกล้ชิด จะช่วยสร้างความสมดุลและลดการพึ่งพิงเทคโนโลยีมากเกินไป ในขณะที่ AI ยังคงพัฒนาอยู่

ผู้ถูกทิ้งไว้ข้างหลังคือ Digital Have-Nots

ผู้เชี่ยวชาญชี้ว่า กลุ่มที่เปราะบางที่สุดไม่ใช่แค่คนที่ถูก AI ชักนำเข้าสู่ความโดดเดี่ยว แต่คือผู้ถูกทิ้งไว้ข้างหลังจากการเข้าถึง AI จนกลายเป็น digital have-nots ในสังคมใหม่ [ข้อมูลเพิ่มเติม] ดังนั้น การที่ทุกคนสามารถเข้าถึงเทคโนโลยีและมีความพร้อมของมนุษย์ (Human Readiness) ผ่าน digital literacy, critical thinking และ empathy จึงเป็นหัวใจสำคัญในการอยู่ร่วมกับ AI อย่างยั่งยืนต่อไป

idownload
gplay
istore