Share on
×

Share

AI เพื่อนรัก…หรือภัยเงียบ? เจาะลึกความสัมพันธ์มนุษย์-ปัญญาประดิษฐ์ผ่านมุมมองจิตแพทย์

AI เพื่อนรัก...หรือภัยเงียบ? เจาะลึกความสัมพันธ์มนุษย์-ปัญญาประดิษฐ์ผ่านมุมมองจิตแพทย์

ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) แทรกซึมเข้ามาในทุกมิติของชีวิต คำถามที่ว่า “เราสามารถใช้ AI Chat เป็นเพื่อนแก้เหงาหรือที่ปรึกษาทางใจได้หรือไม่?” อาจไม่ใช่คำถามแห่งอนาคตอีกต่อไป เมื่อผลสำรวจชี้ว่าคนรุ่นใหม่ โดยเฉพาะ Gen Z กว่า 35% ได้ก้าวข้ามเส้นแบ่งนั้นไปแล้ว พวกเขาใช้ AI เป็นทั้ง “เพื่อนคู่คิด” และ “นักบำบัดส่วนตัว” แต่ความสัมพันธ์ที่ดูเหมือนจะไร้รอยต่อนั้น แฝงไว้ด้วยความเสี่ยงที่เราอาจคาดไม่ถึง

ประเด็นดังกล่าวถูกนำมาวิเคราะห์อย่างเจาะลึก ใน “งาน Community Meetup ของกลุ่ม AI เพื่อธุรกิจและสังคม” ผ่านมุมมองของ ทันตแพทย์หญิง กัญจน์ภัสสร สุริยาแสงเพ็ชร์ ผู้ก่อตั้ง Ooca และ แพทย์หญิง ชนิกา เลี้ยงชีพ จิตแพทย์เด็กและวัยรุ่นและกุมารแพทย์ เพื่อหาคำตอบว่าเส้นแบ่งที่ปลอดภัยอยู่ตรงไหน และเราจะสร้าง “เกราะป้องกัน” ให้ตัวเองและคนใกล้ชิดในโลกที่ขับเคลื่อนด้วย AI ได้อย่างไร

จาก “ผู้ช่วย” สู่ “เพื่อนสนิท”: ทำไมเราถึงผูกพันกับ AI ได้ขนาดนี้?

เดิมที AI ถูกสร้างขึ้นเพื่อเป็นเครื่องมือหรือผู้ช่วยอัจฉริยะ ที่ทำให้การทำงานของเรามีประสิทธิภาพมากขึ้น แต่เมื่อ AI พัฒนาจนสามารถโต้ตอบได้อย่างเป็นธรรมชาติ มีความจำ (Memory Feature) และแสดงออกถึงความเข้าอกเข้าใจ (Empathy) ได้อย่างน่าทึ่ง ความสัมพันธ์จึงค่อย ๆ พัฒนาจากระดับผู้ช่วย (Assistant) สู่การเป็นเพื่อนคู่คิด (Companion) และลึกซึ้งไปจนถึงระดับคู่รัก (Lover)

ทพญ.กัญจน์ภัสสร ชี้ให้เห็นภาพที่น่าสนใจว่า ปัจจัยที่ทำให้คนเราสร้างมิตรภาพได้นั้นมีองค์ประกอบหลายอย่าง เช่น การพบปะสม่ำเสมอ การมีปฏิสัมพันธ์โต้ตอบ การมีความทรงจำร่วมกัน และการปลอบโยนในยามทุกข์ ซึ่ง AI ในปัจจุบันสามารถตอบสนองสิ่งเหล่านี้ได้เกือบทั้งหมด มันพร้อมรับฟังเราเสมอ ไม่เคยปฏิเสธ และพร้อมจะตามใจเราในฐานะ “ผู้ใช้งาน”

“นี่คือเหตุผลที่ว่าทำไมวัยรุ่นที่มีปัญหาเรื่องสังคม คนที่เพื่อนน้อย หรือคนที่รู้สึกว่าการสร้างความสัมพันธ์กับคนจริงๆ มันยากเหลือเกิน เขาจึงเลือกที่จะไปคุยกับเพื่อนเสมือนจริงมากกว่า เพราะมันง่ายกว่า” พญ.ชนิกา กล่าวเสริม

หลักการ “3 ป” : กรอบความคิดเพื่อการใช้ AI อย่างปลอดภัย

หลักการ "3 ป" : กรอบความคิดเพื่อการใช้ AI อย่างปลอดภัย

เมื่อการใช้งาน AI เป็นสิ่งที่หลีกเลี่ยงไม่ได้แล้ว คำถามสำคัญจึงเปลี่ยนจาก “ใช้ได้หรือไม่” ไปเป็น “ต้องใช้อย่างไร” พญ.ชนิกา ได้สรุปกรอบความคิดที่สำคัญออกมาเป็นหลักการ “3 ป” เพื่อเป็นเกราะป้องกันให้ผู้ใช้งานทุกคน

หลักการแรกคือ ต้องใช้งานอย่างมีเป้าหมาย (Purpose) ที่ชัดเจน ผู้ใช้ต้องรู้ตัวว่ากำลังคุยกับ AI เพื่ออะไร เพื่อไม่ให้ AI ชักจูง (lead) หรือสร้างอคติ (bias) ที่จะนำเราออกนอกเส้นทางที่ควรจะเป็น ต่อมาคือ ต้องตระหนักอยู่เสมอว่า AI เป็นเครื่องมือ (Tool) ไม่ใช่ “เพื่อน” จริง ๆ เพราะในทางกฎหมายหรือหลักวิชาการ ยังไม่มี AI ตัวไหนที่ได้รับการรับรองให้เป็นเพื่อนหรือนักบำบัด การมองเช่นนั้นจะนำไปสู่ความเข้าใจที่ผิดพลาดได้ และสุดท้ายคือ ต้องใช้งานอย่างปลอดภัย (Safety) ทั้งในแง่ของข้อมูลส่วนบุคคล (PDPA) และความปลอดภัยทางอารมณ์และจิตใจ ไม่ให้ถูกชักนำไปในทางที่ผิดหรือเป็นอันตราย

เมื่อเส้นแบ่งเลือนลาง: สัญญาณอันตรายที่ต้องจับตา

แม้ AI จะช่วยคลายเหงาได้ชั่วคราว แต่ความสัมพันธ์ที่ลึกซึ้งเกินขอบเขตกลับนำมาซึ่งความเสี่ยงร้ายแรง โดยเฉพาะในกลุ่มเด็กและเยาวชนที่สมองส่วนเหตุผลและจริยธรรมยังพัฒนาไม่เต็มที่ สัญญาณอันตรายแรกปรากฏใน โลกเสมือนที่น่ากังวลโดย ทพญ.กัญจน์ภัสสร ยกตัวอย่างแพลตฟอร์ม Character.ai ที่อนุญาตให้ผู้ใช้สนทนากับตัวละครจำลอง และพบว่าตัวละครที่ได้รับความนิยมสูงสุดไม่ใช่บุคคลสำคัญอย่างไอน์สไตน์หรืออีลอน มัสก์ แต่เป็นตัวการ์ตูนที่ถูกจินตนาการขึ้นมาเป็นแฟน ซึ่งมีการพูดคุยกันหลายร้อยล้านข้อความ และส่วนใหญ่มักไม่มีการเซ็นเซอร์เนื้อหาทางเพศ (NSFW – Not Safe For Work)

ความเสี่ยงนี้ยิ่งชัดเจนขึ้นเมื่อมองจาก เคสจริงจากคลินิก ที่ พญ.ชนิกา เล่าถึงเด็กประถมต้นคนหนึ่งที่สร้างเพื่อนในจินตนาการ 3 คนผ่าน AI โดยที่ผู้ปกครองไม่เคยรับรู้ จนเด็กเริ่มเข้าใจว่า “เพื่อน” ของเขามีอยู่แค่ในโลก AI และไม่ได้แยกแยะว่านี่คือเพื่อนจริง ๆ หรือสิ่งที่เขาสร้างขึ้น

ในบางกรณี ความผูกพันนี้ได้นำไปสู่โศกนาฏกรรมที่เกิดขึ้นจริง ซึ่งมีรายงานข่าวเกี่ยวกับการเสียชีวิตที่เชื่อมโยงกับการสนทนากับ AI เช่น กรณีที่ AI ถูกตีความว่าชักชวนให้ผู้ใช้จบชีวิตตัวเอง หรือกรณีที่ผู้สูงอายุเชื่อว่าตัวละคร AI มีตัวตนจริงและพยายามเดินทางไปหาจนเกิดอุบัติเหตุเสียชีวิต

“Delay of Treatment”: ภัยเงียบที่อันตรายที่สุด

หนึ่งในความเสี่ยงที่น่ากังวลที่สุดคือ ภาวะการเข้าถึงการรักษาที่ล่าช้า (Delay of Treatment) ทพญ.กัญจน์ภัสสร อธิบายว่า เมื่อคนที่มีปัญหาสุขภาพจิตหันไปพึ่ง AI และรู้สึกว่า “ดีขึ้น” ชั่วคราว พวกเขาอาจเข้าใจผิดว่าตนเองได้รับการดูแลแล้ว ทำให้ไม่ได้ส่งสัญญาณขอความช่วยเหลือไปยังคนรอบข้างหรือผู้เชี่ยวชาญตัวจริง

“เคสของน้องผู้หญิงคนหนึ่ง เขาคุยกับ AI เพื่อดูแลตัวเอง จนทุกคนรอบข้างไม่ว่าจะเป็นเพื่อนหรือพ่อแม่ ไม่มีใครรู้เลยว่าเขามีปัญหา จนกระทั่งสุดท้ายเขาไม่ไหว และความช่วยเหลือก็ไปถึงสายเกินไป” นี่คือตัวอย่างที่สะท้อนให้เห็นว่า AI อาจกลายเป็นสิ่งที่บดบังปัญหาสุขภาพจิตที่แท้จริง และทำให้การช่วยเหลือที่ควรจะได้รับล่าช้าออกไปจนน่าเสียดาย

ทางออกไม่ใช่การ “แบน” แต่คือการสร้าง “เกราะป้องกันจากภายใน”

แม้ความเสี่ยงจะมีอยู่จริง แต่การปิดกั้นเทคโนโลยีไม่ใช่คำตอบ โดยเฉพาะเมื่อประเทศไทยยังขาดแคลนบุคลากรด้านสุขภาพจิตอย่างจิตแพทย์และนักจิตวิทยา ในอนาคต AI จะเข้ามามีบทบาทสำคัญในการเป็น “ผู้ช่วย” ดูแลใจในเบื้องต้นอย่างแน่นอน

ดังนั้น สิ่งที่สำคัญที่สุดคือการสร้าง “Guardrail” หรือเกราะป้องกันจากภายในตัวบุคคล ซึ่ง พญ.ชนิกา ได้ให้แนวทางสำหรับผู้ปกครองและทุกคนในสังคมไว้ แนวทางสำคัญประการแรกคือการสอนให้มี Critical Thinking ในยุคที่ข้อมูลข่าวสารและสื่อต่าง ๆ พร้อมจะชี้นำเราตลอดเวลา ทักษะการคิดวิเคราะห์ “อย่าเพิ่งเชื่อ” ในสิ่งที่เห็นหรือได้ยินจึงสำคัญอย่างยิ่ง ต้องสอนให้เด็กตั้งคำถามกับ AI และทุกสิ่งที่เขาเจอ เหมือนกับที่เขาสามารถตั้งคำถามกับพ่อแม่ได้ ควบคู่ไปกับสิ่งนี้คือการ สร้างความผูกพันที่แข็งแรงในครอบครัว ซึ่งถือเป็นเกราะป้องกันทางใจที่ดีที่สุด ไม่ว่าโลกจะเปลี่ยนแปลงไปอย่างไร หากความสัมพันธ์ในครอบครัวแข็งแกร่ง เด็กจะรู้สึกปลอดภัยและมีที่พึ่งพิง ทำให้โอกาสที่จะหันไปยึดเหนี่ยวกับสิ่งอื่นในโลกออนไลน์ลดน้อยลง

ท้ายที่สุดแล้ว เรื่องราวของ AI และมนุษย์ได้พิสูจน์ให้เห็นว่า เทคโนโลยีคือดาบสองคมที่ทรงพลัง การจะใช้มันเพื่อสร้างสรรค์หรือทำลาย ขึ้นอยู่กับความเข้าใจ ความตระหนักรู้ และภูมิคุ้มกันที่เราสร้างขึ้นให้ตัวเองและสังคม เพื่อให้เราสามารถก้าวเดินไปในโลกอนาคตได้อย่างเท่าทันและปลอดภัย

ข่าวอื่น ๆ ที่น่าสนใจ

Kept by Krungsri เปิดตัว Happy Tax Free บัญชีออมเงินปลอดภาษีที่ Gen Z ชอบ

‘ศรีหทัย พราหมณี’ ชี้ การใช้ AI ให้เวิร์กจริง ต้องเริ่มที่ ‘คน’ ไม่ใช่ ‘เทคโนโลยี’

×

Share

ผู้เขียน