ในวันที่ความจริงสามารถถูกผลิตขึ้นได้ราวกับสินค้าชิ้นหนึ่ง เรากำลังก้าวเข้าสู่ยุคที่เส้นแบ่งระหว่าง “ของจริง” และ “ของสร้าง” เบาบางลงอย่างที่ไม่เคยเกิดขึ้นมาก่อน คลิปวิดีโอหนึ่งของนายกรัฐมนตรีแคนาดา Mark Carney ที่แพร่กระจายบน TikTok ทำให้ชาวโลกหยุดนิ่งพร้อมคำถามเดียวกันว่า “นี่เกิดขึ้นจริงหรือแค่ปลอม?” แม้คลิปจะถูกติดป้ายว่าเป็น AI-generated ตั้งแต่ต้น แต่ก็มีผู้ชมเป็นล้าน เพราะมันสมจริงเกินกว่าจะมองข้ามไปเหมือนการตัดต่อเล่น ๆ1 และนี่คือเพียงหนึ่งในภาพสะท้อนของยุคดิจิทัลที่ความปลอมไม่เพียงเรียบเนียน แต่ยังมีพลังพอจะพลิกความรับรู้ของคนจำนวนมากได้ในเสี้ยววินาที ลักษณะเช่นนี้ไม่ได้เกิดขึ้นเฉพาะในกรณีทางการเมืองที่ซับซ้อน หากแต่เริ่มแทรกซึมอยู่ในวัฒนธรรมอินเทอร์เน็ตทั่วโลก คลิปตลกที่จับเอานักการเมืองอังกฤษ Nigel Farage ไปเล่น Minecraft แม้จะดูขำขัน แต่ก็เผยให้เห็นว่าผู้คนค่อย ๆ คุ้นชินกับการเห็นภาพบุคคลจริงอยู่ในสถานการณ์ปลอมจนแทบไม่รู้สึกแปลกใจอีกต่อไป2 โลกออนไลน์กำลังพัฒนา “ภูมิทัศน์ความจริงแบบใหม่” ที่ไม่จำเป็นต้องยึดโยงกับข้อเท็จจริง ทว่าเน้นความสนุก ความประหลาดใจ และการแชร์ต่อเป็นหลัก การเบลอของเส้นแบ่งระหว่างความจริงและความบันเทิงจึงทำให้ผู้ชมมีแนวโน้มลดการตรวจสอบข่าวสารลง โดยไม่ทันรู้ตัวว่านี่คือช่องว่างอันใหญ่ที่ AI สามารถเล็ดลอดเข้ามาควบคุมการรับรู้ได้ง่ายที่สุด

อย่างไรก็ตาม ความท้าทายที่แท้จริงเริ่มชัดเจนเมื่อ deepfake ถูกนำมาใช้เพื่อวัตถุประสงค์ทางการเมืองอย่างเป็นระบบ คลิปเสียงปลอมของ Kamala Harris ที่ถูกเผยแพร่ในช่วงการเลือกตั้งสหรัฐฯ เป็นเครื่องเตือนใจสำคัญว่าข้อมูลเพียงไม่กี่วินาทีอาจกระทบการตัดสินใจของผู้มีสิทธิ์เลือกตั้งได้โดยตรง3, 4 ขณะเดียวกัน ในเอเชียใต้ คลิป deepfake ของนายกฯ ปากีสถาน Shehbaz Sharif ที่ถูกทำให้เหมือนกำลังประกาศความพ่ายแพ้แม้ยังไม่มีผลสรุป ทำให้แม้แต่ผู้สื่อข่าวบางคนยังหลงเชื่อในวินาทีแรก5 เหตุการณ์เหล่านี้ไม่เพียงแสดงให้เห็นถึงพลังของ AI ในการสร้างภาพลวงตา แต่ยังโหมเชื้อความขัดแย้งทางการเมือง และสร้างผลกระทบระดับประเทศได้เพียงปลายนิ้วคลิกเดียว นอกเหนือจากสนามการเมือง AI ยังเจาะเข้าสู่โลกการค้าและโฆษณาอย่างเนียนกริบ ตัวอย่างโฆษณาปลอมของ Taylor Swift ที่ถูกใช้โปรโมตสินค้าโดยที่เธอไม่เคยเกี่ยวข้องแม้แต่น้อย ทำให้ผู้ติดตามจำนวนมากหลงเชื่อและซื้อสินค้าที่ไม่ใช่ของแท้6 ความสมจริงของภาพและเสียงทำให้ deepfake ไม่ใช่แค่ภัยคุกคามต่อบุคคลสาธารณะ แต่กลายเป็นเครื่องมือในการสร้างการหลอกลวงเชิงพาณิชย์ที่คนทั่วไปสามารถตกเป็นเหยื่อได้ง่ายอย่างน่ากลัว ผู้คนจำนวนไม่น้อยเพิ่งตระหนักว่าการเห็น “หน้าคนดัง” ในคลิปไม่ได้หมายความว่าคนนั้นยินยอมหรือเกี่ยวข้องจริงอีกต่อไป

AI ยังสร้างปรากฏการณ์ทางวัฒนธรรมใหม่ที่ความจริงและความทรงจำถูกหลอมรวมเป็นสิ่งเดียวกัน คลิปที่จำลองให้ผู้ชม “ย้อนกลับไปเป็นวัยรุ่นยุค 80” พร้อมภาพห้องนอน โทนสีฟิล์ม และบรรยากาศที่ชวนคิดถึง แม้จะรู้ว่าเป็นภาพที่สร้างขึ้นทั้งหมด แต่ก็ทำให้หลายคนรู้สึกอุ่นใจ เหมือนได้สัมผัสอดีตที่ไม่เคยมีอยู่จริง การคิดถึง “ความทรงจำจำลอง” เช่นนี้เผยให้เห็นว่า AI ไม่เพียงสร้างเนื้อหา แต่สร้างอารมณ์ ความผูกพัน และความรู้สึกนึกคิดใหม่ให้มนุษย์ได้ในแบบที่ไม่เคยเกิดขึ้นมาก่อน7 อย่างไรก็ตาม พลังของ AI ไม่ได้ส่งผลกระทบเฉพาะต่อคนรุ่นใหม่ที่ใช้งานแพลตฟอร์มดิจิทัลตลอดเวลา แต่ยังส่งผลตรงที่สุดต่อผู้สูงอายุ—กลุ่มที่หลายครั้งเชื่อในน้ำเสียง ความสุภาพ และความน่าเชื่อถือของ “เสียงมนุษย์” มากกว่าใครอื่น กลโกงโทรหลอกที่ใช้เสียงโคลนของลูกหลาน ทำให้ผู้สูงอายุจำนวนมากโอนเงินเพราะเชื่อว่าอีกฝ่ายกำลังเดือดร้อนจริง ทั้งที่เสียงนั้นเป็นเพียงผลของการสังเคราะห์ไม่กี่วินาทีจากคลิปในโซเชียล8, 9 ความสามารถของ AI ในการเลียนแบบอารมณ์และจังหวะเสียงของมนุษย์อย่างแนบเนียน ทำให้รูปแบบการหลอกลวงเก่าแก่ที่สุดอย่าง “แก๊งคุณย่า” กลายเป็นอาวุธที่ทรงอานุภาพกว่าเดิมหลายเท่า สถิติล่าสุดชี้ว่ามีผู้สูงอายุในสหรัฐสูญเงินรวมหลายร้อยล้านบาทจากกลโกงในรูปแบบนี้6
สิ่งที่น่ากังวลยิ่งกว่าคือความสามารถของ AI ที่ทำให้การแอบอ้างหน่วยงานรัฐหรือสถาบันการเงินดูสมจริงขึ้นอย่างน่าตกใจ โทรศัพท์ที่อ้างว่าเป็นเจ้าหน้าที่เรียกชำระภาษีหรือแจ้งปัญหาบัญชีธนาคาร ซึ่งครั้งหนึ่งเคยพอจับผิดได้จากน้ำเสียงหรือสำเนียงบอท ตอนนี้กลับฟังเหมือนเจ้าหน้าที่จริงจนแทบไม่อาจแยกออก10, 11 แม้แต่ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ยังยอมรับว่า AI ทำให้การตรวจจับเสียงปลอมยากขึ้นกว่าเดิมหลายเท่า เพราะ AI สามารถสร้างเสียงที่ไร้รอยต่อและเรียนรู้รูปแบบภาษาของหน่วยงานต่าง ๆ ได้อย่างแม่นยำ ทั้งหมดนี้สะท้อนว่าปัญหาของโลกดิจิทัลยุคใหม่ไม่ได้อยู่ที่ว่า AI “ฉลาดแค่ไหน” แต่อยู่ที่ว่า “มนุษย์พร้อมแค่ไหนที่จะอยู่ร่วมกับมัน” เมื่อภาพ เสียง และเรื่องราวสามารถถูกสร้างขึ้นให้เหมือนจริงได้ในไม่กี่วินาที การรับมือจึงต้องอาศัยทักษะการตั้งคำถาม การตรวจสอบ และความรู้เท่าทันแบบใหม่ที่ไม่ใช่แค่การดูว่าภาพคมชัดหรือไม่ แต่ต้องดูผิดปกติในรายละเอียดยิบย่อย เช่น จังหวะกะพริบตาที่แปลก ผิวหน้าที่เรียบจนไม่เห็นรูขุมขน เสียงที่ไม่มีลมหายใจ หรือบริบทข่าวที่ดูไม่น่าเชื่อ12, 6

ท้ายที่สุด โลกที่เต็มไปด้วยความจริงจำลองอาจไม่ใช่โลกที่เราต้องหวาดกลัว หากแต่เป็นโลกที่เราต้องเรียนรู้วิธีอยู่ร่วมกับมันอย่างมีสติ การหยุดคิดก่อนแชร์ การตรวจสอบก่อนเชื่อ และการพูดคุยกันในครอบครัวเพื่อให้ผู้สูงอายุรู้จักระมัดระวัง ไม่ใช่เป็นเพียงคำแนะนำทั่วไป แต่เป็นส่วนหนึ่งของ “ทักษะแห่งศตวรรษใหม่” ที่ผู้คนทุกวัยต้องมีเพื่อปกป้องตนเอง โลกที่ความจริงผลิตขึ้นได้ด้วยอัลกอริทึมอาจเป็นความท้าทาย แต่ก็ทำให้เราค้นพบว่าสิ่งที่สำคัญที่สุดไม่ใช่เทคโนโลยีที่ล้ำหน้าเพียงใด แต่คือความสามารถของเราที่จะตั้งคำถามกับสิ่งที่เห็น และไม่ปล่อยให้ “ความจริงปลอม” กำหนดความเชื่อของเราได้ง่าย ๆ อีกต่อไป
เขียนโดย
ศูนย์วิชาการด้านการรู้เท่าทันสื่อของผู้สูงอายุ (ICEM)
รายการอ้างอิง
- Deepfake video of Canadian Prime Minister reaches millions on TikTok, X – DFRLab. (2025, June 19). DFRLab. https://dfrlab.org/2025/06/19/deepfake-video-of-canadian-prime-minister-reaches-millions-on-tiktok-x/
- Deepfake video of Nigel Farage playing Minecraft ‘of course’ not real, party says. (2024, June 18). The Guardian. https://www.theguardian.com/technology/article/2024/jun/18/deepfake-video-of-nigel-farage-playing-minecraft-of-course-not-real-party-says
- Election 2024: Elon Musk shares a deepfake video that mimics Kamala Harris. (2024, May 6). AP News. https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e
- Kamala Harris deepfake removed by TikTok after going viral. (2024, May 8). Newsweek. https://www.newsweek.com/kamala-harris-deepfake-removed-tiktok-viral-1929003
- #IFJBlog: AI, Deepfakes, and the fog of war – Disinformation in the 2025 India-Pakistan conflict. (2025, January 29). International Federation of Journalists (IFJ). https://www.ifj.org/media-centre/blog/detail/category/ai/article/ifjblog-ai-deepfakes-and-the-fog-of-war-disinformation-in-the-2025-india-pakistan-conflict
- National Council on Aging. (2025, February 12). What are deepfake scams and how do I spot them? https://www.ncoa.org/article/understanding-deepfakes-what-older-adults-need-to-know/
- The rise of AI videos in politics: From deepfakes to viral, lowbrow humor. (2025, March 10). EL PAÍS English. https://english.elpais.com/technology/2025-03-10/the-rise-of-ai-videos-in-politics-from-deepfakes-to-viral-lowbrow-humor.html
- National Council on Aging. (2024a, July 30). What scams are done using AI? https://www.ncoa.org/article/what-are-ai-scams-a-guide-for-older-adults/
- National Council on Aging. (2024b, May 15). The top 5 financial scams targeting older adults. https://www.ncoa.org/article/top-5-financial-scams-targeting-older-adults/
- FBI warns senior US officials are being impersonated using texts, AI-based voice cloning. (2024, February 28). Cybersecurity Dive. https://www.cybersecuritydive.com/news/fbi-us-officials-impersonated-text-ai-voice/748334/
- Schechner, S., & Bing, C. (2024, March 13). We wanted to craft a perfect phishing scam. AI bots were happy to help. Reuters Investigates. https://www.reuters.com/investigates/special-report/ai-chatbots-cyber/
- สอนวิธีจับผิด Deepfake ป้องกันไม่ถูกหลอก รู้ทันกลลวงและข้อมูลเท็จ. (2024, October 2). Techsauce. https://techsauce.co/tech-and-biz/how-to-counteract-deepfake
