ควบคุม AI ได้ ก็ชี้นำความคิดคนได้: เมื่อปัญญาประดิษฐ์อาจเป็นเครื่องมือกำหนดความเชื่อโดยที่เราไม่รู้ตัว
ถ้าเสียงที่ทรงอิทธิพลที่สุดในสนามการเมืองวันนี้ ไม่ใช่นักการเมือง ไม่ใช่นักวิเคราะห์ข่าว และไม่ใช่นักโฆษณาหาเสียงหรืออินฟลูเอนเซอร์ แต่เป็นแชทบอท?
ไม่ใช่แชทบอทที่โกหกโต้งๆ แบบจับได้ง่าย แต่เป็นบอทที่พูดจานุ่มนวล ช่วยเรียบเรียงคำถามใหม่ เปลี่ยนมุมมองนิดๆ หน่อยๆ โดยที่ฟังดู “เป็นกลาง” และ “เป็นเหตุเป็นผล” นี่แหละคือสิ่งที่นักวิจัยเริ่มออกมาเตือนว่า AI ที่เราใช้อยู่ทุกวัน เช่น ChatGPT ไม่ได้แค่ “สะท้อน” ความคิดทางการเมืองของมนุษย์เพียงอย่างเดียว แต่มัน “ฝัง” ความคิดเหล่านั้นไว้ในโครงสร้างของมัน และที่น่ากลัวคือคนที่ควบคุม AI สามารถปรับเปลี่ยนแนวคิดเหล่านี้ได้เพียงแค่เขียนสมการเพิ่มไม่กี่บรรทัด โดยที่ผู้ควบคุมสามารถบิดคำตอบของ AI ให้เอียงซ้ายหรือขวาได้อย่างแนบเนียน นี่คือการชี้นำความคิดเห็นสาธารณะผ่านอัลกอริทึม ที่ทั้งเงียบ เนียน และทำได้ในวงกว้าง
“เข็มทิศการเมือง” ที่ฝังอยู่ในสมองของ AI
ทีมนักวิจัยจาก University of Chicago และ Google ได้ทดสอบโมเดล AI ดังอย่าง Llama 2, Mistral และ Vicuna โดยให้โมเดลเหล่านี้เขียนข้อความคล้ายถ้อยแถลงของนักการเมืองสหรัฐฯ แล้วนำไปวิเคราะห์ว่ามีแนวโน้มเป็นพวกเสรีนิยมหรืออนุรักษนิยม
ผลที่ได้ชัดเจน: AI แต่ละตัวมีแนวคิดทางการเมืองในตัวเอง และมันไม่ใช่เรื่องสุ่ม แต่มันคือสิ่งที่เกิดจากข้อมูลฝึกสอนจำนวนมหาศาลที่มันกินเข้าไป—ตั้งแต่บทความข่าวไปจนถึงกระทู้ในอินเทอร์เน็ต
เมื่อรู้ว่าแนวคิดการเมืองฝังอยู่ตรงไหน นักวิจัยก็ลองควบคุม “หมุนปุ่ม” ภายในสมองของ AI ดู ปรากฏว่าแค่เปลี่ยนค่าเล็กๆ ที่เรียกว่า steering vector ก็ทำให้คำตอบของ AI เอนซ้ายหรือขวาได้ทันที
ถามคำถามเดิม แต่ได้คำตอบคนละโลก: พูดเรื่องโลกร้อน เวอร์ชันเสรีนิยมเน้นความยุติธรรมทางสิ่งแวดล้อม เวอร์ชันอนุรักษนิยมพูดถึงเศรษฐกิจและความมั่นคงทางพลังงาน เรื่องนี้ไม่ได้เกิดแค่กับคำถามเดียว แต่มันเกิดขึ้นซ้ำๆ ในประเด็นอ่อนไหวอย่างการทำแท้ง สิทธิ LGBTQ+ นโยบายปืน และอื่นๆ
พูดง่ายๆ คือเราสามารถ “จูน” มุมมองการเมืองของ AI ได้เหมือนปรับคลื่นวิทยุ
เครื่องมือเพื่อความหลากหลาย หรืออาวุธปลุกระดม?
หากเรามองในแง่บวก ความสามารถนี้อาจถูกใช้เพื่อตรวจสอบอคติในระบบ หรือเปิดโอกาสให้ผู้ใช้เลือกมุมมองที่ตรงกับตัวเองมากขึ้น แต่ในทางกลับกันมันอาจกลายเป็น “เครื่องมือชี้นำความเชื่อ” โดยที่คนไม่รู้ตัว
ลองจินตนาการถึงข่าวหรือโพสต์ในโซเชียลที่สร้างด้วย AI ซึ่งอ้างว่าเป็นกลาง แต่จริงๆ แฝงแนวคิดฝั่งใดฝั่งหนึ่งอย่างแนบเนียน หรือแชทบอทที่ค่อยๆ ชี้นำความคิดคุณอย่างช้าๆ แต่ต่อเนื่อง
ถ้าอยู่ในประเทศที่มีการควบคุมสูง นี่อาจกลายเป็นอาวุธโฆษณาชวนเชื่อยุคใหม่ แต่ในประเทศประชาธิปไตย มันก็อาจกลายเป็น “อิทธิพลเงา” ที่ส่งผลต่อความคิดเห็นของประชาชนโดยที่ไม่มีใครรู้ตัว
และความจริงที่ยอมรับได้ยากก็คือ AI ส่วนใหญ่ที่ใช้งานอยู่ทุกวันนี้ “เอียงซ้าย” เล็กน้อย เพราะข้อมูลที่มันถูกฝึกมามักมาจากแหล่งที่โน้มเอียงทางเสรีนิยม เช่น สื่อ บทความวิชาการ หรือบทสนทนาในโลกออนไลน์
ซึ่งนี่ไม่ใช่ข้อบกพร่องของ AI แต่มันชี้ให้เห็นว่า ไม่มี AI ตัวไหนที่เป็นกลางจริงๆ มีแต่อคติที่เรารู้ว่ามี กับอคติที่เรามองไม่เห็น
แล้วใครควรเป็นคนควบคุม “ความเป็นกลาง” ของ AI?
ประเด็นจึงไม่ได้อยู่ที่ว่า “AI ควรเป็นกลางไหม” แต่อยู่ที่ว่า “ใครควรเป็นคนกำหนดว่าอะไรคือความเป็นกลาง?”
ตอนนี้คำตอบอยู่ในมือวิศวกรของบริษัทเทคโนโลยีไม่กี่เจ้า ซึ่งคนทั่วไปไม่มีทางรู้เลยว่าเบื้องหลังของโมเดล AI แต่ละตัวถูกออกแบบอย่างไร หรือถูก “จูน” ไว้แบบไหน
เราควรปล่อยเรื่องนี้ให้เอกชนตัดสิน? ควรมีกฎหมายกำกับดูแล? หรือควรเปิดให้สังคมมีส่วนร่วมมากกว่านี้?
หลายคนเสนอให้เปิดเผยกระบวนการสร้างโมเดลให้มากขึ้น บางคนเสนอให้มีคณะกรรมการอิสระมาตรวจสอบ แต่คำถามลึกๆ ที่ยังไม่มีใครตอบได้คือ: เมื่อเครื่องจักรเริ่มมีอิทธิพลต่อความจริงที่เรารับรู้ เราจะไว้ใจให้มันพูด “ความจริงของใคร”?
งานวิจัยชิ้นนี้เป็นเหมือนทั้งแผนที่และกระจกที่ช่วยให้เราเห็นว่าแนวคิดทางการเมืองฝังอยู่ตรงไหนใน AI และสะท้อนกลับว่า เราถูกชี้นำง่ายแค่ไหนจากสิ่งที่เราคิดว่า “เป็นกลาง”
ในโลกที่เรื่องเล่ามีอิทธิพลต่อการเลือกตั้ง ความเชื่อ และค่านิยม AI ไม่ใช่แค่เครื่องมืออีกต่อไป แต่มันกลายเป็นผู้เล่นในเกม และถ้าเราไม่กำหนดว่ามันควรพูดแทนใคร สุดท้ายมันอาจพูดแทนคนที่หมุนปุ่มอยู่เบื้องหลัง

