ความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ในปัจจุบัน ทำให้องค์กรหลายภาคส่วนหันมาตระหนักถึงความสำคัญในการกำหนดจริยธรรมของการนำปัญญาประดิษฐ์มาใช้ประโยชน์ เนื่องจาก AI เป็นเทคโนโลยีที่อาจส่งผลกระทบต่อปัจเจก สังคม และสิ่งแวดล้อมทั้งด้านบวกและลบ ดังนั้นข้อกังวลที่ตามมาอย่างเลี่ยงไม่ได้ คือ จริยธรรมในการใช้ AI ควรอยู่ในขอบเขตด้านใดบ้าง
จริยธรรมปัญญาประดิษฐ์ (Ethical AI) จึงกลายเป็นประเด็นที่ท้าทายต่อคนทั้งโลก ดังจะเห็นได้จากหลายประเทศที่ได้เริ่มดำเนินการออกกฎหมายและนโยบายเกี่ยวกับ AI อย่างมีจริยธรรมและรับผิดชอบ เช่น กฎหมายว่าด้วยปัญญาประดิษฐ์ (EU Artificial Intelligence Act: EU AI Act) ฉบับแรกของโลกที่พยายามควบคุมการใช้งาน AI และร่างกฎควบคุม AI ของหน่วยงานความมั่นคงทางไซเบอร์ของจีน (Cyberspace Administration of China)
ส่วนประเทศไทยเองก็มีความพยายามในการวางแนวปฏิบัติในการใช้งาน AI เช่นกัน แม้จะยังไม่มีอำนาจบังคับใช้ทางกฎหมาย โดยในปี 2565 รัฐบาลไทยภายใต้ พลเอกประยุทธ์ จันทร์โอชา จัดการประชุมแผนปฏิบัติการด้าน AI แห่งชาติฯ จนนำมาสู่แผนปฏิบัติการด้านปัญญาประดิษฐ์เพื่อการพัฒนาประเทศไทยปี พ.ศ. 2565-2570
นี่คือความพยายามของมนุษย์ในการควบคุมปัญญาประดิษฐ์ ไม่ให้เหยียบย่ำคุณค่าเชิงสังคมที่ผู้คนยึดถือมา เพราะหนึ่งในความเสี่ยงใหม่นับตั้งแต่ AI เข้ามามีบทบาทในชีวิต คงหนีไม่พ้นเรื่อง Deepfake หรือการสร้างบุคคลเสมือน ซึ่งอาจนำไปสู่การปลอมแปลงภาพและเสียงของผู้มีอิทธิพล จนสร้างความเสียหายใหญ่ระดับประเทศ
สอดคล้องกับผลการสำรวจของสถาบันการศึกษาคุณค่าทางธุรกิจของไอบีเอ็ม (IBV) เผยถึงเหตุผลหลักที่องค์กรหลายแห่งยังไม่ไว้วางใจ AI มาจากข้อกังวลความเป็นส่วนตัวของข้อมูล (ร้อยละ 57) และความโปร่งใสของ AI (ร้อยละ 43) ซึ่งอาจนำมาสู่การสร้างหายนะให้กับธุรกิจครั้งใหญ่ได้ หากการประมวลผลของ AI เกิดผิดพลาดขึ้นมา
ขณะเดียวกัน Accenture บริษัทที่ปรึกษาทางธุรกิจ เผยงานวิจัย Tech Vision 2022 เรื่องเทรนด์เทคโนโลยี ซึ่งมีแนวโน้มเข้ามาเปลี่ยนแปลงโลกธุรกิจและสังคมภายในสามปีข้างหน้า พบว่า ผู้ใช้งาน 24,000 รายทั่วโลก จาก 35 ประเทศ มีเพียง ร้อยละ 35 เท่านั้นที่วางใจในการใช้งาน AI ขององค์กรต่าง ๆ และ ร้อยละ 77 เชื่อว่าองค์กรมีส่วนต้องรับผิดชอบหากใช้ AI ในทางที่ผิด
บริษัทเทคโนโลยีอันดับหนึ่งของโลกอย่าง IBM ได้เล็งเห็นทั้งคุณและโทษของ AI โดยได้วางกฎเกณฑ์ในการใช้ประโยชน์จากปัญญาประดิษฐ์ว่า ต้องอยู่บนพื้นฐานของความรับผิดชอบ มีความโปร่งใส และต้องคำนึงถึงการปกป้องสิทธิ์ในข้อมูลของผู้ใช้งานเป็นสำคัญ โดยบริษัทเชื่อว่า AI ไม่ได้เป็นภัยคุกคาม หากแต่เป็นเครื่องมือในการช่วยมนุษย์ทำงานได้อย่างมีประสิทธิภาพมากขึ้น
การใช้ AI อย่างมีจริยธรรม
สามารถจำแนกหลักการ 5 ข้อ สำหรับการใช้ AI อย่างมีจริยธรรม ได้แก่
- ความโปร่งใส สร้างระบบที่สามารถตรวจสอบได้และมีภาระรับผิด
เพื่อเสริมความไว้วางใจให้ผู้ใช้งาน สามารถเข้าใจถึงกระบวนการและเหตุผลที่ AI ตัดสินใจในเรื่องต่าง ๆ
- ความยุติธรรม พัฒนาเครื่องมือและแนวทางตรวจสอบระบบ AI ให้มีความเป็นมนุษย์มากขึ้น เพื่อลดและขจัดอคติที่อาจเกิดขึ้นในอนาคต
- ความเป็นส่วนตัว
ปกป้องข้อมูลและความเป็นส่วนตัวของผู้ใช้
โดยกำหนดให้มีการใช้ข้อมูลอย่างมีความรับผิดชอบและเป็นไปตามกฎหมายและมาตรฐานสากล
- ความน่าเชื่อถือ จะต้องตั้งอยู่บนพื้นฐานของแหล่งข้อมูลที่ปลอดภัยและเชื่อถือได้
โดยมีการทดสอบและตรวจสอบระบบ AI อย่างละเอียดเพื่อป้องกันปัญหาที่อาจเกิดขึ้น
- การทำงานร่วมกับมนุษย์ เทคโนโลยีควรเป็นเครื่องมือที่ช่วยสนับสนุนและเพิ่มความสามารถในการทำงานของมนุษย์
ไม่ใช่การแทนที่มนุษย์ ระบบ AI จึงออกแบบมาเพื่อทำงานร่วมกับมนุษย์ได้อย่างมีประสิทธิภาพ
นอกจาก IBM แล้วยังมีบริษัทเทคยักษ์ใหญ่ระดับโลกอีกหลายแห่งที่ให้ความสำคัญกับจริยธรรมในการใช้
AI ไม่ว่าจะเป็น Google, Microsoft, Facebook (Meta) และ OpenAI ทุกองค์กรล้วนยกเรื่องความโปร่งใส ความเป็นส่วนตัวของข้อมูลผู้ใช้งาน
และการป้องกันการใช้งาน AI ในทางที่ผิดเป็นความสำคัญอันดับต้น
ๆ
อย่างไรก็ตาม
การศึกษาจริยธรรม AI
นั้นยังอยู่ในช่วงเริ่มต้น แต่หากให้ย้อนกลับไปในยุคแรกเริ่มที่มีการศึกษาจริยธรรมการวิจัยในมนุษย์
และเป็นต้นแบบในการนำมาปรับใช้ให้เข้ากับยุคสมัยที่ AI เข้ามามีอิทธิพล
คงต้องย้อนกลับไปในช่วงปี 1974 หลังจากคณะกรรมการแห่งชาติเพื่อคุ้มครองอาสาสมัคร
ในการวิจัยทางชีวเวชศาสตร์และพฤติกรรมศาสตร์ จัดทำรายงานเบลมองต์ (Belmont
Report) โดยหนึ่งในหัวข้อที่น่าสนใจคือ
หลักจริยธรรมและแนวทางคุ้มครองอาสาสมัครวิจัย (Ethical Principles and
Guidelines for the Protection of Human Subjects of Research)
จนแล้วเสร็จในปี 1979
นับเป็นครั้งแรกที่มีการเสนอหลักการพื้นฐาน 3 ประการด้านจริยธรรมของการวิจัยในมนุษย์
ได้แก่ หลักความเคารพในบุคคล หลักผลประโยชน์ และหลักความยุติธรรม
แต่สุดท้ายแล้ว
การบรรจุหลักการหรือแนวทางปฏิบัติลงไปใน AI อย่างเดียวอาจไม่เพียงพอ
สิ่งสำคัญคือต้องมีการนำระบบเหล่านั้นไปใช้ในวงกว้าง หากหน่วยงานเอกชนและภาครัฐขาดความตระหนักในเรื่องนี้
อนาคตของ AI เองอาจไม่ก้าวไปข้างหน้าและติดหล่มอยู่กับที่จนไม่อาจพัฒนาต่อไปได้
ดังนั้น ทุกภาคส่วนจึงต้องร่วมมือกันในการผลักดัน หาแนวทางในการใช้ AI ให้เกิดประโยชน์สูงสุดต่อสังคมและมนุษยชาติ
อ้างอิง :
- Department of Health, Education, and Welfare. (1978). THE BELMONT REPORT. April.
- IBM. (n.d.). What is AI ethics? Retrieved from https://www.ibm.com/topics/ai-ethics
- Roth, M. K. (2023). AI ที่มีหัวใจ The Ethical Algorithm. Salt Publishing.
- Sigma,AI. (n.d.). Ethical AI vs. Responsible AI. Retrieved from https://sigma.ai/ethical-ai-responsible-ai/
- Thairat Money. (2024, January 5). ยุคแห่งปัญญาประดิษฐ์ รวบรวม กฎหมายและการกำกับดูแล AI ในไทย ไปถึงไหนแล้ว? Retrieved from https://www.thairath.co.th/money/tech_innovation/digital_transformation/2752978
- กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม. (2021). หลักการและแนวทางจริยธรรมปัญญาประดิษฐ์ของประเทศไทย (Thailand AI Ethics Guideline). กรุงเทพฯ ประเทศไทย: กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม.