Notifications

You are here

ห่วงโซ่คุณค่า

อนาคตของ AI จริยธรรมและความรับผิดชอบในโลกเทคโนโลยี

02 กันยายน 2024 33 อ่านข่าวนี้ 3 เดือนก่อน 0
แผนแม่บท : แผนแม่บท การวิจัยและพัฒนานวัตกรรม  
หมวดหมู่ : #23.5ด้านปัจจัยสนับสนุนในการวิจัยและพัฒนานวัตกรรม 


ความก้าวหน้าของเทคโนโลยีปัญญาประดิษฐ์ หรือ AI ในปัจจุบัน ทำให้องค์กรหลายภาคส่วนหันมาตระหนักถึงความสำคัญในการกำหนดจริยธรรมของการนำปัญญาประดิษฐ์มาใช้ประโยชน์ เนื่องจาก AI เป็นเทคโนโลยีที่อาจส่งผลกระทบต่อปัจเจก สังคม และสิ่งแวดล้อมทั้งด้านบวกและลบ ดังนั้นข้อกังวลที่ตามมาอย่างเลี่ยงไม่ได้ คือ จริยธรรมในการใช้ AI ควรอยู่ในขอบเขตด้านใดบ้าง

จริยธรรมปัญญาประดิษฐ์ (Ethical AI) จึงกลายเป็นประเด็นที่ท้าทายต่อคนทั้งโลก ดังจะเห็นได้จากหลายประเทศที่ได้เริ่มดำเนินการออกกฎหมายและนโยบายเกี่ยวกับ AI อย่างมีจริยธรรมและรับผิดชอบ เช่น กฎหมายว่าด้วยปัญญาประดิษฐ์ (EU Artificial Intelligence Act: EU AI Act) ฉบับแรกของโลกที่พยายามควบคุมการใช้งาน AI และร่างกฎควบคุม AI ของหน่วยงานความมั่นคงทางไซเบอร์ของจีน (Cyberspace Administration of China) 

ส่วนประเทศไทยเองก็มีความพยายามในการวางแนวปฏิบัติในการใช้งาน AI เช่นกัน แม้จะยังไม่มีอำนาจบังคับใช้ทางกฎหมาย โดยในปี 2565 รัฐบาลไทยภายใต้ พลเอกประยุทธ์ จันทร์โอชา จัดการประชุมแผนปฏิบัติการด้าน AI แห่งชาติฯ จนนำมาสู่แผนปฏิบัติการด้านปัญญาประดิษฐ์เพื่อการพัฒนาประเทศไทยปี พ.ศ. 2565-2570 

นี่คือความพยายามของมนุษย์ในการควบคุมปัญญาประดิษฐ์ ไม่ให้เหยียบย่ำคุณค่าเชิงสังคมที่ผู้คนยึดถือมา เพราะหนึ่งในความเสี่ยงใหม่นับตั้งแต่ AI เข้ามามีบทบาทในชีวิต คงหนีไม่พ้นเรื่อง Deepfake หรือการสร้างบุคคลเสมือน ซึ่งอาจนำไปสู่การปลอมแปลงภาพและเสียงของผู้มีอิทธิพล จนสร้างความเสียหายใหญ่ระดับประเทศ

สอดคล้องกับผลการสำรวจของสถาบันการศึกษาคุณค่าทางธุรกิจของไอบีเอ็ม (IBV) เผยถึงเหตุผลหลักที่องค์กรหลายแห่งยังไม่ไว้วางใจ AI มาจากข้อกังวลความเป็นส่วนตัวของข้อมูล (ร้อยละ 57) และความโปร่งใสของ AI (ร้อยละ 43) ซึ่งอาจนำมาสู่การสร้างหายนะให้กับธุรกิจครั้งใหญ่ได้ หากการประมวลผลของ AI เกิดผิดพลาดขึ้นมา

ขณะเดียวกัน Accenture บริษัทที่ปรึกษาทางธุรกิจ เผยงานวิจัย Tech Vision 2022 เรื่องเทรนด์เทคโนโลยี ซึ่งมีแนวโน้มเข้ามาเปลี่ยนแปลงโลกธุรกิจและสังคมภายในสามปีข้างหน้า พบว่า ผู้ใช้งาน 24,000 รายทั่วโลก จาก 35 ประเทศ มีเพียง ร้อยละ 35 เท่านั้นที่วางใจในการใช้งาน AI ขององค์กรต่าง ๆ และ ร้อยละ 77 เชื่อว่าองค์กรมีส่วนต้องรับผิดชอบหากใช้ AI ในทางที่ผิด 

บริษัทเทคโนโลยีอันดับหนึ่งของโลกอย่าง IBM ได้เล็งเห็นทั้งคุณและโทษของ AI โดยได้วางกฎเกณฑ์ในการใช้ประโยชน์จากปัญญาประดิษฐ์ว่า ต้องอยู่บนพื้นฐานของความรับผิดชอบ มีความโปร่งใส และต้องคำนึงถึงการปกป้องสิทธิ์ในข้อมูลของผู้ใช้งานเป็นสำคัญ โดยบริษัทเชื่อว่า AI ไม่ได้เป็นภัยคุกคาม หากแต่เป็นเครื่องมือในการช่วยมนุษย์ทำงานได้อย่างมีประสิทธิภาพมากขึ้น



การใช้ AI อย่างมีจริยธรรม 

สามารถจำแนกหลักการ 5 ข้อ สำหรับการใช้ AI อย่างมีจริยธรรม ได้แก่

  1. ความโปร่งใส สร้างระบบที่สามารถตรวจสอบได้และมีภาระรับผิด เพื่อเสริมความไว้วางใจให้ผู้ใช้งาน สามารถเข้าใจถึงกระบวนการและเหตุผลที่ AI ตัดสินใจในเรื่องต่าง ๆ
  2. ความยุติธรรม พัฒนาเครื่องมือและแนวทางตรวจสอบระบบ AI ให้มีความเป็นมนุษย์มากขึ้น เพื่อลดและขจัดอคติที่อาจเกิดขึ้นในอนาคต
  3. ความเป็นส่วนตัว ปกป้องข้อมูลและความเป็นส่วนตัวของผู้ใช้ โดยกำหนดให้มีการใช้ข้อมูลอย่างมีความรับผิดชอบและเป็นไปตามกฎหมายและมาตรฐานสากล
  4. ความน่าเชื่อถือ จะต้องตั้งอยู่บนพื้นฐานของแหล่งข้อมูลที่ปลอดภัยและเชื่อถือได้ โดยมีการทดสอบและตรวจสอบระบบ AI อย่างละเอียดเพื่อป้องกันปัญหาที่อาจเกิดขึ้น
  5. การทำงานร่วมกับมนุษย์ เทคโนโลยีควรเป็นเครื่องมือที่ช่วยสนับสนุนและเพิ่มความสามารถในการทำงานของมนุษย์ ไม่ใช่การแทนที่มนุษย์ ระบบ AI จึงออกแบบมาเพื่อทำงานร่วมกับมนุษย์ได้อย่างมีประสิทธิภาพ

นอกจาก IBM แล้วยังมีบริษัทเทคยักษ์ใหญ่ระดับโลกอีกหลายแห่งที่ให้ความสำคัญกับจริยธรรมในการใช้ AI ไม่ว่าจะเป็น Google, Microsoft, Facebook (Meta) และ OpenAI ทุกองค์กรล้วนยกเรื่องความโปร่งใส ความเป็นส่วนตัวของข้อมูลผู้ใช้งาน และการป้องกันการใช้งาน AI ในทางที่ผิดเป็นความสำคัญอันดับต้น ๆ

อย่างไรก็ตาม การศึกษาจริยธรรม AI นั้นยังอยู่ในช่วงเริ่มต้น แต่หากให้ย้อนกลับไปในยุคแรกเริ่มที่มีการศึกษาจริยธรรมการวิจัยในมนุษย์ และเป็นต้นแบบในการนำมาปรับใช้ให้เข้ากับยุคสมัยที่ AI เข้ามามีอิทธิพล คงต้องย้อนกลับไปในช่วงปี 1974 หลังจากคณะกรรมการแห่งชาติเพื่อคุ้มครองอาสาสมัคร ในการวิจัยทางชีวเวชศาสตร์และพฤติกรรมศาสตร์ จัดทำรายงานเบลมองต์ (Belmont Report) โดยหนึ่งในหัวข้อที่น่าสนใจคือ หลักจริยธรรมและแนวทางคุ้มครองอาสาสมัครวิจัย (Ethical Principles and Guidelines for the Protection of Human Subjects of Research) จนแล้วเสร็จในปี 1979 นับเป็นครั้งแรกที่มีการเสนอหลักการพื้นฐาน 3 ประการด้านจริยธรรมของการวิจัยในมนุษย์ ได้แก่ หลักความเคารพในบุคคล หลักผลประโยชน์ และหลักความยุติธรรม

แต่สุดท้ายแล้ว การบรรจุหลักการหรือแนวทางปฏิบัติลงไปใน AI อย่างเดียวอาจไม่เพียงพอ สิ่งสำคัญคือต้องมีการนำระบบเหล่านั้นไปใช้ในวงกว้าง หากหน่วยงานเอกชนและภาครัฐขาดความตระหนักในเรื่องนี้ อนาคตของ AI เองอาจไม่ก้าวไปข้างหน้าและติดหล่มอยู่กับที่จนไม่อาจพัฒนาต่อไปได้ ดังนั้น ทุกภาคส่วนจึงต้องร่วมมือกันในการผลักดัน หาแนวทางในการใช้ AI ให้เกิดประโยชน์สูงสุดต่อสังคมและมนุษยชาติ

อ้างอิง :

  • Department of Health, Education, and Welfare. (1978). THE BELMONT REPORT. April.
  • IBM. (n.d.). What is AI ethics? Retrieved from https://www.ibm.com/topics/ai-ethics
  • Roth, M. K. (2023). AI ที่มีหัวใจ The Ethical Algorithm. Salt Publishing.
  • Sigma,AI. (n.d.). Ethical AI vs. Responsible AI. Retrieved from https://sigma.ai/ethical-ai-responsible-ai/
  • Thairat Money. (2024, January 5). ยุคแห่งปัญญาประดิษฐ์ รวบรวม กฎหมายและการกำกับดูแล AI ในไทย ไปถึงไหนแล้ว? Retrieved from https://www.thairath.co.th/money/tech_innovation/digital_transformation/2752978

  • กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม. (2021). หลักการและแนวทางจริยธรรมปัญญาประดิษฐ์ของประเทศไทย (Thailand AI Ethics Guideline). กรุงเทพฯ ประเทศไทย: กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม.


URL อ้างอิง:

เว็บไซต์นี้ใช้คุกกี้

เราใช้คุกกี้ (Cookie) เพื่อใช้ในการปรับปรุงประสิทธิภาพเว็บไซต์ ท่านสามารถศึกษารายละเอียดการใช้คุกกี้ได้ที่ นโยบายคุกกี้
ยอมรับ