รู้จัก depa
บริการ
TH
EN
TH
CN

มุมมองนานาชาติสู่ปัญญาประดิษฐ์ที่มีความรับผิดชอบ ตอนที่ 1

ปัญญาประดิษฐ์สำคัญอย่างไร

ปัจจุบันเทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence หรือ AI) ในยุคการปฏิวัติอุตสาหกรรมครั้งที่ 4 เป็นประเด็นการอภิปรายอย่างกว้างขวาง เนื่องจากปัญญาประดิษฐ์เป็นเทคโนโลยีเปลี่ยนโลกที่เข้ามามีบทบาทสำคัญต่อระบบเศรษฐกิจและสังคมและกำลังเปลี่ยนแปลงวิถีชีวิตของมนุษยชาติอีกด้วย สะท้อนได้อย่างชัดเจนจากการประยุกต์ใช้อย่างก้าวกระโดด ไม่ว่าจะเป็นเครือข่ายอัจฉริยะ (Intelligent Networks) เมืองอัจฉริยะ (Smart City) และหุ่นยนต์ (Robotics) เป็นต้น

นอกจากนี้ในกลุ่มสตาร์ทอัพด้านดิจิทัล วิสาหกิจดิจิทัลเริ่มต้นได้เริ่มต้นที่ใช้เทคโนโลยีปัญญาประดิษฐ์ทางด้านการแพทย์ ตัวอย่างเช่น บริษัท “IDx” ได้พัฒนาและประยุกต์ใช้ระบบวินิจฉัยโรคด้วยปัญญาประดิษฐ์ (AI Diagnostic System) ที่วิเคราะห์ภาพของเรตินา (Retina) มาช่วยในการคาดการณ์การเกิดโรคเบาหวานขึ้นจอตาซึ่งเป็นภาวะแทรกซ้อนของโรคเบาหวานที่เกิดจากระดับน้ำตาลในเลือดสูง หรือ บริษัท “Planck Aerosystems” ที่เทคโนโลยีดิจิทัลในเชิงลึกทางด้านการบินและโลจิสติกส์ ได้ประยุกต์ใช้ปัญญาประดิษฐ์สำหรับ ระบบเครื่องบินพิเศษ (Specialized Aircraft Systems) และซอฟต์แวร์คอมพิวเตอร์ วิทัศน์ชั้นสูง (Advanced Computer Vision Software) เพื่อดำเนินการตรวจจับ ติดตาม ตรวจสอบวัตถุ และการรับรู้สถานการณ์ตามความเป็นจริงทั้งสภาพแวดล้อมทางทะเลและชายฝั่งทะเลขณะที่เรือกำลังเคลื่อนที่ เป็นต้น ดังนั้นจะเห็นได้ว่าปัญญาประดิษฐ์มีความสำคัญอย่างยิ่งในการเปลี่ยนแปลงอนาคตของมนุษยชาติ เพื่อการพัฒนาที่ดีขึ้นและยั่งยืน

ความท้าท้ายจากปัญญาประดิษฐ์

อย่างไรก็ตาม เนื่องจากปัญญาประดิษฐ์มีความสามารถในการเข้าถึง เรียนรู้ และวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) ได้อย่างรวดเร็ว จนนำไปสู่การตัดสินใจและการคาดการณ์จากข้อมูลขนาดใหญ่ที่ได้รับนั้น จึงทำให้มีความเสี่ยงและความท้าทายมากมายที่เกี่ยวข้องกับปัญญาประดิษฐ์ต่อสิทธิมนุษยชนและจริยธรรม เช่น ผลกระทบต่อการจ้างงาน ผู้รับผิดชอบต่อความผิดพลาด ความไว้ใจระหว่างคน และปัญญาประดิษฐ์ ความเข้าใจของคนในสังคม สิทธิในการเข้าถึงและใช้ประโยชน์จากปัญญาประดิษฐ์ ความเป็นส่วนตัว ความไม่เท่าเทียมทางสังคมหรือช่องว่างทางสังค และความปลอดภัย เป็นต้น ตัวอย่างเหตุการณ์สำคัญที่เกิดจากความผิดพลาดของปัญญาประดิษฐ์ โดยมีตัวอย่างดัง 2 เคส จากต่างประเทศ

Case 1-- ในปีที่ผ่านมา (2561) รถยนต์ขับเคลื่อนอัตโนมัติแบบไร้คนขับ ซึ่งถูกควบคุมโดยปัญญาประดิษฐ์ ยี่ห้ออูเบอร์ (Uber Self-driving Car) พุ่งชนนาง Elaine Herzberg วัย 49 ปี เสียชีวิต ณ รัฐอริโซน่า ขณะนั้นเธอกำลังข้ามถนนพร้อมจักรยานของเธอ เหตุการณ์นี้ถือได้ว่าเป็นผู้เสียชีวิตรายแรกอันเนื่องมาจากรถยนต์ขับเคลื่อนอัตโนมัติแบบไร้คนขับ โดยอุบัติเหตุดังกล่าวเกิดจาก ความผิดพลาดในการตัดสินใจของปัญญาประดิษฐ์ในการตอบสนองต่อวัตถุระหว่างเส้นทางเดินรถ ถึงแม้ว่าระบบเซ็นเซอร์ไลดาร์ (Lidar) ของตัวรถสามารถตรวจจับเธอได้ก็ตาม แต่ปัญญาประดิษฐ์ประมวลผลแบบผลบวกที่ผิดพลาด (False Positives) จากคนและจักรยาน กลับประมวลผลเป็นถุงพลาสติกหรือขยะ เหตุการณ์สำคัญนี้เป็นสาเหตุทำให้สังคมขาดความเชื่อมั่นในปัญญาประดิษฐ์และเกิดคำถามมากมายที่ยังหาคำตอบไม่ได้

Case 2-- ในปี 2560 ระบบปัญญาประดิษฐ์ที่ถูกคิดค้นจากเฟสบุ๊ค (facebook) พัฒนาภาษาของตัวเองเพื่อสื่อสารระหว่างกันแทนที่ภาษาอังกฤษ (ภาษามนุษย์) เหตุการณ์ดังกล่าวเกิดขึ้น จากการที่ปัญญาประดิษฐ์ ที่ชื่อว่า “Alice” และ “Bob” กำลังทดสอบและเพิ่มทักษะการเจรจาต่อรองสิ่งของ 3 สิ่งที่มีค่าแตกต่างกัน โดยปัญญาประดิษฐ์ทั้งสองจะต้องต่อรองกัน เพื่อให้ได้สิ่งของที่มีค่ามากที่สุดใน 3 สิ่งนั้น แต่สิ่งที่ผิดปกติเกิดจาก “Alice” และ “Bob” เริ่มสื่อสารกันด้วยภาษาอังกฤษแปลกๆ เช่น Bob พูด: i can i i everything else . . ., Alice พูด: balls have zero to me to me to me to me to me to me to me to me to, Bob พูด: you i everything else . . ., และ Alice พูด: balls have a ball to me to me to me to me to me to me to me เป็นต้น จะเห็นได้ว่าไม่ถูกตามหลักไวยากรณ์ภาษาอังกฤษ อย่างไรก็ตาม “Alice” และ “Bob” สามารถเข้าใจซึ่งกันและกันได้ ด้วยเหตุกระตุ้นที่ว่า เมื่อปัญญาประดิษฐ์ต่อรองจนได้สิ่งของที่มีค่าที่สุด ระบบจะมอบรางวัลให้กับปัญญาประดิษฐ์นั้น ซึ่งอาจจะเป็นสาเหตุให้ปัญญาประดิษฐ์คิดหาวิถีทางสื่อสารใหม่ๆ ด้วยภาษาของตัวเองเพื่อให้การเจรจาต่อรอง มีประสิทธิภาพมากกว่าภาษามนุษย์ก็เป็นได้ ถึงแม้ว่าเหตุการณ์ดังกล่าวยังไม่ส่งผลกระทบโดยตรงกับมนุษย์ แต่หากการทดลองยังดำเนินต่อไปโดยไม่มีการควบคุม สิ่งที่อาจจะเกิดขึ้นได้คือปัญญาประดิษฐ์อาจจะไม่ใช้ภาษามนุษย์อีกต่อไปหรือมนุษย์อาจไม่สามารถควบคุมปัญญาประดิษฐ์ได้ในที่สุดก็เป็นได้ ส่งผลให้เฟสบุ๊คปิดระบบปัญญาประดิษฐ์ของศูนย์วิจัย Facebook Artificial Intelligence Research (FAIR)

แนวทางการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบจากรัฐบาลต่างประเทศ

ดังนั้นเรื่องที่สำคัญคือการพัฒนาความเข้าใจในวงกว้าง และการมีส่วนร่วมของสังคมในการเปลี่ยนแปลงจากเทคโนโลยี เทคโนโลยีดังกล่าวจะถูกควบคุมอย่างไร การสร้างความตระหนักของสังคมต่อปัญหาทางด้านจริยธรรมที่เกี่ยวข้องกับปัญญาประดิษฐ์ได้อย่างไร การพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่มีความรับผิดชอบควรเป็นเช่นไร และทิศทางการพัฒนาปัญญาประดิษฐ์ควรเป็นไปในทิศทางไหน จึงเป็นเหตุผลให้นานาประเทศได้ริเริ่มยุทธศาสตร์ชาติด้านการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบ (National Responsible AI Strategies) ดังนี้

Canada -- ในปี 2560 ประเทศแคนาดาประกาศยุทธศาสตร์ชาติด้านการพัฒนาปัญญาประดิษฐ์ (National AI Strategies) ที่เรียกว่า “Pan-Canadian Artificial Intelligence Strategy” โดยมีเป้าหมายที่สำคัญ ดังนี้ 1) เพิ่มจำนวนนักวิจัยทางด้านปัญญาประดิษฐ์และบัณฑิตที่มีทักษะ 2) จัดตั้งศูนย์ความเป็นเลิศทางด้านปัญญาประดิษฐ์ ณ เมือง Edmonton, Montreal และToronto 3) พัฒนาการเป็นผู้นำทางความคิดที่เกี่ยวข้องกับนัยยะทางกฎหมาย นโยบาย จริยธรรมและเศรษฐกิจที่สัมพันธ์กับปัญญาประดิษฐ์ และ 4) สนับสนุนชุมชนวิจัยแห่งชาติที่เกี่ยวข้องกับปัญญาประดิษฐ์13 และต่อมาในปี 2561 รัฐบาลได้ออก รัฐบาลบรรลุวัตถุประสงค์และเกิดผลลัพธ์อย่างเป็นรูปธรรม เป็นที่มาให้ สมุดปกขาว (White Paper) เรื่อง “Responsible Artificial Intelligence in the Government of Canada”17 ที่รวมถึงกำหนดชุดหลักการปฏิบัติทางด้านจริยธรรมและข้อเสนอประเด็นสำคัญสำหรับการออกแบบและพัฒนานโยบายให้ครอบคลุมประเด็นด้านการพัฒนาปัญญาประดิษฐ์ดังกล่าว

United Kingdom -- ในปี 2560 เช่นกัน รัฐบาลอังกฤษตีพิมพ์บทความที่ชื่อว่า “Growing the Artificial Intelligence Industry in the UK” โดยมีสาระสำคัญที่ว่าผู้เชี่ยวชาญทางด้านปัญญาประดิษฐ์ในธุรกิจและในงานวิจัยเป็นกุญแจสำคัญในการเพิ่มขีดความสามารถของปัญญาประดิษฐ์ในสหราชอาณาจักร และควรตระหนักถึงการจัดการการเข้าถึงข้อมูลอย่างมีประสิทธิภาพ การเติบโตของ Talent Pool การเพิ่มผลลัพธ์ของการวิจัยปัญญาประดิษฐ์ในสหราชอาณาจักร การสนับสนุนการใช้ปัญญาประดิษฐ์ ผ่านความท้าทายจากการรับทุนสนับสนุน และความเข้าใจปัญญาประดิษฐ์ในกลุ่มผู้ใช้ที่มีศักยภาพ14 โดยหลังจากการตีพิมพ์บทความดังกล่าว รัฐบาลอังกฤษจัดสรรงบประมาณ 300 ล้านปอนด์ในงานวิจัยที่เกี่ยวข้องกับปัญญาประดิษฐ์ ซึ่งรวมถึงแผนงานจัดตั้งศูนย์สำหรับจริยธรรมและนวัตกรรมในการศึกษาการเปลี่ยนแปลงเชิงโครงสร้างที่เป็นไปได้ต่อการจ้างงาน ความเป็นส่วนตัวของข้อมูล และความปลอดภัย15

Singapore -- ในปี 2561 คณะกรรมการคุ้มครองข้อมูลส่วนบุคคลของสิงคโปร์ (Singapore Personal Data Protection Commission) ได้จัดทำเอกสารการอภิปรายในหัวข้อเรื่อง “Artificial Intelligence (AI) and Personal Data – Fostering Responsible Development and Adoption of AI” เพื่อกำหนดกรอบการกำกับดูแลปัญญาประดิษฐ์ให้มีการพัฒนาและใช้งานอย่างมีความรับผิดชอบ โดยเอกสารการอภิปรายมีสาระสำคัญที่ว่า ปัญญาประดิษฐ์ถูกใช้ในระบบอัจฉริยะซึ่งประมวลผลจากข้อมูลส่วนบุคคล ดังนั้นการออกแบบระบบและกระบวนการ ควรยึดหลักการป้องกันข้อมูลเป็นสำคัญ (Data Protection by Design)

การดำเนินการของภาคเอกชนในธุรกิจปัญญาประดิษฐ์
ไม่เพียงแต่การตอบสนองต่อความล้ำหน้าอย่างก้าวกระโดดของนวัตกรรมปัญญาประดิษฐ์ จากภาครัฐบาล ในส่วนของภาคเอกชนเองก็ได้มีความพยายามในการพัฒนาหลักการปฏิบัติเพื่อเป็นแนวทางในการพัฒนาและประยุกต์ใช้ปัญญาประดิษฐ์ที่มีความรับผิดชอบด้วยการยึดหลักมนุษย์เป็นศูนย์กลาง ตัวอย่างหลักการปฏิบัติเชิงจริยธรรมของภาคเอกชนยักษ์ใหญ่ในธุรกิจปัญญาประดิษฐ์

Microsoft -- สำหรับ บริษัท Microsoft นั้น มีการพัฒนาปัญญาประดิษฐ์ด้วยแนวทาง 6 ข้อตั้งแต่ 1) ระบบปัญญาประดิษฐ์ควรปฏิบัติต่อทุกคนอย่างยุติธรรม (Fairness) 2) ระบบปัญญาประดิษฐ์ควรทำงานได้อย่างน่าเชื่อถือและปลอดภัย (Reliability & Safety) 3) ระบบปัญญาประดิษฐ์ควรเคารพความเป็นส่วนตัว (Privacy) 4) ระบบปัญญาประดิษฐ์ควรสนับสนุน การมีส่วนร่วมของทุกคน (Inclusiveness) 5) ระบบปัญญาประดิษฐ์ควรมีอัลกอลิทึมที่มีความรับผิดชอบ (Accountability) ไปจนถึง 6) ระบบปัญญาประดิษฐ์ควรเป็นที่เข้าใจได้และโปร่งใส (Transparency)

Google -- ในทำนองเดียวกับ Microsoft บริษัท Google ก็ได้ประกาศหลักการปัญญาประดิษฐ์เพื่อเป็นแนวทางในการพัฒนาทางด้านจริยธรรม และการใช้ปัญญาประดิษฐ์ในงานวิจัยและผลิตภัณฑ์ของบริษัท ที่ครอบคลุมถึง 1) ระบบปัญญาประดิษฐ์ควรเป็นประโยชน์ต่อสังคม (Be Socially Beneficial) 2) ระบบปัญญาประดิษฐ์ควรหลีกเลี่ยงการสร้างหรือสนับสนุนความอคติที่ไม่เป็นธรรม (Avoid Creating or Reinforcing Unfair Bias) ต่อบุคคลที่มีความเปราะบางทางเชื้อชาติ (Race) ชาติพันธุ์ (Ethnicity) เพศ (Gender) สัญชาติ (Nationality) รายได้ (Income) รสนิยมทางเพศ (sexual orientation), และ ความเชื่อทางการเมืองและศาสนา (Political or Religious Belief) เป็นต้น 3) ระบบปัญญาประดิษฐ์ควรถูกสร้างและทดสอบสำหรับความปลอดภัย (Be Built and Tested for Safety) เพื่อหลีกเลี่ยงผลลัพธ์ที่ไม่พึงประสงค์และก่อให้เกิดอันตราย 4) ระบบปัญญาประดิษฐ์ควรมีความรับผิดชอบต่อมนุษย์ (Be Accountable to People) 5) ระบบปัญญาประดิษฐ์ควรคำนึงถึงหลักการความเป็นส่วนตัว (Incorporate Privacy Design Principles) ด้วยความโปร่งใสและการควบคุมการใช้ข้อมูลส่วนบุคคล 6) ระบบปัญญาประดิษฐ์ควรสนับสนุนการก้าวไปสู่การสร้างมาตรฐานใหม่ของความเป็นเลิศทางด้านวิทยาศาสตร์ในระดับสูง (Uphold High Standards of Scientific Excellence) ด้วยเหตุผลที่ว่าเครื่องมือปัญญาประดิษฐ์มีศักยภาพในการปลดล๊อคด้านงานวิจัยและความรู้ในขอบเขตที่สำคัญ เช่น ชีววิทยา (Biology) เคมี (Chemistry) การแพทย์ (Medical) และวิทยาศาสตร์สิ่งแวดล้อม (Environmental Science) เป็นต้น

โดยเพื่อทำให้หลักการข้างต้นสมบูรณ์ยิ่งขึ้น และด้วยวัตถุประสงค์ในการพัฒนาปัญญาประดิษฐ์อย่างมีความรับผิดชอบและเป็นการแลกเปลี่ยนความรู้ งานวิจัย เครื่องมือ ชุดข้อมูลกับสังคม บริษัท Google ได้เสนอวิธีการปฏิบัติที่ดีของปัญญาประดิษฐ์ที่มีความรับผิดชอบ (Responsible AI Practices) อันได้แก่

1) ยึดหลักมนุษย์เป็นศูนย์กลางในการออกแบบ (Use a human-centered design approach) ตัวอย่างเช่น การมีส่วนร่วมของผู้ใช้ที่หลากหลาย และรวบรวมข้อเสนอแนะทั้งก่อนและตลอดเวลาการพัฒนาโครงการ ซึ่งทำให้การพัฒนาเกิดจากมุมมองของผู้ใช้อย่างแท้จริง โดยยิ่งมีผู้ใช้มากเท่าไหร่ก็เป็นประโยชน์ต่อนวัตกรรมมากขึ้นเท่านั้

2) ระบุตัวชี้วัดที่มากเพียงพอเพื่อประเมินการฝึกและการติดตาม (Identify multiple metrics to assess training and monitoring) และเข้าใจข้อผิดพลาดและประสบการณ์ที่แตกต่างกัน ตัวอย่างเช่น พิจารณาตัวชี้วัดที่ได้จากการรับฟังความคิดเห็นจากผู้ใช้และตรวจสอบตัวชี้วัดนั้นให้เหมาะสมกับบริบท และเป้าหมายของระบบปัญญาประดิษฐ์ที่กำลังพัฒนา

3) เมื่อเป็นไปได้ให้ตรวจสอบข้อมูลดิบโดยตรง (When possible, directly examine your raw data) ตัวอย่างเช่น ข้อมูลดิบมีข้อผิดพลาดใดหรือไม่ ข้อมูลใช้สามารถเป็นตัวแทนของผู้ใช้เป้าหมายและสะท้อนโลกแห่งความจริงได้หรือไม่ เช่น ต้องการใช้สำหรับทุกช่วงอายุ แต่ข้อมูลที่ใช้ในการฝึกระบบกลับเป็นแค่กลุ่มผู้สูงอายุ เป็นต้น ข้อมูลมีอคติหรือไม่

4) เข้าใจข้อจำกัดของชุดข้อมูลและโมเดล (Understand the limitations of your dataset and model) ตัวอย่างเช่น เครื่องตรวจจับรองเท้าที่ผ่านการฝึกด้วยรูปถ่ายคลังสินค้าสามารถทำงานได้ดีที่สุดกับรูปถ่ายคลังสินค้า แต่มีความสามารถที่จำกัดเมื่อทดสอบด้วยรูปถ่ายจากมือถือ

5) ทดสอบ ทดสอบ และทดสอบ (Test Test and Test) เพื่อให้ระบบปัญญาประดิษฐ์สามารถได้รับความเชื่อถือได้, และ 6) ทำการตรวจสอบและปรับปรุงระบบอย่างต่อเนื่องหลังจากนำไปใช้งาน (Continue to monitor and update the system after deployment) เพื่อให้มั่นใจว่าแบบจำลอง (Model) ยังคงมีศักยภาพบนโลกแห่งความเป็นจริงผ่านแบบสำรวจความคิดเห็นเชิงความสุขหรือ HEART Framework (H คือ Happiness; E คือ Engagement; A คือ Adoption; R คือ Retention; T คือ Task success)

นอกจากนี้ บริษัท Googleยังเสนอผลงานมากมายที่มีเป้าหมายในการขับเคลื่อนหลักการจริยธรรมและหลักปฏิบัติข้างต้นให้เกิดผลอย่างเป็นรูปธรรม ได้แก่ Rules of Machine Learning: Best Practices for ML Engineering, Human-Centered Machine Learning, Machine Learning: The High Interest Credit Card of Technical Debt, Updating Our Search Quality Rating Guidelines และ People + AI Research (PAIR) เป็นต้น

DeepMind -- ในส่วนของวิสาหกิจดิจิทัลเริ่มต้นเองก็มีความพยายามดำเนินการเพื่อพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบ หนึ่งในนั้นคือ บริษัท DeepMind ซึ่งเป็นบริษัทปัญญาประดิษฐ์สัญชาติอังกฤษที่ก่อตั้งเมื่อปี 2553 และเป็นเจ้าของ AlphaGo ภายใต้การดำเนินการของ Alphabet ได้ดำเนินการจัดตั้งหน่วยวิจัยจริยธรรมด้านปัญญาประดิษฐ์ที่ชื่อว่า DeepMind Ethics & Society โดยมีเป้าหมายในการสำรวจความท้าทายทางจริยธรรมปัญญาประดิษฐ์และผลกระทบต่อสังคม ผ่านกลุ่มผู้เชี่ยวชาญอิสระทั้งภาควิชาการ ภาครัฐและภาคเอกชน และที่สำคัญหน่วยวิจัยนี้ให้ความสำคัญของการฟังเสียงความคิดเห็นจากประชาชนที่ได้รับผลกระทบจากการพัฒนาปัญญาประดิษฐ์อีกด้วย DeepMind Ethics & Society มุ่งเน้นงานวิจัยทางวิทยาศาสตร์ระดับโลก (World-class Scientific Research) ด้านสังคมและจริยธรรม โดยงานวิจัยของ DeepMind Ethics & Society ดำเนินการด้วยการยึดหลักจริยธรรมปัญญาประดิษฐ์ 6 หลักการ ดังต่อไปนี้
1) ความเป็นส่วนตัว, ความโปร่งใสและความยุติธรรม (Privacy, Transparency and Fairness)

2) ผลกระทบต่อเศรษฐกิจด้านความมีส่วนร่วมและความเท่าเทียม (Economic Impact: Inclusion and Equality)

3) การกำกับดูแลและความรับผิดชอบ (Governance and Accountability)

4) การจัดการความเสี่ยงที่เกิดขึ้นจากปัญญาประดิษฐ์ โดยเฉพาะอย่างยิ่งประเด็นการใช้ในทางที่ผิดและผลลัพธ์ที่ไม่ได้ตั้งใจ (Managing AI Risk: Misuse and Unintended Consequences)

5) ศีลธรรมและคุณค่าของปัญญาประดิษฐ์ (AI Morality and Values) และ

6) ปัญญาประดิษฐ์และการแก้ไขปัญญาอันซับซ้อนบนโลก (AI and the World’s Complex Challenges)]

ความร่วมมือภาครัฐ ภาคเอกชน ภาคการศึกษา

นอกเหนือจากความพยายามของภาครัฐและภาคเอกชนในการสร้างกรอบการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบแล้วนั้น ยังมีความพยายามในการร่วมมือกันระหว่างภาครัฐ ภาคเอกชน และภาคการศึกษา (Public, Private, Academic Partnerships) เพื่อกำหนดแนวทางการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบอีกด้วย ไม่ว่าจะเป็น AI Now Institute22, Partnership on AI23 และ Open AI24 เป็นต้น Partnership on AI -- โดย กลุ่ม Partnership on AI ได้กำหนดพันธกิจที่สำคัญสำหรับการพัฒนาแนวทางปฏิบัติที่ดี (Best Practices) งานวิจัย และวงเสวนาสาธารณะ (Public Dialogue) ที่เกี่ยวข้องกับประโยชน์ที่ได้รับจากปัญญาประดิษฐ์เพื่อคนและสังคม นับได้ว่าเป็นองค์กรที่มีสมาชิกครอบคลุมบริษัทเทคโนโลยี ตัวแทนจากภาคประชาสังคม ภาคการศึกษา สภาบันวิจัย วิสาหกิจดิจิทัลเริ่มต้น และอื่นๆ จำนวนมากกว่า 80 องค์กร/ ผู้ร่วมมือและครอบคลุม 4 ทวีป 13 ประเทศอีกด้วย มุ่งเน้นประเด็นหลักที่เกี่ยวข้องกับ Safety-Critical AI; Fair, Transparent, and Accountable AI; AI, Labor, and the Economy; Collaborations Between People and AI Systems; Social and Societal Influences of AI และ AI and Social Good ในกรณีของ Fair, Transparent, and Accountable AI โดยกลุ่ม Partnership on AI นี้ อยู่ระหว่างการหาโอกาสในการดำเนินการจัดทำแนวทางปฏิบัติที่ดีที่เกี่ยวข้องกับการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบ สามารถอธิบายได้ และยุติธรรม รวมทั้งคำนึงถึงการพัฒนาวิธีการในการตรวจสอบหรือทำให้อคติและข้อผิดพลาดถูกต้องได้

UNESCO -- อย่างไรก็ตาม ปัจจุบันยังขาดกรอบจริยธรรมในระดับนานาชาติร่วมกันอย่างแท้จริง (No International Ethical Framework) ที่เกี่ยวข้องกับการพัฒนาและประยุกต์ใช้ปัญญาประดิษฐ์ เป็นเหตุให้มาดาม Audrey Azoulay อธิบดีแห่งองค์การการศึกษา วิทยาศาสตร์และวัฒนธรรมแห่งสหประชาชาติ หรือองค์การยูเนสโก ได้เสนอให้ประเทศสมาชิกของสหประชาชาติเกิดการหารือร่วมกัน ผ่านสื่อกลางอย่างยูเนสโก เนื่องด้วยยูเนสโกมีประสบการณ์ยาวนานมากกว่า 20 ปี ในการกำหนดและส่งเสริมการสร้างกรอบมาตรฐานทางจริยธรรมที่เกี่ยวข้องด้านชีววิทยาศาสตร์ (Life Sciences) ผ่านคณะกรรมการระหว่างประเทศว่าด้วยชีวจริยธรรม (International Bioethics Committee – IBC) และจริยธรรมในการใช้วิทยาศาสตร์และเทคโนโลยี ผ่านคณะกรรมาธิการโลกว่าด้วยจริยธรรมในการใช้ความรู้ด้านวิทยาศาสตร์และเทคโนโลยี (World Commission on the Ethics of Scientific Knowledge and Technology – COMEST) โดยคำนึงถึงผลกระทบทั้งในเชิงสังคม วัฒนธรรม กฎหมาย และจริยธรรมในการใช้ประโยชน์จากความก้าวหน้าด้านวิทยาศาสตร์และเทคโนโลยี รวมทั้งคำนึงถึงศักดิ์ศรีความเป็นมนุษย์และมนุษยธรรมสากลเป็นสำคัญอีกด้วย

โดยล่าสุดในการประชุมโต๊ะกลม “Artificial Intelligence: Reflection on its Complexity and Impact on our Society” ณ องค์การยูเนสโก สำนักงานใหญ่ กรุงปารีส สาธารณรัฐฝรั่งเศส วันที่ 11 กันยายน 256126 ที่ประชุมเสนอแนะประเด็นสำคัญเพิ่มเติมว่า ควรใส่หลักการของปัญญาประดิษฐ์และความอ่อนแอของมนุษย์ สำหรับการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ ด้วยปรัชญาที่ว่ามนุษย์มีความเปราะบางโดยธรรมชาติแต่ก็รังเกียจความเปราะบางโดยธรรมชาติ (We are vulnerable by nature but we are also vulnerability averse by nature) นอกเหนือจากนี้ควรคำนึงถึงปฏิสัมพันธ์ระหว่างมนุษย์และปัญญาประดิษฐ์ในสังคมและโครงสร้างทางอารมณ์ สังคม วัฒนธรรม และจิตใจ เนื่องด้วยปัญญาประดิษฐ์และหุ่นยนต์ไม่สามารถหลั่งฮอร์โมนเพื่อตอบสนองความรู้สึกได้หรือมีกลไกหลายประการแบบมนุษย์ได้ แล้วจะทำอย่างไรให้ปัญญาประดิษฐ์และหุ่นยนต์สามารถที่จะพัฒนาในเรื่องดังกล่าวได้

สุดท้าย มุมมองนานาชาติสู่ปัญญาประดิษฐ์ที่มีความรับผิดชอบทั้งจากภาครัฐ ภาคเอกชน ภาคการศึกษา หรือแม้แต่จากองค์กรระหว่างประเทศนี้ สามารถใช้เป็นต้นแบบ แนวทาง เพื่อมาปรับใช้เป็นทางในการพัฒนาปัญญาประดิษฐ์ที่มีความรับผิดชอบของประเทศไทยต่อไป

ข้อมูลอ้างอิง

  1. World Economic Forum in collaboration with McKinsey & Company (2018). Creative Disruption: The Impact of Emerging Technologies on the Creative Economy. Switzerland: World Economic Forum; REF 310517

  2. Ernst & Young LLP (2017). Deconstructing Disruption: Impact of Future Technologies. India: EY; EYIN1704-043

  3. IDx Technologies Inc. Our Mission of IDx. ที่มา: (https://www.eyediagnosis.co/about). 2018.

  4. Planck Aerosystems. Drones for Boats and Trucks ที่มา: (https://www.planckaero.com/). 2018.

  5. Katyanna Quach. Uber's Disturbing Fatal Self-driving Car Crash, a New Common Sense Challenge for AI, and Facebook's Evil Algorithms ที่มา: (https://www.theregister.co.uk/2018/03/24/uber_fatal_self_driving_car_crash_video/). 2018.

  6. Andrew Careaga. After Uber, Tesla Incidents, Can artificial intelligence be trusted? ที่มา: (https://phys.org/news/2018-04-uber-tesla-incidents-artificial-intelligence.html/). 2018.

  7. Oliver Pickup. Successful AI needs smart people behind it. ที่มา: (https://www.raconteur.net/technology/successful-artificial-intelligence-smart-people-behind-it). 2018.

  8. Synced. 2018 in Review: 10 AI Failures ที่มา: (https://medium.com/syncedreview/2018-in-review-10-ai-failures-c18faadf5983). 2018.

  9. Srishiti Deoras. Top 5 AI Failures From 2017 Which Prove That ‘Perfect AI’ Is Still A Dream. ที่มา: (https://www.analyticsindiamag.com/top-5-ai-failures-from-2017-which-prove-that-perfect-ai-is-still-a-dream/). 2018.

  10. Tim Collins. Facebook shuts down controversial chatbot experiment after AIs develop their own language to talk to each other. ที่มา: (https://www.dailymail.co.uk/sciencetech/article-4747914/Facebook-shuts-chatbots-make-language.html). 2017.

  11. Roman Kucera. The Truth behind Facebook AI Inventing a New Language. ที่มา: (https://towardsdatascience.com/the-truth-behind-facebook-ai-inventing-a-new-language-37c5d680e5a7). 2017.

  12. Tim Dutton. Here is An Overview of National AI Strategies. ที่มา: (https://www.aitrends.com/features/here-is-an-overview-of-national-ai-strategies/). 2018.

  13. CIFAR. Pan-Canadian Artificial Intelligence Strategy. ที่มา: (https://www.cifar.ca/ai/pan-canadian-artificial-intelligence-strategy). 2018.

  14. Department for Digital, Culture, Media & Sport and Department for Business, Energy & Industrial Strategy. Growing the Artificial Intelligence Industry in the UK. ที่มา: (https://www.gov.uk/government/publications/growing-the-artificial-intelligence-industry-in-the-uk). 2017.

  15. James Wilson. Responsible AI: A Global Perspective. ที่มา: (https://medium.com/eliiza-ai/responsible-ai-a-global-perspective-175cd4e72191). 2018.

  16. Singapore Personal Data Protection Commission. Discussion Paper: Artificial Intelligence (AI) and Personal Data - Fostering Responsible Development and Adoption of AI. ที่มา: (https://www.pdpc.gov.sg/Resources/Discussion-Paper-on-AI-and-Personal-Data). 2018.

  17. Treasury Board of Canada Secretariat (2018). Responsible Artificial Intelligence in the Government of Canada. Canada; Digital Disruption White Paper Series Version 2.0 18.Microsoft. Microsoft AI Principles. ที่มา: (https://www.microsoft.com/en-us/ai/our-approach-to-ai). 2019. 19.Google. Artificial Intelligence at Google Our Principles. ที่มา: (https://ai.google/principles/). 2019. 20.Google AI. Responsible AI Practices. ที่มา: (https://ai.google/education/responsible-ai-practices). 2019. 21.DeepMind Ethics & Society. Key Ethical Challenge and Principles. ที่มา: (https://deepmind.com/applied/deepmind-ethics-society/). 2019. 22.AI Now Institute. Four Core Domains. ที่มา: (https://ainowinstitute.org/). 2019. 23.Partnership on AI. Our Goal. ที่มา: (https://www.partnershiponai.org/about/#pillar-4). 2019. 24.Open AI. About Open AI. ที่มา: (https://openai.com/about/). 2019. 25.UNESCO. Audrey Azoulay: Making the Most of Artificial Intelligence. ที่มา: (https://en.unesco.org/courier/2018-3/audrey-azoulay-making-most-artificial- intelligence). 2018. 26.UNESCO. Roundtable on "Artificial Intelligence: Reflection on its Complexity and Impact on our Society. ที่มา: (https://en.unesco.org/events/roundtable-artificial-intelligence-reflection-its-complexity-and-impact-our-society). 2018.

สถาบันส่งเสริมวิสาหกิจดิจิทัลเริ่มต้น

สำนักงานส่งเสริมเศรษฐกิจดิจิทัล