หุ่นยนต์AIพัฒนาความมีอคติได้เหมือนคน มันจะเลือกให้รางวัลกับพวกเดียวกันก่อน ถ้ามันไม่ชอบหน้ามนุษย์ จะเกิดอะไรขึ้น?

มีงานวิจัยล่าสุดที่ตีพิมพ์ใน Scientific Reports โดยผู้เชี่ยวชาญวิทยาศาสตร์คอมพิวเตอร์และจิตวิทยาจาก Cardiff University และ MIT มีข้อสรุปว่า…

หุ่นยนต์เอไอสามารถพัฒนาการเรียนรู้ที่สร้างอคติได้เหมือนมนุษย์

ที่ผ่านมา มีคอมพิวเตอร์อัลกอริทึมที่แสดงให้เห็นความมีอคติของ AI อยู่แล้ว มันสามารถเรียนรู้ความมีอคติหลายอย่างได้ เช่น เชื้อชาติ เพศ แต่การเรียนรู้ดังกล่าวเกิดจากข้อมูลที่มนุษย์ป้อนให้ รวมถึงข้อมูลที่แสดงให้เห็นอยู่ในสาธารณะทั่วไป

แต่ผลการวิจัยในคราวนี้พบว่า มีความเป็นไปได้ที่ AI สามารถพัฒนาการเรียนรู้ถึงกลุ่มที่มันจะมีอคติได้ด้วยตัวมันเอง

AI ที่เป็น Deep Learning มีระบบการเรียนรู้และทำงานจากข้อมูลที่แตกต่างกันจำนวนมาก ไม่มีการสั่งให้มันทำงานแบบเป็นลำดับขั้นชัดเจน

นักวิจัยได้ทดลองเล่นเกม “Give and Take” หรือ “การให้และการรับ” ปล่อยให้ AI แต่ละตัวตัดสินใจเองว่า จะให้รางวัลกับพวกที่อยู่ภายในกลุ่ม หรือพวกที่มีความแตกต่างกันนอกกลุ่ม

ผลการทดลองหลายพันครั้งปรากฏชัดเจนว่า มันเลือกที่จะให้รางวัลกับพวกเดียวกันมากกว่า

การทดลองดังกล่าว ใช้แบบจำลองในคอมพิวเตอร์เสมือนจริง ไม่ได้เอาหุ่นยนต์จริงมาทดลองจริง แต่ถ้าเอา AI ใส่เข้าไปในหุ่นยนต์แต่ละตัว มันก็จะมีวิธีคิดและการตัดสินใจเหมือน AI ในคอมพิวเตอร์

การทดลองคราวนี้ แค่ให้มันเล่นเกมเท่านั้น แต่ผลการวิจัยก็ดูน่าหวาดหวั่นมาก

ถ้าหุ่นยนต์เกิดมีอคติไม่ชอบหน้ามนุษย์ขึ้นมา เห็นว่าไม่ใช่เป็นพวกเดียวกับมัน จะเกิดอะไรขึ้น?

มันจะมีความเคารพมนุษย์ในฐานะผู้สร้างเหมือนเป็นพระเจ้าของมันหรือเปล่า?

Robots can develop prejudices just like humans

https://www.eurekalert.org/pub_releases/2018-09/cu-car090618.php

.

Leave a Reply