Black Box ปริศนา AI ที่อธิบายยาก!?!  

เนื้อหา ภาพ วิดีโอ  สร้างได้อย่างไร?        

รถไร้คนขับมีอุบัติเหตุ ตัดสินใจยังไง?

ทำไมปล่อยกู้ได้อย่างมีประสิทธิภาพ?

เวลาได้ยินคำว่า “Black Box” หรือ “กล่องดำ” คนทั่วไปมักจะคิดถึงเวลาเครื่องบินตกแล้วไปค้นหาสาเหตุของปัญหาจาก “กล่องดำ”

สำหรับ Black Box ในแวดวง AI จะหมายถึงระบบการทำงานของ AI ที่ได้ผลลัพธ์เป็นคำตอบที่แม้แต่ผู้สร้าง AI ก็ไม่เข้าใจอย่างถ่องแท้ว่า ทำไมถึงเป็นเช่นนั้น?!?

Black Box มักจะเกิดกับโมเดลแบบ Deep Learning เพราะมีขบวนการทำงานที่ซับซ้อน มีการกลั่นกรองข้อมูลหลายชั้น มีการเชื่อมต่อของข้อมูลมากมาย อาจมีพารามิเตอร์นับล้านตัว มีตัวแปรหลายอย่างที่เอามาพิจารณาร่วมกัน

เมื่อ AI ให้ผลลัพธ์มา มันยากต่อการทำความเข้าใจคำตอบ ไม่รู้เหตุผลเกี่ยวกับน้ำหนักและการเชื่อมต่อของแต่ละส่วนที่ส่งผลต่อผลลัพธ์สุดท้าย ไม่รู้ว่ามีที่มาอย่างไร มนุษย์ผู้สร้างไม่สามารถตีความได้ง่าย และปริศนาที่อธิบายได้ยากเหล่านี้ จะเรียกว่า “ปัญหากล่องดำ”

มีตัวอย่าง Black Box Problem ที่อธิบายได้ยากหรืออธิบายไม่ได้เลย เช่น

-AlphaGo’s Move 37: DeepMind บริษัทในเครือกูเกิล สร้าง AlphaGo ซึ่งเป็น AI ที่สามารถเล่นเกมโกะ หรือ หมากล้อม ในการแข่งขันกับ Lee Sedol แชมป์โลกเกมโกะ ในการเดินหมากตาที่ 37 เป็นการเดินที่แหวกแนว ผู้คนที่สังเกตการณ์และรวมถึงนักพัฒนาที่เป็นผู้สร้าง ต่างก็รู้สึกประหลาดใจกับการเดินหมากตานี้อย่างมาก แต่ในที่สุด AlphaGo ก็เป็นผู้ชนะ เหตุผลที่อยู่เบื้องหลังในการเดินครั้งที่ 37 นี้ ยังเป็นเรื่องยากสำหรับมนุษย์ที่จะเข้าใจ

-Generative AI: AI สร้างข้อความ, AI สร้างภาพ, AI สร้างวิดีโอ ใช้โมเดล Deep Learning ทั้งนั้น สิ่งที่ทำออกมาดูสมจริงมาก แต่ไม่สามารถอธิบายให้ชัดเจนว่าได้ผลลัพธ์ออกมาอย่างไร ส่งผลทำให้ควบคุมสิ่งที่ AI จะผลิตออกมาได้ยาก

-Autonomous Vehicles: รถไร้คนขับอาศัยอัลกอริธึม AI ที่ซับซ้อนในการตัดสินใจเกี่ยวกับ การนำทาง การตรวจจับสิ่งกีดขวง การจัดการกับการจราจร และในยามที่เกิดอุบัติเหตุซึ่งมีความเกี่ยวข้องกับรถไร้คนขับ ยังมีหลายประเด็นที่นักพัฒนาไม่เข้าใจว่า AI มีขบวนการตัดสินใจอย่างไร เลยกลายเป็นปัญหากล่องดำที่หาสาเหตุของอุบัติเหตุได้ยาก

-AI in Finance: มีการนำ AI มาช่วยทำงานทางด้านการเงินต่างๆ เช่น การตรวจจับการฉ้อโกง การตรวจจับการซื้อขายด้วยอัลกอริทึม และสิ่งที่เป็นเรื่องน่าทึ่งและน่าข้องใจกันมาก คือ การใช้ AI มาช่วยพิจารณาให้เครดิต มันทำให้หนี้เสียลดลงกว่าตอนที่ใช้ผู้เชี่ยวชาญที่เป็นคน ถ้าเป็นคนจะพิจารณาให้เครดิตโดยดูจากปัจจัยหลัก 5 เรื่อง คือ นิสัยส่วนตัว สภาพเศรษฐกิจ ความสามารถในการหาเงิน เงินทุน หลักทรัพย์ค้ำประกัน แต่เวลา AI พิจารณาให้เครดิต มันศึกษาจากปัจจัยต่างๆหลายร้อยรายการ บางปัจจัยก็อธิบายความเกี่ยวข้องกับการให้เครดิตได้ยาก เช่น ใช้แอปอะไรบ้าง เล่นเกมบ่อยแค่ไหน ใช้เวลากับอะไร แม้แต่ตอนที่มาขอเครดิตแบตเตอรี่มือถือเหลืออยู่แค่ไหนก็เอามาพิจารณาร่วมด้วย นักพัฒนาไม่รู้แน่ชัดว่า AI ให้น้ำหนักกับแต่ละปัจจัยอย่างไร และทำไมถึงเป็นเช่นนั้น?

ยังมีตัวอย่างปัญหากล่องดำที่ยากจะอธิบายอีกหลายเรื่อง เช่น

-AI ในระบบตุลาการ

-AI ในระบบรักษาความปลอดภัยทางไซเบอร์

-AI ในระบบให้คำแนะนำ (Netflix, Amazon, YouTube, TikTok)

-AI ในเกม

-AI นักรังสีวิทยา  

-ความอคติทางเพศและเชื้อชาติในระบบ AI

บุคคลที่มีชื่อเสียงในแวดวงเทคโนโลยีโลกหลายคน แสดงความกังวลเกี่ยวกับปัญหากล่องดำ มีการเน้นย้ำให้เห็นถึงความเสี่ยงและอันตรายที่อาจเกิดขึ้น เพราะความไม่โปร่งใส หรือความไม่เข้าใจ AI อย่างแท้จริง

อันตรายที่อาจเกิดขึ้นจากปัญหากล่องดำ เช่น ขาดความรับผิดชอบ อคติและการเลือกปฏิบัติ ไร้จริยธรรม ไม่ปลอดภัย ไม่น่าเชื่อถือ

อีลอน มัสก์ ที่มักจะออกมาแสดงความคิดเห็นด้านลบเกี่ยวกับ AI อย่างรุนแรง ให้เหตุผลว่า การขาดความเข้าใจ อาจนำไปสู่อุบัติเหตุ หรือการวินิจฉัยที่ผิดพลาด และส่งผลกระทบอย่างร้ายแรงต่อมนุษย์

มนุษย์กำลังสร้างเครื่องจักรที่ไม่รู้แน่ชัดว่า มันทำงานอย่างไรแน่?

AI จะกลายเป็นอสูรร้ายที่แว้งกลับมาทำร้ายมนุษย์ผู้สร้างมันหรือเปล่า?

Leave a Reply