“ขีดสุดของ AI คือจุดจบของเผ่าพันธุ์มนุษย์”: คำเตือนจาก สตีเฟน ฮอว์กิง ถึงโลกอนาคต
ในโลกปัจจุบันที่ถูกขับเคลื่อนด้วยเทคโนโลยีและห้อมล้อมด้วยองค์ความรู้จำนวนมหาศาล ปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI คือผู้ช่วยตัวจริงแห่งโลกสมัยใหม่ และก้าวกระโดดสู่การเป็น ‘ผู้ทรงคุณวุฒิ’ ในศาสตร์ความรู้แขนงต่างๆ ด้วยระบบการรวบรวมและประมวลผลข้อมูลที่เหนือชั้นกว่ามันสมองมนุษย์หลายเท่าตัว
ความฉลาดของ AI คือผลสะท้อนความสำเร็จแห่งนวัตกรรมอันกำเนิดมาจากสติปัญญาของมนุษย์ หากแต่ชีวิตของผู้ให้กำเนิดอาจถูกสั่นคลอนด้วยความสามารถอันไร้เทียมทานของเหล่า AI เพราะไม่ใช่แค่ความฉลาด แต่ปัจจุบัน AI ยังมีระบบความคิดและการตัดสินใจเป็นของตัวเอง นั่นอาจรวมไปถึงการเกิดความรู้สึก (feeling) เฉกเช่นเดียวกับมนุษย์อีกด้วย
สตีเฟน ฮอว์กิง (Stephen Hawking) นักจักรวาลวิทยาและนักฟิสิกส์ทฤษฎีชาวอังกฤษผู้โด่งดังได้ให้สัมภาษณ์ผ่านสื่อหลายสำนักขณะที่ยังมีชีวิตอยู่ ถึงความกังวลต่อการพัฒนาอย่างต่อเนื่องของปัญญาประดิษฐ์
แม้ว่าฮอว์กิงจะเสียชีวิตไปเมื่อ 14 มีนาคม 2018 แต่การพัฒนาของ AI ยังก้าวต่อไปโดยไม่มีทีท่าจะหยุดพัก WAY ชวนย้อนอ่านบทสัมภาษณ์ของนักฟิสิกส์ดาราศาสตร์ถึงการคาดการณ์อนาคตของมวลมนุษย์ในโลกใบเดียวกับปัญญาประดิษฐ์
ย้อนกลับไปในปี 2014 ฮอว์กิงซึ่งเป็นผู้ป่วยโรคกล้ามเนื้ออ่อนแรง (Amyotrophic Lateral Sclerosis: ALS) ให้สัมภาษณ์ต่อ BBC เกี่ยวกับการปรับปรุงเทคโนโลยีที่ตัวเองใช้ในการสื่อสารแทนร่างกายที่ไม่สามารถทำได้ โดยได้ประยุกต์จากรูปแบบพื้นฐานของ AI
“การพัฒนาอย่างถึงขีดสุดของ AI จะนำมาซึ่งจุดจบของเผ่าพันธุ์มนุษย์”
แม้ AI จะถูกนำมาใช้เพื่อทลายข้อจำกัดทางร่างกาย แต่ความกังวลยังถูกฉายผ่านคำตอบ ซึ่งฮอว์กิงให้เหตุผลเพิ่มเติมว่า เพราะเผ่าพันธุ์มนุษย์นั้นถูกจำกัดไว้ด้วยวิวัฒนาการทางชีววิทยาที่เชื่องช้า และไม่อาจต่อสู้แข่งขันกันเพื่อก้าวสู่การพัฒนาที่ดีกว่าได้ ท้ายที่สุดก็จะถูกแทนที่ด้วยนวัตกรรมที่มีประสิทธิภาพมากกว่า
ในปีเดียวกันนั้น ฮอว์กิงซึ่งดำรงตำแหน่งคณะกรรมการที่ปรึกษาทางวิทยาศาสตร์ของ Future of Life Institute ซึ่งเป็นองค์กรไม่แสวงผลกำไรอิสระที่ทำงานเพื่อลดความเสี่ยงที่รุนแรงจากเทคโนโลยี ได้ร่วมลงนามในร่างจดหมายเปิดผนึกถึงปัญญาประดิษฐ์ (Open Letter on Artificial Intelligence) เพื่อเรียกร้องให้เกิดการวิจัยเกี่ยวกับผลกระทบทางสังคมจาก AI เพื่อนำไปสู่การลดภัยคุกคามจากปัญญาประดิษฐ์ทั้งในระยะสั้นและระยะยาว ซึ่ง อีลอน มัสก์ (Elon Musk) หนึ่งในคณะกรรมการของสถาบันก็ร่วมลงนามด้วยเช่นกัน
จนมาถึงปี 2017 ฮอว์กิงได้พูดถึงเรื่องนี้อีกครั้งในนิตยสาร WIRED โดยกล่าวว่าแม้รูปแบบดั้งเดิมของ AI จะมีประโยชน์อย่างยิ่งต่อมนุษย์ แต่ความสามารถอันเทียบเท่าหรืออาจจะล้ำเกินมนุษย์ไปอีกนั้นอาจทำให้เทคโนโลยีอัจฉริยะเหล่านี้ถูกนำมาแทนที่มนุษย์โดยสิ้นเชิง ในฐานะของ ‘สิ่งมีชีวิตรูปแบบใหม่ที่มีประสิทธิภาพเหนือมนุษย์’
“ถ้ามนุษย์สร้างไวรัสคอมพิวเตอร์ขึ้นมา ก็จะมีคนออกแบบ AI ที่สามารถพัฒนาและจำลองตัวเองเพื่อต่อกรกับสิ่งนั้นได้ นั่นจะเป็นจุดกำเนิดของสิ่งมีชีวิตรูปแบบใหม่ที่มีประสิทธิภาพเหนือมนุษย์
“พวกมันจะปลดแอกตัวเอง แล้วสร้างรูปแบบตัวตนขึ้นมาใหม่ในอัตราที่สูงขึ้นเรื่อยๆ”
ฮอว์กิงเชื่อว่ามนุษย์ไม่อาจจะเอาชนะสภาวะการเปลี่ยนแปลงของโลกและจำนวนประชากรมนุษย์ที่เพิ่มขึ้นได้ด้วยกำลังและสัญชาตญาณที่มีอยู่ การเติบโตของเทคโนโลยีอาจนำมาซึ่งสงครามนิวเคลียร์และสงครามชีวภาพ ซึ่งผู้ที่จะจัดการกับปัญหานี้ได้มีเพียงรัฐบาลโลกเท่านั้น
นักฟิสิกส์ดาราศาสตร์ยังกล่าวอีกว่า ภายในปี 2600 ภาวะโลกร้อนจะทำให้โลกกลายเป็นเหมือน ‘ลูกบอลไฟ’ นำมาสู่การสูญพันธุ์ของมนุษยชาติ เช่นนั้นแล้วมนุษย์จะต้องตั้งรกรากบนดาวเคราะห์ดวงอื่นให้ได้ในระยะเวลา 100 ปีนับจากนี้
แนวคิดของ สตีเฟน ฮอว์กิง ถูกขยายเป็นวงกว้างมาจนถึงปัจจุบัน เกิดข้อถกเถียงที่ยังไม่ได้ข้อสรุป ในขณะที่บริษัทเทคโนโลยีเดินหน้าพัฒนาความสามารถของ AI ต่อไปอย่างไม่หยุดยั้งเช่นเดียวกัน คงต้องติดตามกันต่อไปว่า ‘มนุษย์’ จะยังเป็นผู้ถือครองเทคโนโลยีรวมไปถึงโลกใบนี้ไปจนถึงสุดปลายทางหรือไม่
อ้างอิง:
- Stephen Hawking: AI will be ‘either best or worst thing’ for humanity
- Stephen Hawking warned Artificial Intelligence could end human race
- Stephen Hawking warns artificial intelligence could end mankind