แม้ว่าชื่อเรื่องจะดูเหมือนนิยายวิทยาศาสตร์สำหรับคนที่ไม่ค่อยเกี่ยวข้องกับเทคโนโลยี แต่ปัญญาประดิษฐ์จะนำไปสู่การสูญพันธุ์ของมนุษยชาติหากไม่ควบคุมดูแล
หลังจากในเดือนเมษายน 2023 Elon Musk และผู้เชี่ยวชาญด้านเทคโนโลยีคนอื่นๆ อันตรายทั่วไปที่ปัญญาประดิษฐ์สามารถสร้างขึ้นได้ ในระดับสังคม ก็ถึงคิวของซีอีโอของบริษัทที่ใหญ่ที่สุดที่พัฒนาปัญญาประดิษฐ์เพื่อส่งสัญญาณเตือนภัยผ่านจดหมายเปิดผนึก
ในบรรดาผู้ลงนาม 350 คนในจดหมายเปิดผนึกที่เปิดตัวโดยองค์กรไม่แสวงหาผลกำไร "Center For AI Safety"(CAIS) รวมถึง: Sam Altman ซีอีโอของบริษัท OpenAIหัวหน้า บริษัท AI DeepMind, Antrophic แต่ยังรวมถึงผู้บริหารจากบริษัท Microsoft, Google ซึ่งพัฒนาภาษาปัญญาประดิษฐ์ในวงกว้างด้วย
พวกเขาเข้าร่วมกลุ่มนักวิจัยและอาจารย์ในสาขาเพื่อแสดงออก ความกังวลว่าปัญญาประดิษฐ์อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติ หากผู้มีอำนาจตัดสินใจทางการเมืองไม่จริงจังกับปัญหานี้
จดหมายเปิดผนึกระบุว่าผลกระทบของปัญญาประดิษฐ์ที่ไม่ได้รับการควบคุมในระดับโลกสามารถสร้างความเสียหายได้มากพอๆ กับสงครามนิวเคลียร์หรือโรคระบาดที่อยู่นอกเหนือการควบคุม
ปัญญาประดิษฐ์จะนำไปสู่การสูญพันธุ์ของมนุษยชาติหรือไม่?
เป็นไปได้มากว่าผู้มีอำนาจตัดสินใจจะตื่นทันเวลาและมองหาแนวทางแก้ไขเพื่อควบคุมขั้นตอนอันยิ่งใหญ่นี้ที่ดำเนินการโดยเทคโนโลยี แน่นอน ก่อนตัดสินใจ พวกเขาต้องตระหนักว่าอะไรคือความเสี่ยงที่มาพร้อมกับประโยชน์ของปัญญาประดิษฐ์
ปัญญาประดิษฐ์ไม่ได้หมายถึง ChatGPT, Microsoft 365 Copilot หรือ Google Bard. Modeleles ปัญญาประดิษฐ์เชิงกำเนิดถูกนำมาใช้ใน ยาการวิจัย วิทยาการหุ่นยนต์และระบบอัตโนมัติ การศึกษา การเงิน การพาณิชย์ และสาขาอื่นๆ อีกมากมายที่เป็นประโยชน์อย่างแท้จริง
AI มันยังสามารถนำมาใช้เพื่อวัตถุประสงค์ในการทำลายล้างอีกด้วย และเกี่ยวข้องกับแง่มุมนี้คือความกลัวว่าปัญญาประดิษฐ์จะนำไปสู่การสูญพันธุ์ของมนุษยชาติ การชักใยในสังคมโดยมีจุดประสงค์เพื่อสร้างความตึงเครียดในหมู่มวลชน ไปจนถึงการพัฒนาอาวุธอัจฉริยะที่มีความสามารถเหนือสติปัญญาของมนุษย์และตัดสินใจได้เองโดยอิสระ เป็นเทคโนโลยีที่สามารถเรียนรู้ได้ด้วยตัวเอง ประเมินสถานการณ์ และลงมือทำ
ปัญหาที่ใหญ่ที่สุดก็คือ modeเลส์ภาษากว้างๆ ของ AI (LLM) ใช้ได้กับทุกคน
ปฏิกิริยานิวเคลียร์ฟิชชันเป็นก้าวสำคัญสำหรับมนุษยชาติซึ่งนำมาซึ่งทั้งประโยชน์และอันตรายที่สำคัญ พลังงานที่เกิดจากการแตกตัวของนิวเคลียร์เป็นทรัพยากรมหาศาลและเป็นประโยชน์อย่างแท้จริง ในขณะที่อาวุธนิวเคลียร์อาจเป็นหายนะต่อมนุษยชาติ ในทางกลับกัน เชื้อเพลิงนิวเคลียร์ไม่ได้อยู่ในมือของทุกคนเหมือนที่เป็นอยู่ modeปัญญาประดิษฐ์ ยูเรเนียม (U-235) หรือพลูโตเนียม-239 จะไม่มีใครค้นพบได้ง่ายเท่ากับการค้นหาคอมพิวเตอร์ที่สามารถรัน Python ได้
อย่างไรก็ตาม มีสิ่งหนึ่งที่แน่นอน ปัญญาประดิษฐ์จะนำไปสู่การสูญพันธุ์ของมนุษยชาติเฉพาะในกรณีที่มนุษยชาติจะอนุญาตเท่านั้น หากพลังแห่งธรรมชาติไม่สามารถควบคุมโดยมนุษย์ได้ ปัญญาประดิษฐ์ก็ยังสามารถควบคุมได้ (ฉันหวังว่า)