ผู้เชี่ยวชาญ ซึ่งรวมถึงซีอีโอของโอเพนเอไอ (OpenAI) และ กูเกิล ดีปมายด์ (Google Deepmind) กล่าวเตือนว่า ปัญญาประดิษฐ์ หรือ เอไอ อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติ ผ่านแถลงการณ์ที่เผยแพร่บนหน้าเว็บของศูนย์ความปลอดภัยเอไอ
แถลงการณ์ระบุว่า "การลดความเสี่ยงต่อการสูญพันธุ์ของมนุษย์จากเอไอ ควรมีความสำคัญระดับโลกควบคู่ไปกับความเสี่ยงอื่นๆ ในระดับสังคม เช่น โรคระบาดและสงครามนิวเคลียร์" 

แซม อัลต์แมน ประธานเจ้าหน้าที่บริหารของ โอเพนเอไอ ผู้พัฒนา "แชตจีพีที" (ChatGPT) เดอมิส ฮาสซาบิส ประธานเจ้าหน้าที่บริหารของกูเกิล ดีปมายด์ และ ดาริโอ อาโมเด จาก "แอนโทรปิก" (Anthropic) ต่างแสดงการสนับสนุนคำกล่าวนี้ หลังเว็บไซต์ของศูนย์ความปลอดภัยเอไอ กล่าวเตือนถึงหายนะที่อาจเกิดขึ้น เช่น เอไอสามารถใช้เป็นอาวุธได้ เช่น

- เครื่องมือในการค้นพบยาสามารถใช้สร้างอาวุธเคมีได้

- ข้อมูลที่ผิดที่สร้างขึ้นโดยเอไอ อาจทำให้สังคมสั่นคลอน และ "บั่นทอนการตัดสินใจร่วมกัน

- พลังของเอไอ อาจกระจุกตัวอยู่ในกลุ่มคนที่น้อยลงเรื่อยๆ ทำให้รัฐบาลของประเทศต่างๆ บังคับใช้ค่านิยมแคบๆ ผ่านการสอดแนมที่แพร่หลายและการเซนเซอร์ที่กดขี่"

- การทำให้มนุษย์อ่อนแอลง ทำให้มนุษย์ต้องพึ่งพาเอไอ คล้ายกับสถานการณ์ที่ปรากฏในภาพยนตร์เรื่อง "Wall-E"

ดร.เจฟฟรีย์ ฮินตัน ซึ่งออกคำเตือนก่อนหน้านี้เกี่ยวกับความเสี่ยงจากเอไออัจฉริยะขั้นสูง ได้สนับสนุนการเรียกร้องของศูนย์ฯ เพื่อความปลอดภัยของเอไอด้วย เช่นเดียวกับ โยชัว เบนจิโอ ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์แห่งมหาวิทยาลัยมอนทรีออล ก็ลงนามเช่นกัน

ผู้เชี่ยวชาญหลายคนเชื่อในทำนองเดียวกันว่า ความกลัวที่ว่าเอไอจะกำจัดมนุษยชาตินั้นไม่เป็นความจริง และเป็นการหันเหความสนใจจากปัญหาต่างๆ เช่น อคติในระบบที่เป็นปัญหาอยู่แล้ว

...

อาร์วินด์ นารายานัน นักวิทยาศาสตร์คอมพิวเตอร์แห่งมหาวิทยาลัยพรินซ์ตันในสหรัฐฯ ว่า สถานการณ์ภัยพิบัติที่เหมือนไซไฟนั้นไม่สมจริง "เอไอในปัจจุบันไม่มีความสามารถเพียงพอที่จะให้ความเสี่ยงเหล่านี้เกิดขึ้นจริง ผลก็คือ เรื่องนี้ได้หันเหความสนใจไปจากอันตรายในระยะอันใกล้ของเอไอ"

ด้าน เอลิซาเบธ เรเนริส นักวิจัยอาวุโสจากสถาบันจริยธรรมเอไอ มหาวิทยาลัยออกซ์ฟอร์ด กล่าวว่า "ความก้าวหน้าของเอไอ จะขยายขอบเขตของการตัดสินใจโดยอัตโนมัติที่มีความลำเอียง เลือกปฏิบัติ กีดกัน หรือไม่ยุติธรรม ในขณะเดียวกันก็ไม่อาจเข้าใจได้และไม่สามารถโต้แย้งได้" นอกจากนั้น มันอาจจะ "ผลักดันให้ปริมาณและการแพร่กระจายของข้อมูลที่ผิดเพิ่มขึ้นแบบทวีคูณ ซึ่งจะทำให้เกิดรอยร้าวต่อความเป็นจริง และนำไปสู่ความไม่ไว้วางใจของสาธารณชน และผลักดันให้เกิดความไม่เท่าเทียมกันมากขึ้น โดยเฉพาะอย่างยิ่ง สำหรับผู้ที่ยังคงอยู่ในด้านที่ไม่ถูกต้องของการแบ่งแยกทางดิจิทัล"

แต่ แดน เฮนดริกส์ ผู้อำนวยการศูนย์ความปลอดภัยเอไอ กล่าวว่า ความเสี่ยงในอนาคตและความกังวลในปัจจุบัน ไม่ควรถูกมองในทางที่เป็นปฏิปักษ์

การรายงานข่าวของสื่อเกี่ยวกับภัยคุกคามจากเอไอ ได้เริ่มเป็นกระแสตั้งแต่เดือนมีนาคม 2566 เมื่อผู้เชี่ยวชาญรวมถึง นายอีลอน มัสก์ ลงนามในจดหมายเปิดผนึกเพื่อเรียกร้องให้หยุดการพัฒนาเทคโนโลยีเอไอรุ่นต่อไป

จดหมายฉบับนั้นถามว่า เราควร "พัฒนาจิตใจที่ไม่ใช่มนุษย์ ซึ่งอาจมีจำนวนมากกว่า ฉลาดกว่า ทำให้มนุษย์กลายเป็นสิ่งล้าสมัย และแทนที่เราในที่สุด"

แถลงการณ์เปรียบเทียบความเสี่ยงกับสงครามนิวเคลียร์ โอเพนเอไอ ระบุในบล็อกโพสต์ว่า "Superintelligence" หรือ "เครื่องจักรทรงภูมิปัญญา" อาจถูกควบคุมในลักษณะที่คล้ายคลึงกับพลังงานนิวเคลียร์ ซึ่งเราอาจจะต้องการหน่วยงานในลักษณะเดียวกับทบวงการพลังงานปรมาณูระหว่างประเทศ ในการควบคุม "Superintelligence".