アップルの共同創業者であるスティーブ・ウォズニアック氏は、AI超知能の開発に対する一時的な禁止を求める声明に賛同したと発表しました。この声明には、ノーベル賞受賞者やAIの先駆者を含む1000人以上の著名人が署名しています。
声明では、革新的なAIツールが前例のない健康と繁栄をもたらす可能性があるとしつつ、多くの主要なAI企業が今後10年以内に全ての人間を知的に凌駕する超知能の構築を目指しているとされています。これにより、人間の経済的な役割の消失や自由、権利、尊厳、制御の喪失、国家安全保障へのリスク、さらには人類絶滅の可能性まで、多岐にわたる懸念が生じているということです。
声明は、超知能の開発を禁止することを求めており、その禁止は適切な安全対策が整うまで解除されるべきではないとしています。
また、同じ署名者の多くは、人工汎用知能(AGI)がパンデミックや核戦争と同様に人類絶滅の脅威をもたらす可能性があると以前から述べているということです。
