AI開発企業の専門家・企業人が署名した「AIによる絶滅リスクを軽減することは、パンデミックや核戦争の社会的規模のリスクと同等に考えるべき、世界的な優先事項である」という宣言文。AIの危険性を叫ばれる一方、実際の絶滅リスクのシナリオを具体的に理解するため、武器化やジョブの流通など実際のリスクを詳しく解説し、規制を支持するべきであると、Centre for AI Safetyを始め多くの人々が意見している。
URL : https://www.gizmodo.jp/2023/06/chatgpt-ai-how-could-ai-drive-humanity-extinct.html
You must be logged in to post a comment.