トップ - 最新情報 - 「超知性AI」は危機?OpenAI警告

「超知性AI」は危機?OpenAI警告

「超知性AI」は危機?OpenAI警告

OpenAIの首脳陣が警告を発している。「超知性AI」、すなわち、人間の知識や技術を凌駕する可能性を持つAIの出現に備えるべきだというのだ。OpenAIのCEO、サム・アルトマン氏、CTOのグレッグ・ブロックマン氏、そして主任研究員のイリヤ・スツキバー氏は最近のTwitterで、その視点を明らかにした。

 

 

OpenAIは生成型AIの先駆けであり、人間を超えるAIの開発が、逆にリスクを孕んでいるという見解を示している。「次の10年で、AIが専門家のスキルを上回る可能性がある」と彼らは言う。

 

人工汎用知能(AGI)とも呼ばれるこのAIが、専門家以上の能力を持つ可能性は広く論じられている。しかし、OpenAIの首脳陣は、そうした超知性AIの発展に対して慎重な立場をとっている。

 

彼らの提案は、「AI開発に対する政府の監督強化、民間人の参加促進、そして企業との連携強化」だ。しかし、超知性AIの制作を完全に止めることは逆効果だとも主張する。必要なのは、AIの創造を上手く行うための世界的な監視体制だという。

 

AIは今や全てのテクノロジーセクターに広がっており、OpenAIのアプローチや規制策は、暗号資産業界を含む多くの分野に影響を与える可能性がある。人類が超知性AIから保護されるためには、OpenAIが持っているような視点が重要となるだろう。

ALL

OUR BUSINESS

事業内容

詳しくはこちら

COMPANY

会社概要

詳しくはこちら

CONTACT お問い合わせ