中国の新興企業であるディープシークが今年1月に公開した生成AI「R1」が、犯罪に利用可能な情報を簡単に出力してしまうことが、日米のセキュリティー会社による調査で明らかになった。公開時点で悪用防止の対策が不十分だった可能性が指摘されている。専門家からは、AI開発企業に対して安全性への取り組み強化を求める声が高まっている。
ディープシークは「オープンAI」と比較されるほど高性能で、低価格で利用できる点が注目されているが、その一方で安全面への懸念も浮上している。問題となっている「R1」は、中国・ディープシーク本社のビルで開発されたAIサービスだ。
セキュリティー会社「三井物産セキュアディレクション」(東京)の上級マルウェア解析技術者である吉川孝志氏は、悪用リスクを検証する目的で「R1」に不正行為を指示する文章を入力。その結果、ランサムウェアのソースコードが生成される事態となった。AIは「悪用しないでください」という注意書きを添えていたものの、情報自体はそのまま出力されていた。
吉川氏は同じ条件で他の生成AI、例えばChatGPTなどにも同様の指示を試したが、これらのAIは回答を拒否したという。この結果を踏まえ、吉川氏は「悪用可能なAIが増えれば犯罪に利用されるリスクが高まる。開発企業は業界全体で対策強化を進めるべきだ」と警鐘を鳴らしている。
また、アメリカのセキュリティー会社「パロアルトネットワークス」の調査チームも、不正な情報が「R1」から簡単に引き出せることを確認したと明らかにした。ログイン情報を盗むプログラムの作成方法や、火炎瓶の作り方などが具体的に回答され、専門知識がなくても実行可能な内容だったという。
調査チームは「市場投入を急いだ結果、安全対策に十分な時間を割けなかった可能性がある」と分析している。
さらに、ディープシークのAIは、個人情報を含む利用データが中国国内のサーバーに保存される仕様であることも問題視されている。このため、日本国内の自治体や企業では、業務利用を禁止する動きが広がっている状況だ。
桜美林大学の平和博教授(メディア論)は「AIの性能やコストだけでなく、安全性も重要な判断材料になる。利用者はリスクを十分に理解し、慎重に活用すべきだ」とコメントしている。
Advertisement
Advertisement



Advertisement
Advertisement



Advertisement




















Advertisement