AIフェイクニュース生成コストはわずか13ウォン、4秒:韓国セキュリティ会議

CryptoFrontier

2026年4月16日、韓国国家安保技術研究所 (NSTI) のシニア研究員であるコ・ウヨン(Ko Woo-young)が、ソウルで開催された第32回情報通信ネットワークセキュリティ会議 (NetSec-KR 2026) にて、AIが生成するフェイクニュースは非常に低コストかつ短時間で作成できることを明らかにした。コの発表によると、生成AIでフェイクニュースを作るには平均13ウォンかかり、4秒で済むという。さらに、12件のフェイクニュースを作るのに必要な費用は平均155ウォンで、46秒かかるとしている。コは、世論を操作することを目的としたAI生成の偽情報や悪意あるコメントが拡散していることは、社会にとって重大な脅威になっていると強調した。

AIが生成する偽情報と社会への影響

コは、生成AIの能力がますます悪用されるようになり、主な乱用手口は意見や情報の操作だと指摘した。彼は、フェイクニュースやフェイクコメントのコストと量があまりに低く、かつ大量に存在するため、社会はすでに、真実と虚偽を見分けることが極めて難しい段階に到達していると強調した。

コの分析によれば、偽情報が至るところに現れるようになると、社会の人々は偽情報に疲れ、現実への関心を失い始める。この現象は、人々がたとえ本物の情報であっても疑うようになることにつながる。コは「フェイクニュースへの罰は、それが金銭的利益につながる場合を除いて、法的に執行するのが難しい」と述べ、「生成AI技術はあまりに急速に進化しており、制度面での改善が必要だ」と強調した。

NetSec-KR 2026においてAIが生成するフェイクニュースのリスクについて発表するコ・ウヨン

AIベースのマルウェア解析と検知

NSTIのディレクター、チェ・ソクウ(Choi Seok-woo)が、同じセッションで「AIベースのマルウェア解析技術」について発表した。チェの調査結果によれば、AIがマルウェアの生成に使われ始めると、約450,000件の新しいマルウェアサンプルが毎日作成されるという。マルウェアの累計総数は、すでに10億件を超えている。

この脅威が拡大することに対応して、チェはAI主導の解決策の開発を提唱した。これには、AIベースの分析支援システム、大規模言語モデルに基づく自律的な解析エージェント (LLM)、および自動化されたデオブフスケーション(難読化解除)ツールが含まれる。

AIベースのマルウェア解析技術の必要性について発表するチェ・ソクウ

LLMベースの脆弱性検知:現状の限界

NSTIのシニア研究員、ジ・ヒョンソク(Ji Hyun-seok)が、「LLMベースのソフトウェアセキュリティ脆弱性検知の時代」について発表した。ジの研究は、LLMがどのようにセキュリティ脆弱性を検知するかを調べ、現在の能力には大きな限界があることを見出した。

ジは次のように述べた。「近年の事例では、AIが多数の脆弱性を特定しているように見える一方で、分析結果はそれが実際にはそうではないことを示している。効果的な脆弱性検知が可能になるのは、LLMおよびAIモデルに対し、専用の脆弱性検知ツールが提供された場合に限られる」。ジによれば、LLMには現在、巨大なコードベースを扱うことの制限、データ依存の問題、信頼性の低い推論など、いくつかの制約があるという。

ジは、脆弱性を直接特定できる熟練したセキュリティアナリストがLLMツールを活用できるとき、相乗効果が最大化されると見通した。しかしジは、「LLMによる脆弱性検知はまだ完了していない。脆弱性を見つけるためのより良い方法を探求する必要がある」と強調した。この発表は、LLMベースの脆弱性検知は現時点ではAIだけで効果的に実行できないこと、そして信頼できるセキュリティ分析には人間の専門性が不可欠であることを裏付けた。

LLMベースの脆弱性検知研究について発表するジ・ヒョンソク

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし