ぼくの備忘録

セキュリティに関するニュースで気になったものを、個人的なメモと共に残していきます。

20240323

【インシデントに関する情報】

Fujitsu found malware on IT systems, confirms data breach

Fujitsu: Malware on Company Computers Exposed Customer Data

Fujitsu Scrambles After Malware Attack: Customer Data Potentially Breached

Fujitsu Data Breach Impacts Personal, Customer Information - SecurityWeek

富士通社のPCがマルウェアに感染し、顧客情報が漏洩した可能性があるとのこと。

 

【攻撃の傾向・手法】

Microsoftのセキュリティ機能をバイパスするマルウェア「DarkGate」に注意 | TECH+(テックプラス)

Trend Microはこのほど、「CVE-2024-21412: DarkGate Operators Exploit Microsoft Windows SmartScreen Bypass in Zero-Day Campaign|Trend Micro (US)」において、Microsoft Defender SmartScreenのセキュリティ機能をバイパスする脆弱性CVE-2024-21412」が2024年1月に発生したマルウェア「DarkGate」配布キャンペーンに悪用されたと報じた。

令和5年におけるサイバー空間をめぐる脅威の情勢等について(警察庁)

ランサムウェア被害の件数が197件と高水準で推移するとともに、データを暗号化する(ランサムウェアを用いる)ことなくデータを窃取し対価を要求する手口(「ノーウェアランサム」)による被害が、新たに30件確認された

2024年2月度 MBSD-SOCの検知傾向トピックス | 調査研究/ブログ | 三井物産セキュアディレクション株式会社

今月は、先月のトピックで報告した「Ivanti Connect Secure(旧: Pulse Connect Secure)およびIvanti Policy Secureゲートウェイ脆弱性」を狙った攻撃が増加しました。

攻撃元国では、先月に引き続きアメリカからの攻撃を多数観測していますが、新たにオランダとドイツからの攻撃が増加しています。

 

脆弱性情報】

生成AIの弱点が相次ぎ発覚 ChatGPTやGeminiがサイバー攻撃の標的に 情報流出や不正操作の恐れも:この頃、セキュリティ界隈で - ITmedia NEWS

 米OpenAIの「ChatGPT」やGoogleの「Gemini」など、主要生成AIの弱点や脆弱性が次々に発覚している。

生成AIとユーザーの間に割り込んでデータパケットを傍受し、AIの回答内容を高い精度で復元する攻撃に成功したと発表した。この攻撃は、生成AIがユーザーの質問に回答する際のデータ処理に存在する脆弱性を突いている。

攻撃者がGeminiを不正操作できてしまう脆弱性が見つかったと伝えた。この問題は、Geminiを使うに当たってさまざまな条件を事前に設定する「システムプロンプト」に関係している。 この問題を突かれれば、Gemini APIを使っている企業などからプロンプトに含まれる社外秘情報が流出する恐れがあるとされる。同様の方法で、偽情報の生成を防ぐGeminiの対策をかわして選挙に関する偽情報を生成させる「ジェイルブレーク」攻撃も実行できたという。

 

 

【当局関連の動き、法規則等】

「ソフトウェアはメモリ安全でなければならない」との声明を発表、米ホワイトハウス:「C」「C++」よりも「Rust」などの言語を推奨 - @IT

ONCDは、IT企業がメモリ安全なプログラミング言語を採用することで、あらゆる種類の脆弱(ぜいじゃく)性がデジタルエコシステムに侵入するのを防ぐことができると述べている。

メモリ安全性について「メモリ安全性が保たれていないと、意図しない方法でメモリへのアクセス、書き込み、割り当て、または割り当て解除が行われる可能性がある」とし、メモリの安全性を保つ特性を欠くプログラミング言語として「C」「C++」を挙げた。

 

【調査結果・ベンダーレポート】

2024年のサイバーセキュリティトレンド予測、ここでも生成AIがキーワードに Gartner:「6つ以外に優先させるべき取り組みも存在する」 - @IT

同社はトップトレンドの推進要因として、「生成AI(人工知能)」「セキュリティ意識の低い従業員の行動」「サードパーティーのリスク」「継続的な脅威エクスポージャ」「取締役会でのコミュニケーションギャップ」「セキュリティに対するアイデンティティーファーストなアプローチ」の6つを挙げた。

Adversarial Intelligence: Red Teaming Malicious Use Cases for AI

2024 年に最も可能性の高い悪意のある AI アプリケーションは、ターゲットを絞ったディープフェイクや影響力のある操作によるもの。

組織は、幹部の声や肖像、Web サイトやブランド、パブリック イメージを攻撃対象領域の一部として考慮し、これらの脅威に備えることをお勧めします。また、検出を回避する自己拡張型マルウェアなど、より高度な AI の使用も予測する必要があり、よりステルスな検出方法が必要になります。

How AI can be hacked with prompt injection: NIST report

NIST は、直接攻撃と間接攻撃という 2 つのプロンプト インジェクション攻撃タイプを定義しています。ダイレクト プロンプト インジェクションでは、ユーザーがテキスト プロンプトを入力すると、LLM が意図しないアクションや不正なアクションを実行します。間接的なプロンプト インジェクションは、攻撃者が LLM が抽出するデータを汚染または劣化させることです。

NIST はモデル作成者に対して、トレーニング データセットが慎重に厳選されていることを確認することを提案しています。また、プロンプトインジェクションの試行を通知する入力の種類についてモデルをトレーニングし、敵対的なプロンプトを識別する方法についてトレーニングすることも提案しています。

間接的なプロンプト インジェクションの場合、NIST は人間のフィードバックによる強化学習 (RLHF) として知られる、モデルを微調整するための人間の関与を提案しています。もう 1 つの提案は、取得した入力から命令をフィルタリングして除外することです。これにより、外部ソースからの不要な命令の実行を防ぐことができます。

 

【セキュリティ対策機器、ツールの紹介記事】

How the New NIST 2.0 Guidelines Help Detect SaaS Threats

AdaptiveShieldの紹介。

NIST のカテゴリである有害事象分析では、セキュリティ チームに異常、侵害の兆候、その他の有害事象を探す任務を課します。また、複数のソースからの情報を関連付けることも推奨します。

How ANY.RUN Process IOCs for Threat Intelligence Lookup?

OpenCTI: OSINT Platform to SOC & MDR Teams for Malware Analysis

ANY.runの紹介。

DarkGPT - OSINT Tool To Detect Leaked Databases

 

【コラム系】

AWS CISO: Pay Attention to How AI Uses Your Data

生成 AI モデルとの対話では、顧客の最も機密性の高いデータの一部が使用されることが多いということです。特定のトランザクションについて生成 AI モデルに問い合わせる場合、そのトランザクションに関与している人々に関する情報を使用することになります。

研究者たちがさらに注目し始めているもう 1 つの領域は、これらの生成 AI モデルがコードであるという事実です。他のコードと同様に、これらのコードにも弱点がある可能性があります。それらを保護する方法を理解し、それらが防御機能のある環境に確実に存在するようにすることが重要です。

 

【その他】

Microsoft、2048bit未満のRSA鍵使用を非推奨に:セキュリティニュースアラート - ITmedia エンタープライズ

Microsoftは2024年3月15日(現地時間)、「Windows」でTLS(Transport Layer Security)サーバ認証に使用されるRSA証明書の鍵の長さに関する新たな要件を発表した。2048bitより短いRSA鍵を使用した証明書のサポートを非推奨にするという。