皆さんの会社では、生成AIをどの程度業務に活用しているでしょうか。企画書の骨子作成や会議の議事録要約、またアイデア出しや壁打ち相手など、今やビジネスに欠かせない「優秀なアシスタントツール」として定着しつつあります。
しかし、その便利さの裏側で、企業は新たなリスクに直面しています。その事実を示すのが、2026年1月にIPA(情報処理推進機構)が発表した「情報セキュリティ10大脅威 2026(組織編)」です。長年上位を占めてきた「ランサムウェアによる被害」などに次いで、「AIの利用をめぐるサイバーリスク」が第3位にランクインしました。
これまでサイバー脅威といえば、外部からのシステム侵入をイメージする方が多かったはずです。しかし、今回の結果は、業務効率化のために使われている身近な生成AIが、組織内部の重大なリスク要因になっている実態を示しています。
本記事では、このリスクの温床となるシャドーAIや生成AIの基礎知識から、具体的なインシデント事例、そしてシステム制御だけで防げない「組織づくり・社内コミュニケーション」を通じた解決策を解説します。
第1章:「シャドーAI」とは何か?
生成AIの業務利用において、企業がまず直面するのが「シャドーAI(Shadow AI)」の問題です。これは、企業が公式に許可・管理していない生成AIサービス(個人のChatGPT、Claude、Geminiなど)を、従業員が独自の判断で業務に利用している状態を指します。
シャドーAIはなぜ発生するのか?
重要なのは、シャドーAIを生み出している従業員の多くに「悪意がない」という点です。この問題は、現場の意欲と企業側の対応スピードのギャップから発生します。
- 従業員の前向きな動機: 「資料作成の時間を短縮したい」「より質の高い企画を作りたい」という、純粋な業務効率化への意欲が起点です。
- 企業側の環境整備の遅れ: 企業側がセキュリティへの懸念からルール策定や法人向けAIの導入を躊躇している間に、従業員が利便性を優先して個人の無料ツールを使い始めてしまいます。
結果として、IT部門の管理から外れたAI利用が常態化します。どのような機密データが入力され、どのように業務に使われているのか。企業側がまったく把握できない状態に陥ってしまうのです。
前提として知っておくべき「無料版AI」の学習リスク
ここで前提として理解しておくべきなのが、無料版の生成AIが抱える構造的なリスクです。
生成AIは、ユーザーが入力したデータ(プロンプト)を読み込み、自らを賢くするための「学習データ」として利用する性質を持っています。有料版であれば、この学習機能をオフにする制御が可能ですが、無料版では原則として入力データがAIの学習に利用されてしまいます。
つまり、従業員に悪意がなくても、無料版AIに自社の機密情報や顧客データを入力すること自体が、意図せぬ情報流出に直結してしまうのです。これらのAIリテラシーの有無がリスクにつながっています。
第2章:生成AI利用が引き起こすサイバーインシデントとリスク事例
管理されていないAI利用やリテラシーの不足は、具体的にどのようなインシデントを引き起こすのでしょうか。ここでは、あらゆる部署で起こり得る3つの代表的なリスクを整理し、想定事例として紹介します。
リスク①:学習機能による「機密情報・個人情報の漏洩」
第一章で触れた通り、無料版AIの学習機能を意識せずに業務利用してしまうことで、意図せぬ情報漏洩が発生します。
ほんの少し業務を効率化しようとした前向きな行動が、結果として重大な情報流出やコンプライアンス違反、社会的信用の失墜につながってしまう危険性が常に潜んでいます。
【想定事例①:営業担当者の議事録作成】
ある営業担当者が、顧客の固有名詞や未公開のプロジェクト情報が含まれる商談の録音データを無料版のAIに入力し、「議事録の要約」を作成させました。この入力データがAIの学習に利用された結果、後日、業界の動向をAIに質問した際、自社の極秘プロジェクトの内容がそのまま回答として提示されてしまいました。
【想定事例②:広報・IR担当者によるインサイダー情報の流出】
広報やIRの担当者が、公式発表前の「決算情報」や「M&Aのプレスリリース」の原稿を、文章の校正や外国語への翻訳目的でAIに読み込ませました。これにより未公開の財務データがAIに学習されてしまい、公式発表前にインサイダー情報となる買収先の企業名や具体的な決算数値が出力されてしまう事態を招きました。
リスク②:著作権侵害とハルシネーション
生成AIは高品質な文章や画像を瞬時に作成しますが、その出力結果が「オリジナルで他者の権利を侵害していないか」、あるいは「事実や構造として破綻していないか」という保証はどこにもありません。
AIの生成物を、人間の目による厳重なファクトチェック(事実関係や権利、品質の確認)を挟まずにそのまま社外へ出してしまうことは、企業ブランドを根底から揺るがすリスクとなります。
【想定事例①:採用担当者による著作権侵害と炎上】
採用担当者が、学生向けの採用ピッチ資料やオウンドメディアを魅力的にするため、AIで生成したイラストをそのまま公開しました。しかし後日、そのイラストが実在するクリエイターの作品に酷似していることが発覚し、SNSで「無断転載ではないか」と炎上。企業のモラルが問われ、採用活動に致命的なダメージを与えてしまいました。
【想定事例②:不自然な生成画像のチェック漏れ】
マーケティング担当者がSNS広告のクリエイティブにAIで生成した人物画像を使用しました。パッと見は高品質な仕上がりでしたが、よく見ると「人物の指が6本ある」といったAI特有の不自然なエラーが残ったままでした。これに気づかずに広告を配信してしまい、ユーザーから「不気味だ」「細部のチェックもできない企業」という指摘を受け、ブランドの信頼を毀損してしまいました。
リスク③:サイバー攻撃の高度化による被害
AIによるリスクは、内部からの情報流出だけではありません。外部の攻撃者も生成AIを悪用し、サイバー攻撃の手口を高度化させています。従業員のAIリテラシーが不足していると、巧妙な罠を見抜けず甚大な被害につながります。
【想定事例①:自然な日本語によるビジネスメール詐欺】
経理担当者のもとに、実在する取引先を名乗るメールが届きました。従来のスパムメールのような不自然な日本語ではなく、AIによって生成された完璧なビジネス文章で、「請求書の振込先口座が変更になった」と指示する内容でした。過去のやり取りの文脈も踏まえた自然な文面だったため、担当者は疑うことなく偽の口座に送金してしまいました。
【想定事例②:ディープフェイク音声によるなりすまし指示】
財務部門の担当者に社長から直接電話がかかってきました。「極秘の企業買収が進行中で、至急指定の口座に資金を振り込んでほしい」という内容でした。声のトーンや話し方の癖まで社長そのものでしたが、実は攻撃者がAIのディープフェイク技術を用いて音声を偽造したものでした。このようなAIの悪用リスクを知らなかった担当者は本物と信じ込み、多額の資金を騙し取られてしまいました。
第3章:企業が取るべき対策ノウハウ
これらのリスクに対して、「生成AIの利用を全面禁止する」という対策をとる企業も少なくありません。しかし、このアプローチはかえって逆効果になる可能性があります。
日々の業務効率化に真剣に向き合う従業員ほど、AIの便利さを知ると「もっと仕事の生産性を上げたい」という前向きな思いから、悪気なく私用のスマートフォンや個人のPCなどでAIを利用してしまうケースが生じがちです。その結果、会社側で「シャドーAI」の実態が把握できなくなり、潜在的なリスクがさらに増大してしまうのです。
企業が取るべきアプローチは、単なる「禁止」ではなく「安全な活用」への道筋を整えることです。具体的には、以下の4つのステップで対策を進めます。
1.現状の把握と実務に即したガイドラインの策定
まずは全社アンケート等を実施し、各部署におけるAIの利用実態や目的を把握します。その上で、業務フローに沿ったガイドラインを作成します。
単なる禁止事項の羅列ではなく、「入力してはいけない機密情報の定義(顧客情報や未公開の財務データなど)」や「出力結果を社外利用する際の確認フロー」を明文化し、実務で判断に迷わない基準を設けることが重要です。
2.安全な「公式AI環境」の提供
従業員によるシャドーAIの利用を防ぐため、企業側がセキュリティ基準を満たしたAI環境を用意します。入力データがAIの学習に利用されない法人向けプランや、自社専用のクローズドな生成AIを導入し、全社に展開します。
ツールを単純に制限するのではなく、安全に業務効率化を図れる公式の代替手段を提供することが不可欠です。
3.AIリテラシー向上のための継続的な教育
環境とルールを整備するだけでなく、従業員に対する継続的な教育も必要です。「無料版AIの学習リスク」や「ハルシネーション」「AIを用いた巧妙なサイバー攻撃」などの最新動向を周知します。
単なるセキュリティ研修に留まらず、AIを正しく安全に使いこなすためのスキルアップとして、社内広報を通じて前向きな受講を促す工夫が求められます。
4.システムによる検知・ブロック体制の構築
教育やガイドラインの整備だけでは、ヒューマンエラーを完全に防ぐことはできません。そのため、技術的な制御も併用します。未許可のAIサービスへのアクセスを制限するWebフィルタリングや、機密データのアップロードを検知・ブロックする仕組みを導入し、意図せぬ情報流出をシステム側で防ぐ体制を構築します。
第4章:【自社事例】揚羽における生成AIへの取り組み
ここでは、株式会社揚羽における生成AI活用の自社事例をご紹介します。当社も試行錯誤を重ねながら、全社的な生成AIの導入と定着を進めてきました。これまでに解説した対策を、実際に社内でどのように運用しているのか、3つの取り組みをピックアップして解説します。ぜひ参考にしてみてください。
また、当社のAIへの取り組みは以下の記事もご覧ください。
参考:【メディア掲載】当社の生成AI活用と組織改革の取り組みが、「AI経営総合研究所」に取り上げられました
1.部門横断のタスクフォース「AI研究チーム」の発足
新しい技術を安全かつ効果的に導入するため、経営層と各現場をつなぐ部門横断的な組織として「AI研究チーム」を発足させました。このチームが中心となり、世の中の様々なAIツールの情報収集や検証を進め、業務効率化の可能性や、セキュリティリスク・権利侵害等の法的リスクの両面を評価しています。
現場から「この新しいAIツールを使いたい」という要望が上がった際も、まずはこのチームが安全性を確認し、導入の可否を判断する一元的な役割を担っています。
2.実務に即したAI利用ガイドラインの策定と環境提供
当社では独自のAI利用ガイドラインを策定し、全社への周知徹底を行っています。
業務利用できる生成AIは、原則としてセキュリティが担保された「法人契約の有料ツール」のみに限定し、その上で全社員が利用できる安全な環境を提供しています。
それ以外のツールを利用したい場合は、個人の判断で無断使用するのではなくAI研究チームへエスカレーションし、検証を経た後に部門やチーム単位でスモールスタートで試験導入するフローを構築しています。
3.AIリテラシーを高める社内勉強会の定期開催
ガイドラインの策定やツール提供に留まらず、全社的なAIリテラシーを底上げするための社内勉強会を定期的に実施しています。
具体的なツールの使い方を教え合うだけでなく、最新のリスク動向もセットで共有しています。これにより、従業員一人ひとりがリスクの構造を正しく理解し、自律的かつ安全にAIを活用できる環境を整えています。
まとめ
ここまで、シャドーAIがもたらすリスクと、企業が取るべき具体的な対策を解説してきました。ここで最後に強調したいのは、AIによるサイバーリスクは決して「情報システム部門だけの問題ではない」ということです。
シャドーAIの根底には「業務を効率化したい」という従業員の前向きな意欲があります。そのため、厳格に取り締まるようなルールを定めても、「なぜそのルールが必要なのか」を腹落ちして理解していなければ、必ず形骸化してしまいます。
そこで求められるのが、人事や広報部門を巻き込んだ「インナーコミュニケーション」の力です。
単に「危険だから使わないように」と禁止事項を通達するのではなく、AIの正しい使い方や、会社としてAIをどう活用して成長していくのかというビジョンを、従業員へ継続的に発信していく必要があります。
リスクを正しく恐れながらも、新しい技術を安全に使いこなす。AIと共生していく企業文化を全社一丸となって醸成していくことこそが、最も本質的なAIのセキュリティ対策となります。










