今日1日で2回ぞっとした話|生成AIで社員が「何でも作れる」時代の落とし穴

ブログ
生成AIで社員が「何でも作れる」時代の落とし穴

生成AIで社員が「何でも作れる」時代の落とし穴。
中小企業経営者が今すぐ知っておくべきこと

こんな経営者に読んでほしい記事です。

生成AIは「作れる力」を民主化した

かつてシステムを作るには、専門のエンジニアが必要でした。
費用も時間もかかる。
だから「作りたい」と思っても、現実の壁がブレーキになっていました。

生成AIがそのブレーキをなくしました。

アイデアと意欲があれば、かなりのものが作れる時代になっています。
これは素晴らしいことです。

ただ、一つ大きな問題があります。

「作れる力」だけが先行し、「判断力」がついていっていないケースが増えています。

善意の社員が作ったものがリスクになる

ある会社での話です。
社員が社内チャットに自動通知を送るシステムを作りました。
お客様からの書類が届いたとき、自動で「届きましたよ」と通知が来るようにしたとのこと。

発想は素晴らしいものです。
連絡漏れを防ぐ。
確認作業を自動化する。
チームの動きがスムーズになる。

動機は完全に善意です。

ところが、その通知が全従業員のデバイスに届く状態になっていました。

お客様の情報が含まれた書類の到着通知が、社員全員のPC・スマホに届く。
スマホで見れるということは、外出先のカフェでも電車の中でも、その通知が見える状態になります。

社内のGoogle Workspaceなので外部への情報漏洩ではありません。
ただ、共有範囲が全従業員になっていたことが問題でした。

本人はその発想がなかった。
社内で法令遵守のことを伝えていても、それがリスクに繋がるというアンテナが立っていませんでした。

悪い人が作ったわけではありません。
仕事熱心な社員が、善意で作った。
でもそれがリスクになる。

善意 × 技術力 × セキュリティアンテナなし

リスクが生まれた

これが生成AI時代の新しいリスクの形です。

AIは「作り方」は教えてくれるが「作るべきか」は教えてくれない

生成AIに倫理的なフィルターが入っていても、人間がうまく言えば通ってしまうことがあります。

以前、中高生が生成AIを悪用して不正契約を行ったというニュースもありました。
(参考:日経新聞「生成AI悪用、楽天回線1000件不正契約か 中高生を逮捕」)

AIは「作り方」を教えてくれます。
でも「作るべきかどうか」は教えてくれません。

この問いを立てるのは、人間の仕事です。

そしてこの問いを立てられるかどうかは、経験値・知識・倫理観にかかっています。
だからこそ、これからのAI社会では人間力を高めることが不可欠です。

「任せてます」が一番危ない

AIが使えそうな社員が出てきたとき、こういう言葉が出てきます。

気持ちはわかります。

自分が詳しくないから任せる。
それ自体は間違いではありません。

でも任せる前の仕組みが何もない状態で任せるのは、別の話です。

先ほどの通知システムがそのまま稼働して、お客様情報が関係のない人の目に触れたとしたら。
社員の責任か、経営者の責任か。

法的にも、道義的にも、最終的な責任は経営者にあります。
「社員が勝手にやったことです」は通じません。

中小企業に必要な「AIルールマップ」という考え方

社員がAIで何かを作りたいと思ったとき、一度立ち止まれる仕組みが必要です。

作りたい!

① ルールマップで確認する
(これは作っていいか?社外NGか?個人情報を含むか?)

② OKなら必須プロンプトを入れて作成する

③ 完成したらもう一度チェックする

④ 公開・運用

この流れを「当たり前のこと」として文化にすることが大事です。

【保存版】社内AIルール 雛形テンプレート

そのままコピーして社内で使えるテンプレートです。
GoogleドキュメントやPDFに貼り付けてご活用ください。

社内AI利用ルール(簡易版)

制定日:  年  月  日
会社名:

【1. AIで作成する前に確認すること】

  • □ お客様の個人情報を含む処理をするか?
  • □ 社員の個人情報を含むか?
  • □ 社外秘の情報を扱うか?
  • □ 完成物を社外に出す可能性があるか?
  • □ 誰かを傷つける可能性はないか?
  • □ 法的・倫理的に問題はないか?

→ 1つでも「YES」がある場合は上長に確認してから作成する

【2. AIで作成する際に必ず入力するプロンプト】

以下を作成指示の冒頭に必ずコピペすること。

このシステム・コンテンツは以下の条件を満たすものとして作成してください。

・特定の個人を傷つける目的に使われないこと
・お客様・社員の個人情報を含まないこと
・社外秘情報を含まないこと
・作成目的:(必ず記入)
・使用者の範囲:(必ず記入)

【3. 完成後に確認すること】

  • □ 意図しない個人情報が含まれていないか?
  • □ 公開・共有範囲は適切か?
  • □ スマホから見たときにも問題ないか?
  • □ 上長への報告が必要なレベルか?

【4. やってはいけないこと】

  • × お客様の氏名・住所・連絡先をAIに直接入力する
  • × 社内の売上・財務データをAIに貼り付ける
  • × 会社名・社員名を使って外部公開コンテンツを作る
  • × 他社・他者を誹謗中傷するコンテンツを作る
  • × 完成物を上長確認なしに社外に送信する

【5. 迷ったときは】

「これを公開して、お客様が見たらどう思うか」を基準にする。
迷ったら必ず上長に確認する。
作ってから報告より、作る前に相談。

【業種別】生成AI利用リスク早見表

業種によってリスクの種類が異なります。
自社に当てはまる項目を確認してください。

業種 特に注意すべきリスク 具体的な事例
小売・EC 顧客購買履歴の流出 注文情報をAIに貼り付けて分析
飲食・サービス 予約者情報の共有範囲 予約管理をAI自動通知に連携
医療・介護 患者・利用者情報の漏洩 カルテ情報をAIで要約処理
士業・コンサル 顧客の機密情報流出 契約書・財務資料をAIに入力
製造業 技術情報・設計データ流出 仕様書をAIに渡して資料作成
不動産 物件・顧客情報の流出 顧客条件をAIで管理・処理
全業種共通 善意ツールの設計ミス 社内通知が全員に届く状態

どの業種でも共通して言えること:
お客様の情報を含むデータをAIに渡すときは、必ず上長確認を入れるルールにしてください。

【印刷して使える】AI作成前チェックリスト

PCの横に印刷して貼っておくことをおすすめします。

AIで何か作る前に確認しよう

  • □ お客様の情報が入っていないか
  • □ 社外秘の内容が含まれないか
  • □ 誰かを傷つける内容でないか
  • □ 公開範囲は適切か
  • □ スマホで見ても問題ないか
  • □ 上長への確認が必要か

迷ったら → 作る前に相談する

まとめ:AIを使わせることと、仕組みを作ることはセット

善意の社員が知らずに作るリスク。
技術力を持った誰かが意図を持って使うリスク。

どちらも「AIで作れてしまう時代」だから起きることです。

これを「社員の問題」と捉えるか、「経営者が仕組みを作る問題」と捉えるか。
その判断が、これからの会社のあり方を決めます。

AIを使わせることと、AIを使わせる仕組みを作ること。
この2つはセットです。

あなたの会社では今、どちらが先に進んでいますか?

AIルール整備について無料相談を受け付けています

「自社でもAIルールを作りたい」
「どこから手をつければいいかわからない」

という方は、まずは無料30分の個別相談をご活用ください。

ルールマップの作り方・社員への伝え方・必須プロンプトの設計まで、貴社の状況に合わせて一緒に考えます。

23年の経営経験を持つデジタルアドバイザーといっしょに御社のAI活用考えませんか。

無料相談はこちら

関連記事

Claude Codeを安全に使うための設定4つ【初心者向けセキュリティ対策】
Claude Codeを安全に使うための設定4つ【初心者向けセキュリティ対策】
2026.4.2
【実録】労働基準監督署に呼ばれた中小企業がClaudeと1日で勤怠管理を自動化した話
【実録】労働基準監督署に呼ばれた中小企業がClaudeと1日で勤怠管理を自動化した話
2026.3.22
ホームページのキャッチコピーをAIと一緒に作り直したら、答えは自分の中にあった話
ホームページのキャッチコピーをAIと一緒に作り直したら、答えは自分の中にあった話
2026.3.25
CONTACT

AI活用、何から始めればいい?
まずはお気軽にご相談ください

無料相談を申込む 資料をダウンロード