【失敗談あり】ChatGPTで総務業務を効率化するときの注意点5つ
公開日: 2025-12-13
カテゴリ: ChatGPT活用
想定読了時間: 8分
導入
🦊 フォックン「ChatGPT使い始めたんだけど、なんか失敗しそうで怖い…。注意点とか教えて!💦」
🦉 オウル先生「その慎重さ、とても大切です。ChatGPTは便利なツールですが、使い方を間違えると大きな問題につながることもあります。私も最初は何度も失敗しました。今日は、その失敗談と注意点を包み隠さずお伝えしますね」
この記事は、以下のような方におすすめです。
- ChatGPTを業務で使い始めたばかりで不安がある
- 失敗したくない、リスクを事前に知っておきたい
- 上司や情報システム部門に「安全に使っている」と説明したい
- ChatGPT活用のセキュリティ対策を知りたい
この記事を読めば、よくある失敗パターンを事前に把握し、安全にChatGPTを活用できるようになります。
私は総務・情報システム・人事を15年担当してきた中で、ChatGPTで何度も失敗を経験しました。そのリアルな失敗談と対処法を、今日は正直にお伝えします。
【注意点①】個人情報を入力してしまった
🦊 フォックン「これが一番やっちゃいけないやつだよね…?」
🦉 オウル先生「はい、最も重要な注意点です。私も一度、うっかりやりかけたことがあります」
私の失敗談
ある日、勤怠データのチェックをChatGPTにお願いしようとしたとき、うっかり社員の氏名と電話番号が入ったExcelデータをコピペしそうになりました。
送信ボタンを押す直前に「待てよ…」と気づき、事なきを得ましたが、もし送信していたら重大な情報漏洩につながる可能性がありました。
なぜダメなのか?
ChatGPTに入力したデータは、OpenAI社のサーバーに送信されます。
- 入力データがAIの学習に使われる可能性がある(設定による)
- 外部サーバーに個人情報を送信すること自体がコンプライアンス違反になりうる
- 一度送信したデータは完全に削除できない
絶対に入力してはいけない情報
| カテゴリ | 具体例 |
|---|---|
| 個人情報 | 氏名、電話番号、メールアドレス、住所、生年月日 |
| 機密情報 | 給与データ、評価情報、健康診断結果 |
| 会社の機密 | 未公開の売上情報、戦略資料、契約書の詳細 |
| 認証情報 | パスワード、APIキー、アクセストークン |
正しい使い方
❌ 悪い例:
以下の社員の勤怠データをチェックしてください。
社員番号: 12345
氏名: 田中太郎
電話: 090-1234-5678
残業時間: 80時間
✅ 良い例:
以下の勤怠データをチェックしてください。
社員A: 出勤日数22日、総労働時間220時間、残業時間80時間
社員B: 出勤日数20日、総労働時間160時間、残業時間0時間
🦊 フォックン「個人を特定できない形に変えればいいんだね!」
🦉 オウル先生「そうです。マスキング(匿名化)するか、仮のデータを使うことで、安全に活用できます」
【注意点②】生成された内容をそのまま使ってしまった
私の失敗談
ChatGPTで作成した経費精算マニュアルを、ほぼそのまま社内に公開したことがあります。
後日、同僚から「ここの承認フロー、うちの会社と違いますよ」と指摘されて気づきました。ChatGPTは一般的なフローを生成しただけで、自社の実態とは異なっていたのです。
幸い大きな問題にはなりませんでしたが、確認不足で恥ずかしい思いをしました。
なぜダメなのか?
ChatGPTは以下のような問題を起こすことがあります:
| 問題 | 具体例 |
|---|---|
| ハルシネーション(幻覚) | 存在しない法律や制度を「事実」として説明する |
| 情報の古さ | 最新の法改正を反映していない情報を出力する |
| 一般論の出力 | 自社の状況に合わない一般的な回答をする |
| 誤った数値 | 計算ミスや誤った統計データを出力する |
正しい使い方
🦉 オウル先生「ChatGPTの出力は『たたき台』や『下書き』と考えてください。必ず以下のチェックを行いましょう」
確認チェックリスト:
- [ ] 自社の状況・ルールに合っているか?
- [ ] 法律・制度の情報は公式ソースで確認したか?
- [ ] 数値・データは正確か?
- [ ] 専門用語の使い方は正しいか?
- [ ] 誤解を招く表現はないか?
🦊 フォックン「ChatGPTは完璧じゃないってことを忘れちゃダメなんだね」
🦉 オウル先生「その通りです。AIはアシスタント、最終判断は人間。これを常に意識してください」
【注意点③】プロンプトが曖昧で期待外れの結果
私の失敗談
最初の頃、こんなプロンプトを送っていました:
経費精算のマニュアルを作って
返ってきたのは、一般的で抽象的なマニュアル。自社の申請システムや承認フローには全く合っていませんでした。
「ChatGPT使えないな…」と一度は諦めかけましたが、プロンプトの書き方を変えたら劇的に改善しました。
なぜダメなのか?
ChatGPTは指示された通りにしか動けません。曖昧な指示には曖昧な回答が返ってきます。
| 曖昧な指示 | 問題点 |
|---|---|
| 「マニュアルを作って」 | 何のマニュアル?誰向け?どんな形式? |
| 「メールを書いて」 | 誰に?何を伝えたい?トーンは? |
| 「チェックして」 | 何をチェック?どんな基準で? |
正しい使い方
良いプロンプトの5つの要素:
- 役割: 誰として回答してほしいか
- 目的: 何のために作成するのか
- 対象者: 誰に向けたものか
- 条件: 具体的な制約・要件
- 形式: どんな形式で出力してほしいか
改善例:
❌ 悪い例:
経費精算のマニュアルを作って
✅ 良い例:
あなたは中小企業の総務担当者です。
以下の条件で「経費精算マニュアル」の下書きを作成してください。
【目的】
新入社員が迷わず経費精算できるようにする
【対象者】
全社員(特に新入社員)
【内容に含めること】
- 経費精算の対象となる費用
- 申請方法(社員ポータルから申請)
- 申請期限(当月末日まで)
- 承認フロー(直属上司→経理部)
- 振込時期(翌月15日)
- よくある質問
【形式】
- 見出しを設定
- 箇条書き中心
- 初心者でも理解できる表現
🦊 フォックン「こんなに詳しく指示するんだ!でも、これなら欲しい結果が返ってきそう!」
🦉 オウル先生「最初は面倒に感じますが、プロンプトのテンプレートを作っておけば、2回目以降は楽になりますよ」
【注意点④】社内で共有せず自分だけで使っていた
私の失敗談
ChatGPTを使い始めた当初、私は自分だけでこっそり使っていました。
「上司に言ったら反対されるかも」「情報システム部門に怒られるかも」と思っていたのです。
しかし、ある日上司から「最近、資料作成が早いね。何か工夫してる?」と聞かれ、正直にChatGPTを使っていることを話しました。
すると意外にも「もっと早く教えてくれれば良かったのに」と言われ、むしろ評価されました。
なぜダメなのか?
- コンプライアンスリスク: 会社が把握していないツールの使用は問題になりうる
- セキュリティリスク: 情報システム部門が管理できない
- ナレッジの偏り: 自分だけが効率化しても、組織全体の生産性は上がらない
- 評価されない: 成果が見えにくく、正当な評価につながらない
正しい使い方
🦉 オウル先生「ChatGPTの活用は、オープンにすることで価値が倍増します」
社内共有のステップ:
- まず上司に報告: 使っていること、効果を伝える
- 情報システム部門に確認: セキュリティポリシーを確認
- 使い方のルールを整備: やっていいこと・ダメなことを明確に
- 成功事例を共有: 他のメンバーも使えるようにする
- 定期的に報告: 削減時間など成果を数値で報告
🦊 フォックン「隠すより、オープンにした方がいいんだね。勇気いるけど…」
🦉 オウル先生「最初は勇気がいりますが、『こんな成果が出ています』と数字で示せば、反対されることは少ないですよ」
【注意点⑤】過信して確認を怠った
私の失敗談
ChatGPTに慣れてきた頃、「ChatGPTが言ってるから大丈夫だろう」と過信するようになりました。
ある日、労働基準法に関する社内通知文をChatGPTで作成。「残業は月45時間まで」と書いてあったので、そのまま使いました。
後日、人事部長から「これ、36協定の特別条項のケースは?」と指摘され、情報が不完全だったことに気づきました。
幸い社内通知の段階で気づけましたが、もし外部に出していたら大問題でした。
なぜダメなのか?
ChatGPTは「もっともらしい嘘」をつくことがあります。これをハルシネーション(幻覚)と呼びます。
ハルシネーションの例:
- 存在しない法律を「〇〇法第△条によると…」と説明する
- 間違った計算結果を自信満々に出力する
- 古い情報を最新の情報として提供する
正しい使い方
🦉 オウル先生「特に以下の情報は、必ず公式ソースで確認してください」
確認必須の情報:
| カテゴリ | 確認すべき公式ソース |
|---|---|
| 法律・制度 | 厚生労働省、e-Gov法令検索 |
| 税金・社会保険 | 国税庁、年金事務所 |
| 会社のルール | 社内規程、就業規則 |
| 数値データ | 原資料、公式統計 |
確認の習慣:
- ChatGPTの出力を「仮説」として扱う
- 重要な情報は必ず公式ソースで裏取り
- 判断に迷ったら専門家(社労士、税理士など)に相談
- 「〇〇によると」と出典を明記する習慣をつける
🦊 フォックン「ChatGPTを信じすぎちゃダメってことだね。便利だけど、最後は自分で確認!」
🦉 オウル先生「その通りです。『信頼しつつ、検証する』。これがAI時代の正しい姿勢です」
【チェックリスト】ChatGPTを安全に使うための10項目
🦉 オウル先生「ここまでの注意点を踏まえて、ChatGPTを使う前の確認チェックリストをまとめました」
使用前チェック
- [ ] 個人情報・機密情報は含まれていないか?
- [ ] 入力する情報はマスキング(匿名化)されているか?
- [ ] 会社のセキュリティポリシーに違反していないか?
- [ ] 上司・情報システム部門に報告済みか?
使用中チェック
- [ ] プロンプトは具体的に書けているか?
- [ ] 出力結果をそのまま使おうとしていないか?
使用後チェック
- [ ] 自社の状況・ルールに合っているか確認したか?
- [ ] 法律・制度の情報は公式ソースで確認したか?
- [ ] 数値・データは正確か確認したか?
- [ ] 最終的な責任は自分が持つ覚悟があるか?
🦊 フォックン「このチェックリスト、デスクに貼っておこう!」
よくある失敗Q&A
Q1:うっかり個人情報を送ってしまった場合は?
🦉 オウル先生「すぐに以下の対応を取ってください」
- 該当のチャットを削除: ChatGPTの設定から会話履歴を削除
- 上司・情報システム部門に報告: 隠さずに報告
- 再発防止策を検討: チェックリストの導入など
- 必要に応じて専門家に相談: 重大な情報の場合
Q2:ChatGPTの情報が間違っていて、それを使ってしまった場合は?
- すぐに訂正: 間違った情報を訂正・取り消し
- 影響範囲を確認: 誰に影響があったか把握
- 再発防止: 確認プロセスを見直し
🦉 オウル先生「最終的な責任は、ChatGPTではなく使った人にあります。だからこそ、確認が重要なのです」
Q3:上司にChatGPT利用を反対された場合は?
🦊 フォックン「これ、私が一番心配してることかも…」
🦉 オウル先生「反対される主な理由と対策を紹介します」
| 反対理由 | 対策 |
|---|---|
| セキュリティが心配 | 個人情報は入力しないルールを提示 |
| 品質が不安 | 必ず確認するプロセスを説明 |
| 必要性が分からない | 削減時間を数値で示す |
| AIに仕事を奪われる | 人間の判断は変わらないと説明 |
説得のコツ:
- 「試験的に1ヶ月使ってみて、問題があれば止めます」と提案
- 具体的な使用ルールを事前に作成して提示
- 他社の導入事例を紹介
まとめ:失敗を恐れず、でも慎重に
🦊 フォックン「注意点、よく分かった!失敗しないように気をつける!」
🦉 オウル先生「失敗を恐れすぎる必要はありません。大切なのは、致命的な失敗を避けることです。では、今日の内容をまとめましょう」
この記事で学んだ注意点5つ
| 注意点 | 対策 |
|---|---|
| ①個人情報を入力しない | マスキング・仮データを使用 |
| ②そのまま使わない | 必ず確認・修正してから使用 |
| ③プロンプトは具体的に | 5つの要素(役割・目的・対象者・条件・形式)を含める |
| ④社内でオープンに | 上司・情シスに報告、ルール整備 |
| ⑤過信しない | 公式ソースで確認、最終判断は人間 |
安全に使うための心得
- ChatGPTは優秀なアシスタント、でも完璧ではない
- 最終的な責任は、使う人間にある
- 「信頼しつつ、検証する」が正しい姿勢
- 小さな失敗は成長のチャンス、致命的な失敗だけ避ける
- オープンに使うことで、評価と信頼を得られる
🦉 オウル先生「失敗を恐れて使わないのは、もったいないです。正しく使えば、あなたの強力な味方になります。今日お伝えした注意点を守りながら、ぜひ活用してください」
🦊 フォックン「よし、チェックリストを使いながら、安全にChatGPT活用していくぞ!✨」
関連記事:

