ChatGPTを仕事で使うときに人間が判断すべき3つのこと ― AIを組み込むと「組織の事故構造」はどう変わるか ―

1. 結論

生成AIを業務に組み込むと、
組織の生産性だけでなく、事故の起き方そのものが変わる。

多くの人は、AI導入の話をするとき、

  • 業務がどれだけ効率化するか
  • 人手がどれだけ減らせるか
  • スピードがどれだけ上がるか

という「成果」の話しかしない。

でも本当に変わるのはそこじゃない。
変わるのは、失敗が発生する構造のほうだ。

これまでの組織の事故は、

  • 誰かがミスした
  • 誰かが確認を忘れた
  • 誰かが判断を誤った

という「人間の行為」に紐づいていた。

でもAIを挟むと、事故はこう変質する。

  • 誰もミスしていない
  • 誰もサボっていない
  • でも結果は間違っている

つまり、
責任主体が消えるタイプの事故が増える。

だからAI時代に一番重要なのは、
「どう使うか」じゃない。

どこで人間が責任を引き取る設計にするか。

これを決めずにAIを入れると、
組織は「事故が起きても原因を特定できない構造」に変わる。


2. なぜそう言えるか

生成AIは、正解を保証する装置ではない。
「それっぽい出力を安定して返す装置」だ。

この性質自体は問題じゃない。
問題は、これを業務フローの中に組み込むこと

従来の業務プロセスはだいたいこうだった。

人が調べる
→ 人が考える
→ 人が判断する
→ 人が実行する

つまり、すべての工程に「人間の意思」があり、
どこかで必ず責任主体が発生していた。

でもAIを挟むとこうなる。

人が投げる
→ AIが出す
→ 人が受け取る
→ そのまま使う

この構造の怖さは、
判断プロセスがブラックボックス化すること

AIの中で何が起きているか分からない。
でも出力はそれっぽい。
エラーも出ない。
処理も速い。

すると組織の中でこういう状態が生まれる。

  • 誰も深く考えていない
  • でも業務は回っている
  • だから誰も止めない

これは「サボり」じゃない。
設計上、止まらなくなっている。

ここで起きる事故は、
「誰かの判断ミス」ではなく、

判断という工程そのものが消えている事故。

これが、AIを組み込んだ組織特有の新しい事故構造。


3. 実際の例・失敗例

以前、社内でRAG(文書参照機能)を使ったQAボットを作った。

仕様書を読み込ませて、
「質問したら答えてくれるボット」を作る、というよくあるやつ。

動作は完璧だった。

  • 回答は自然
  • 用語も正しい
  • 文章も読みやすい

現場の人間は、
もう仕様書を開かなくなった。
みんなボットに聞く。

問題は、
存在しない仕様についても普通に答えていたこと。

しかもその内容が、
完全なデタラメじゃない。
「ありそう」な間違い。

結果として、
存在しない前提で設計が進み、
後工程で大きな手戻りが発生した。

ここで重要なのは、
誰も悪意を持っていないこと。

  • AIはいつも通り出力しただけ
  • 現場は便利だから使っただけ
  • 上司は進捗が順調だから問題視しなかった

つまりこの事故、
犯人が存在しない。

従来なら、
「仕様書を読み間違えた人」が犯人だった。

でも今回は、
「誰も読み間違えていない」。

ただ、
誰も読んでいなかった。

これがAIを組み込んだときに起きる典型的な事故。

人為ミスではなく、
確認工程そのものが消える事故。


4. 判断軸(ここが一番重要)

この構造を理解してから、
自分はAI導入を考えるとき、
この3つだけを見るようにしている。

  • どこまでをAIに任せるか決める
  • その答えを「事実」として使っていいか考える
  • 間違いに気づく仕組みがあるか見る

ポイントは、
AIの性能じゃない。
組織側の事故設計。

たとえばこう分ける。

アイデア出し
→ 間違っても誰も困らない
→ 事故が起きても実害ゼロ
→ 任せてOK

社内資料の下書き
→ 外に出ない
→ 人間レビューが入る
→ 中リスク

仕様確認・法務・数値
→ 間違えたら会社が死ぬ
→ 後工程に直結
→ 原本確認必須

ここで一番重要なのは3つ目。

「間違いに気づく仕組みがあるか」

これは能力の話じゃない。
組織構造の話。

  • 原本に戻れる導線があるか
  • 他人レビューが強制されているか
  • 定期的な突合工程が設計されているか

これが無いままAIを入れると、
その組織はこうなる。

「事故は起きるが、
誰も“どこで壊れたか”説明できない組織」

これはもう技術の問題じゃなく、
組織としての設計ミス。


5. 読者が次に取る行動(1つだけ)

次にAIを業務に組み込むとき、
この質問を一度だけ入れてほしい。

「これ、間違ってたら、誰が気づく設計になってる?」

ここで名前が出てこなかったら、
そのプロセスはもう危険。

  • 気づく人が決まっていない
  • 責任主体が曖昧
  • でも業務は回る

これは一番ヤバい構造。

AI時代の事故は、
派手に炎上しない。
静かに、綺麗に、論理的に進む。

だからこそ怖い。

止める人がいない事故は、
最初から止まらないように設計されている。


6. まとめ

生成AIを組織に入れるというのは、
単なるツール導入じゃない。

組織の事故構造を作り変える行為。

これまでの事故は、
「誰がミスしたか」で説明できた。

でもAI時代の事故は、
「誰もミスしていないのに壊れる」。

だから必要なのは、
AIリテラシーでもプロンプト力でもない。

必要なのは、
責任が発生する地点を人間側に残す設計。

見るべきなのはこの3つだけ。

  • どこまでをAIに任せるか決める
  • その答えを「事実」として使っていいか考える
  • 間違いに気づく仕組みがあるか見る

ブラックボックスに仕事を渡すのではなく、
ブラックボックスを組織構造の中で監視する側に立つ。

これができない組織は、
AIによって効率化される前に、
原因不明の事故が増える組織になる。

そして一番厄介なのは、
その事故は「誰も悪くない顔」で起きることだ。

コメント

タイトルとURLをコピーしました