FAQを増やす前に、「何を良しとするか」を変えよ
たとえば、あるプロダクトで「問い合わせが多いからFAQを増やそう」という対処療法を考えたとします。
でも、それが本当に解決策でしょうか?
ある担当者は、KPIそのものを見直しました。
「自己解決率」を主要な指標に設定し、初回メール文面をABテスト。結果として問い合わせ件数が半減したのです。
このように、「評価の軸」から再設計する力は、創造性の本質であり、AIには難しい領域です。
単にアウトプットを作るのではなく、**「なぜこれを選んだのか」「なぜ他を捨てたのか」**を説明できる力が必要になります。
創造性を支える道具:
- Hypothesis Map(仮説マップ):課題→原因→検証→打ち手→捨てた案→次の仮説
- 選択・除外理由を明示した成果物
- やらないことリストで資源の集中
この仕事がAIに代替されにくい理由:
- 評価基準自体を疑い、抽象的に再構成する能力はAIが不得意
- “正解がない問い”に対する判断力
- 失敗を経て改善を繰り返す柔軟性
条件④:「責任」と「倫理」を伴う判断・交渉・合意形成
AIは「責任主体」にはなれない
どれだけAIが進化しても、法的・倫理的な責任を負うことはできません。
誰が意思決定をし、その結果に対して責任を持つのか──それを担うのは、常に人間です。
たとえば、価格改定をめぐる交渉。
原価上昇、サポート工数の増加、競合の比較などを根拠に提示しつつ、
未実施による赤字シナリオを「反証」として示す。最終案は半年の移行期間を設定し、解約率とCSATで効果を評価──。
こうした論点整理・交渉・合意形成・文書化まで一連のプロセスは、責任と倫理のもとに人間が担うべき領域です。
交渉テンプレ例:
根拠3点、反証1点を提示。最終案は段階的移行+制約条件あり。
合意後はCSATと解約率で評価、よろしいでしょうか?
この仕事がAIに代替されにくい理由:
- 合意文書に評価指標や責任が伴う
- 利害調整や倫理的判断が必要
- 交渉は感情と信頼の積み重ねによって成り立つ
条件⑤:学習の速さと掛け算で進化する仕事
専門性×隣接領域で「代替困難」な人材へ
AIが台頭する時代においては、「これしかできない」人材は脆弱です。
反対に、「複数の専門性を組み合わせられる人材」は、強いレジリエンスを発揮します。
たとえば、
- 看護×可視化:夜間コール数−30%(データ+実地観察)
- CS×ナレッジ設計:FAQ更新と決定ログ連携で自己解決率+40%
- 施工管理×ドローン:点群→進捗%の明文化で手戻り−25%
これはまさに、「専門×隣接」の掛け算で進化した結果です。
AIは思考の速度を加速してくれる相棒ですが、“意思決定の責任”は常に人間にあります。
この仕事がAIに代替されにくい理由:
- 多領域にまたがる柔軟なスキル構成
- 仮説・比較・反証・再設計を高速に回す能力
- 成果を「再現可能な資産」として残す文化
おわりに:AI時代、「代替されにくい自分」を設計する
AIが人間の能力を部分的に上回る時代。
ただし、**「人間にしかできないこと」**は確かに存在します。
それは単なる“属人的なスキル”ではなく、以下のような要素に集約されます:
✅ 信頼と共感
✅ 現場での臨機応変な判断
✅ 抽象化・創造的な再設計
✅ 責任を伴う合意形成
✅ 掛け算による複合スキルと証跡化
これらを武器に、AIに代替されにくいキャリアを、戦略的に再設計していくことが不可欠です。
「AIに仕事を奪われるかもしれない」と不安になるより、
**「AI時代に、どんな価値を出せる人間になるか?」**を考える。
それが、これからの働き方を前向きに切り拓く第一歩です。

