AI活用がさらに心理的負荷を高める?BANI時代の人材育成で「効率化」だけを追い求めてはいけない理由
![]()
「VUCAでは説明できない、人や組織が壊れやすくなるBANI時代に人事部が考えるべきこと」では、BANI時代によって人材育成の前提が変化したことを解説しましたが、その流れをさらに加速させているものは何でしょうか。それが、爆発的な生成AIの普及です。
一見すると、AIは人間の負荷を減らす存在に見えます。実際、文章作成、情報整理、議事録作成、分析補助など、多くの業務が効率化されています。しかし現場では逆に、「判断をしなければならない場面が異常に増えた感じがある」「考える量が減ったのに疲れる」「若手が自分で考えなくなった」という声も増え始めています。
これは矛盾ではありません。むしろ、BANI時代と生成AIは悪い意味で相性が良く、人間側の心理的負荷をさらに高める構造を作っているのです。
AIは正解を出す仕事を代替し、人間側には不安な判断が残る
生成AIによって減るのは作業。「責任」ではない
生成AIは一定水準のアウトプットを短時間で生み出します。企画書のたたき台、メール文面、データ要約など、従来は時間をかけていた作業が数分で完了するようになりました。改めて言葉にすると、AIが代替するのはあくまで処理であって、「意思決定責任」ではないことがわかります。
例えばAIに、特定の課題の解決策を提案させたり、適切な文章を出力させたり、分析をさせたりすることはもちろんできます。しかし最終的に、その解決策を採択し実行するか、この判断で顧客に影響はないか、炎上リスクはないか等を決めるのはもちろん人間です。つまりAI時代とは、答えを出す負荷が減る代わりに、答えを選ぶ負荷が増える時代と言い換えられます。
考えなくなるのではなく、考える内容が変わる
生成AIの活用が進むと、「若手が自分で考えなくなるのではないか」という懸念が出てきていることは、ご認識のとおりです。
これまで人間は、情報を集める/整理する/ゼロから作るといったことに多くのエネルギーを使っていました。一方、AI時代に重要になるのは、AIの出力を疑えるか/複数案から現状に最もふさわしいものを選べるか/違和感を察知できるか/倫理的に判断できるかという力です。これから個々の人間は、知識量ではなく判断の質が問われるようになります。
AI時代に心理的安全性がさらに重要になる理由
AIがあるほど「間違えられない空気」が強くなる
生成AIによって、一定品質の成果物が短時間で作れるようになりました。すると組織では、「AIでここまでできるのだから、人間はもっと精度高くできるはずだ」という無意識の期待が生まれます。結果、現場では逆に失敗許容度が下がるケースが生まれかねません。
- AIを使ったのにもかかわらずミスをした
- 効率化できるはずなのに、成果物ができるまでが遅い
- 十分に調査はできたはずなのに、なぜ最適解を選べなかったのか
こうした圧力が強くなると、人は挑戦よりも「失敗回避」を優先するようになります。AIの出力解を絶対的なものと勘違いする人が増えれば増えるほど、組織の心理的安全性を低下させる可能性があるのです。
残念ながらAIは「迷い」を消すものではない
生成AIは便利ですが、人間の不安そのものを消すわけではありません。むしろ玉石混交の情報や選択肢、比較対象を増やし過ぎてしまって、人の迷いや不安を強くすることもあります。例えば管理職であれば、「AIを導入すべきか、どこまで任せるべきか、部下の成長機会を奪わないか」などのこれまでにはなかった新たな悩みを抱えるようになりました。
一方、一般職員ではどうでしょうか。AIは、実務者・作業者となることの多い若手にとっては心強い存在です。分からないことをすぐ調べられ、分析や資料作成も補助してくれるため、以前より生産性を上げやすくなったように感じられます。ですが、「この答えは本当に正しいのか」「この提案を自分の言葉でうまく説明できない」等の不安が常に付きまといます。
従来、若手社員は「時間をかけて調べる」「失敗しながら覚える」「先輩たちのアドバイスを聞きながら最適解に近づいていく」というプロセスを経て、長い時間の中で自分なりの判断基準を育てていました。しかしAI時代では、その試行錯誤の過程が否応なく短縮されます。アウトプットは早くなる一方で、自分で汗をかいて考えぬいたという実感は得られず、また自分よりも流ちょうな解を出力するAIの言うことがすべて正しいように感じやすくなるでしょう。
仮説を自分でいちから立てることも、原因を追究することも経験しなくなってしまう。若手もその上席者も、粗削りな自分の意見をそのまま周囲に発する機会が失われ、イノベーションの種が育ちにくくなることが想像できます。
BANI時代に企業が育てるべきは「正解を知る人」ではない
ここまで述べてきたように、BANI時代とAI時代が重なる現在、本当に必要なのは「最初から正解を出せる人材」ではありません。不完全な状況でも考え続けられること。間違いながら修正できること。AIの出力を鵜呑みにせず、自分なりの違和感を持てること。そして、分からない状態でも他者と対話しながら前に進めることです。
だからこそ、これからの若手育成では、「効率化」だけを追い求めてはいけません。若手が主体的に自分の言葉で考え、組織が望む判断軸を持ち、それを安心して試せる環境を整えることです。AI時代に必要なのは、AIを使いこなすスキルだけではありません。「自分でなぜこの解を是とするかにじっくり向き合える」「他者とのディスカッション等を繰り返して、寄り道をしながら最適解にしていってもよい」と思える心理的土台そのものなのです。
まとめ~試行錯誤ができる心理的安全性の高い組織になろう
AIの普及によって知識の差が急速に縮まっていくことは、想像に難くありません。一定レベルの資料やアイデアは、誰でも生成できるようになるからです。すると企業競争力の差は、どれだけ早くプロトタイプを作れるか、どれだけ柔軟に状況に合わせて修正できるか、あるいは他組織に比べてどれだけ洗練されているのかに移っていくはずです。
ここで求められるのが失敗を共有できる組織文化です。心理的安全性=単なる働きやすさのみならず、人材育成をより良くし、事業維持や発展のための基盤となります。これからは「試行錯誤ができる組織」が生き残るというわけです。
いまこのタイミングだからこそ、過去に設計していた人材育成方針が現在の状況に即しているか、ぜひご確認いただきたいと思います。
AI時代のクリティカルシンキング研修~求められる「疑う力」と「活かす知恵」
生成AIのアウトプットの真偽を疑うことや、他の見方も無いかと視野を広げて捉え直すことが、AI時代においては不可欠ですが、これはまさにクリティカルシンキングの考え方そのものです。本研修では、生成AIの特性とその活用シーンを踏まえつつ、どのような視点でチェックし、真に有効なパートナーとして使用していけばよいかをお伝えします。
よくあるお悩み・ニーズ
- 生成AIのどんな回答が信用できてどんな回答が疑わしいのかがよく分からない
- どんな問い方をすれば、使える「いい回答」が出せるのか知りたい
- AIの回答をいちいち疑っていたら逆に仕事の効率が下がりそう
本研修の目標
- 生成AIが出す回答に対しクリティカルに評価する観点が分かる
- 生成AIの回答ロジックを理解し、その特性を踏まえて問いを立てることができる
- 生成AIに対する自身の質問のクセを知り、より効果的な問い方を探ることができる
セットでおすすめの研修・サービス
AI時代の質問力向上研修~求められる「問題発見力」と「問いを立てる力」
生成AIが解決策を自動生成する時代に人間に求められるのは、問題を解決する力から、問題を発見する力や課題を設定する力へとシフトしています。
本研修は、生成AIを使いこなすビジネスパーソンに不可欠な質問力を体系的に学びます。良質な問いの要件を理解し、逆算思考による問いの設計、本質に迫る深掘り、生成AIの回答を検証する方法など、実践的な質問力を鍛えていきます。マーケティングリサーチや企画立案、会議の運営、部下育成といった、あらゆるビジネスシーンで高い成果を生み出すための「問いを立てる力」が身につきます。
AI時代の決断力研修~求められる「価値判断」と「背負う覚悟」
責任を背負う覚悟を持った者だけ下す「意思決定」だけは、人間が担うべき領域として残り続けます。
本研修では人と生成AIの役割分担のポイントを理解したうえで、意思決定の土台となる前提の見極め方や、価値判断という役割をおさえます。加えて、リスクを背負う覚悟の持ち方、利害調整を踏まえた説明責任の果たし方を体系的に学びます。





