
もっち
- 関東大手SIer勤務
- 10システム、仮想サーバ約200台の基幹系システムが稼働する仮想化基盤のインフラ運用リーダー
以下3点について、ブログで役立つ情報を発信
- インフラ技術・システム運用
- キャリア・マネジメント
- エンジニア実務・仕事術


もっち
以下3点について、ブログで役立つ情報を発信
システム運用の現場は、常に「予期せぬエラー」と「時間との戦い」の連続です。
ログの山を前にして途方に暮れたり、保守ベンダーへ「原因不明なので調べてください」と中身の薄い依頼を投げてしまったりした経験はありませんか?
最近、私は業務のパートナーとしてChatGPTやCopilotなどの「生成AI」を取り入れました。しかし、インフラエンジニアにとってAIは魔法の杖ではありません。本番環境を守る私たちがAIを使うには、「利便性」以上に「規律」が求められます。
本記事では、私が現場で実践している生成AIの活用シーンと、絶対に譲れない「鉄の掟」を共有します。
この記事の想定読者
この記事を読むことでのメリット
実際にAIを導入して「これは手放せない」と感じた5つの活用例を紹介します。
エラーが発生した際、ログをAIに読み込ませて原因の仮説を立てます。 これにより、ベンダーへ調査依頼を出す際に「AIの分析では〇〇の可能性が高いが、ログのこの部分について見解をほしい」と具体的に伝えられるようになりました。結果として、解決までのラリーが劇的に短縮されます。
保守ベンダーからの回答に対して「妥当性はどうだろうか?」と疑問を持ったとき、その回答内容をAIに分析させます。別の角度からの可能性を提示してもらうことで、回答の背景をより深く理解し、検証できるようになりました。
過去の担当者が作成したWindows Script Host(WSH)のコード。これをAIに依頼してPythonへ移植しました。 驚いたのは、ほとんど微調整なしでコード変換が完了したこと。学習者が多くライブラリも豊富なPythonへ移行したことで、今後の保守性が格段に向上しました。
マニュアルに記載された手動コマンドを、AIを使ってバッチやシェルスクリプトに変換しました。 この手法の良いところは、「自動化しつつ、中身(コマンド)が見える」点です。万が一スクリプトが途中でエラーになっても、元となる手動コマンドが明確なため、障害時の状況把握がスムーズになります。
システムメンテナンス後、大量に発生するログの確認。これまでは目視で行っていましたが、現在はAIにログを読み込ませて異常を検知させています。ヒューマンエラーを減らし、確認作業の精度が向上しました。
インフラという「絶対に落とせない」環境でAIを使うには、守るべきルールがあります。
AIはもっともらしい嘘(ハルシネーション)をつきます。 そのため、AIの回答をそのまま障害報告書のエビデンスにすることは絶対に行いません。
機密情報をAIに渡すことは厳禁です。私はプロンプトを投げる前に、一括置換で以下のようにマスキングしています。
192.168.1.1 → [SV_IP_A]DB-PROD-01 → [DB_NAME]Client-X → [CLIENT_NAME]AIに原因を分析させる際は、必ず「その根拠となる情報のソース」を答えさせます。 提示されたリンク先や情報元が公式ドキュメント(ベンダーの公式マニュアルやRFC等)であることを確認し、情報自体の信憑性を人間が最後にジャッジします。
生成AIを活用することで、単なる「オペレーター」から、AIを駆使して「より高度な調査・改善を行うエンジニア」へとシフトできている実感があります。
コマンドの打ち間違いといったケアレスミスを減らしつつ、浮いた時間でシステムの根本的な改善に取り組む。そんな「守りのAI活用」が、これからのインフラエンジニアには求められているのではないでしょうか。
「AIに任せる」のではなく、「AIを使いこなして、自分が責任を持って完遂する」。このスタンスで、これからもインフラ運用の現場を支えていきたいと思います。
この記事が気に入ったら
フォローしてね!