運用にChatGPTにどう使う?!
先週は東京ビックサイトのITweekに出展しておりました。ブースにお越しの皆様、大変ありがとうございます。
去年の秋と比較しても、人が増えてきたなあと感じます。
周辺のブースを見ていますと、ChatGPTをはじめとしたAI関連のサービスに人が集まっていたようで、関心の高さがうかがえます。
システム運用の業界でも、これまで”AIOps”といったキーワードで、機械学習技術を利用してIT運用の簡素化・自動化を進めようといった動きがありました。
これまでのAI利用に関しては、各種モニタリングに関する指標を取り込んで、トラブルの予兆の検出や障害時のエラーメッセージの分析などの支援を行わせるものが多かった印象があります。
ChatGPTをはじめとしたLLM技術に関しては、後者のメッセージの分析に関して非常に強力な武器になりそうな予感があります。
自分の場合も、先日、あるモジュールを利用した予測計算のバッチが止まったとの事で、原因調査を進めていた際、試しにエラーログをChatGPTに入力してみたところ、推測される原因と対応方法に対するガイダンスが出力されました。
そして、その内容がさほど的外れでなかったことに驚きました。
もちろん大量のテキストを学習させるという性質上、多くの情報が公開されている製品・サービスに限定されるという但し書きが付き、また、ウソの情報が出力されるリスクがあるものの、OSSなどを中心としたシステム構成ではなかなか強力だなあという実感です。
利用事例について調べてみると、メッセンジャーのやり取りを要約して障害チケットの自動起票、サーバー構築の手順書の作成、チェックリストの雛形の作成、障害レポート作成などが散見されました。他の分野と比較して多くは無いですが、いろいろと作業が効率化できそうなヒントがあると思います。
これまでのAIソリューションといえば、まずは課題の整理、データの整備、モデル構築の試行錯誤と、導入に至るまでの検討や実際の検証作業が膨大で、やった結果が「できませんでした」というケースもあるため、なかなか敷居が高いものでした。
今回のLLMブームは、なにやら強力なポテンシャルを秘めたモデルがすでに用意されており、それらの可能性をいかに上手に引き出して応用するかというゲームになっています。
DXの文脈で考えても、新しい顧客価値を生み出す起爆剤にもなりうるので、冒頭のAI関連ブースの盛況ぶりも納得なのです。