ENECHANGE Developer Blog

ENECHANGE開発者ブログ

AIエージェントで"情報自動収集"に挑戦してみた(そしてしくじった話)

Webディレクターとして、AIエージェントを活用して業務効率化に挑戦してみたのですが...正直に言うと、最初は大失敗でした(笑)。

今回は、その失敗談も含めて、WebディレクターがAIエージェントで情報の自動収集に挑戦した実体験をお話しします。

1. 企画の背景と「こうなったら便利なのに!」

現在の業務の課題

Webディレクターとして、Web上の特定のデータを定期的に収集する業務を担当しています。これまでは以下のような手作業で行っていました:

  1. 手動でのWebサイト巡回 - 対象のサイトを1つずつチェック
  2. Excelでの情報整理 - 手動でデータを入力・整理

この作業、月に1回でも丸2日かかってしまうんです。しかも、人間がやると見落としも多いし...。

「もし、Cursorで情報収集を自動化するコードを書いてもらえたら、毎月の作業が劇的に楽になるんじゃないか?」

そんな期待を胸に、AIエージェント活用の挑戦を始めることにしました。

2. AIエージェント活用の計画(Cursorでこうやってみた)

アプローチ

以下のような詳細な要件を日本語で指定してみました:

【業務要件】
- 対象:指定したURL ※対象としたのはログイン不要で誰でもアクセス可能なWebページです。
- 収集項目:サービス名、内容、期間、URL...
- 更新頻度:月1回
- 出力形式:Excelファイル

3. やってみて実際どうだった?(成功点/うまくいかなかった点/ハマりポイント)

2日間にわたって合計10回ほど繰り返しチャレンジしましたが、うまく情報を取得できないケースが多く、なかなか思うような結果は得られませんでした。

成功点

情報をまとめたExcelデータの作成 - Excelデータで情報を自動生成することができた

うまくいかなかった点

実際は全ての欲しい情報を収集することができませんでした。

具体的には、

  1. サイトの動的コンテンツ(JavaScriptで生成される情報)の取得が困難
  2. Webサイト上に記載されている情報の位置が頻繁にかわり、指定が困難
  3. 指定した条件の情報を正確にキャッチ・出力することが困難

ハマりポイント

指示文章を変更してみても、更新してもうまくいかなかった点:

  1. サイト構造の変更への対応 - サイト構造が頻繁に変更され最適化が難しい
  2. 情報の正確性の確保 - 自動収集した情報の正確性を確保するのが意外と難しい

4. 成果と今後の展望

今後の展望

  1. 継続的改善プロセス - 定期的な業務フローの見直し
  2. チーム内での知識共有 - 他のディレクターにもノウハウを展開
  3. AIエージェントとの協働深化 - より高度な業務自動化への挑戦

5. こうすればうまくいくかも?次のアクション

改善案

  1. ハイブリッドアプローチ - 情報収集は手動、整理・分析はAIエージェント
  2. 段階的な自動化 - 簡単な部分から順次自動化を進める

6. "失敗"から得たAI活用ディレクター的ヒント

AIエージェント活用のコツ

  1. 業務要件を明確にする - AIエージェントに丸投げは禁物
  2. 段階的に導入する - 一気に全部を自動化しようとしない
  3. 人間の判断力を活かす - AIエージェントは補助ツールとして活用
  4. 継続的な改善 - 運用しながら改善点を見つけていく

失敗から得た具体的なヒント

  1. 完璧を求めすぎない - 80%の自動化でも十分な価値がある
  2. ハイブリッドアプローチの重要性 - 人間とAIの得意分野を使い分ける
  3. 小さな成功を積み重ねる - 一歩ずつ改善していく姿勢が大切
  4. チーム内での共有 - 失敗談も含めて知識を共有する価値

結論

AIエージェントとの協働は、確かに失敗も多いですが、その分だけ学びも大きいです。 AIエージェントは優秀なパートナーですが、業務の目的や文脈を理解し、適切な指示を与えるのは人間の役割です。

失敗を恐れずに挑戦し続けることで、AIエージェントとの協働による業務革新を実現できると思います。