2025/10/30
職務経歴書
2025年9月27日 山口 敏弘
職務要約
過去10年間データサイエンティスト・機械学習エンジニアとして働き、様々なデータを扱い、分析に必要な手法は素早くキャッチアップ・実践してきました。 現在はコンサルティング会社で、データサイエンスをKPIと紐づけて事業を改善する方法や、データから課題を見つけクライアントに新しい案件の提案をする方法などを学んでいます。 近年は特に大規模言語モデル(LLM)やRAGを含む生成AI技術に関心を持ち、最新動向のキャッチアップと実務応用に取り組んでいます。 今後は課題における最適な手法や技術を持ってして、事業への貢献をしたいと思っております。 そのために、継続的に機械学習・データ分析手法・MLOpsおよびLLM関連技術について学んでおります。
活かせる経験・知識・技術
得意分野
- データ分析や機械学習を用いた事業KPI改善手法の提案
- ディープラーニング・機械学習の実装およびプロダクトへの反映
- 機械学習モデルの継続的な改善
- インフラ、サーバーサイド、フロントエンドを含めたWebアプリケーションの開発
ツール
- GCP / AWS / Databricks
- Python / Go / Scala / R
- Pyspark / Pandas / scikit-learn / TensorFlow / PyTorch / MLFlow
スキル
- バックエンド開発 / データエンジニアリング / ML・DL / 統計分析 / 画像認識 / NLP / 生成モデル / MLOps
資格
- ネットワークスペシャリスト
- 情報セキュリティ安全確保支援士試験合格
イベント
- MLOps勉強会登壇
- Databricksイベント登壇
ポートフォリオ
プロダクト開発 / サービス公開
期間:2025年〜現在 プロジェクト:shisapost(https://www.shisapost.com/) 概要:LLMを活用したパーソナライズ型ニュース配信サービス。ニュースの要約・影響分析・示唆生成を自動化し、ユーザーに毎朝メール配信。月額課金制で商用運用を開始。
チーム体制:エンジニア2名+デザイナー1名
担当業務(自身の役割):
- サービス基盤の安定運用に向けた 監視・インフラ整備(AWS, CloudWatch, SES/SNS)
- 通知機能の実装(メール配信+SMS通知)
- ユーザー申込フォームの作成・自動処理(Google App Script連携)
- デプロイ/運用の効率化、障害対応プロセスの整備
使用技術:
- AWS(SES, SNS, CloudWatch, Lambda)
- Google App Script, Google Forms
- Python, Lambda
成果・特徴:
- 商用公開後の安定稼働を支える監視・通知体制を構築
- ユーザー申込〜通知までの一連の運用フローを自動化し、運営負荷を軽減
- 小規模チームにおいて「インフラ・運用面」を主に担い、プロダクトの継続的なサービス提供を実現
職務経歴詳細
2025年10月~: フリーランス
- 期間: 2025/10/15~(予定)
- 概要: Unityと機械学習を組み合わせたゲーム開発プロジェクト
- 担当: 機械学習エンジニア / ゲームAI開発
- 環境・手法(予定):
- Unity, C#, Python
- ML-Agents(強化学習)
- Tripo3D, Blender
- 詳細:
- 生成AIによる3Dアセット自動生成パイプライン設計
- Unity ML-Agentsを用いたサッカーシミュレーション環境の構築
2025年07月~現在: フリーランス
- 期間: 2025/07/01~現在
- 概要: 企業間マッチングシステムにおけるバックエンドおよびログ/データ分析基盤の開発
- 担当: 機械学習エンジニア(契約上の役割だが、主にバックエンド・データ基盤を担当)
- 環境・手法:
- インフラ:
- AWS(Kinesis Firehose, Athena, CloudWatch, Lambda, S3)
- 開発言語/フレームワーク:
- Python, FastAPI
- インフラ:
- 詳細:
- FastAPIを用いたバックエンドAPIの改善
- Kinesis FirehoseとAthena を用いたログ収集・分析基盤の構築
- CloudWatchによるエラー監視・通知体制の整備
- ログクエリ設計・可視化を通じた運用改善支援
- 成果:
- ログ/分析基盤を整備し、システム利用データを即座に分析可能な環境を実現
- 障害対応時間を短縮し、運用効率を改善
- エラー監視体制を強化し、安定稼働を実現
2024年01月~2025年06月:HJホールディングス株式会社
- TVODサービスの推薦システム構築
- 期間: 2024/01/01
- 概要: ユーザーの嗜好を推薦システムで推薦するサービスの構築
- 担当: 設計・開発・テスト・効果検証
- 環境・手法:
- インフラ/MLOps:
- Vertex AI (Pipelines, Experiments, Model, Workbench)
- BigQuery, GCS, DataFlow
- digdag(定期実行ワークフロー管理)
- 開発言語/フレームワーク:
- Python, PyTorch, PyTorch Lightning, PyTorch Similarity, TensorFlow
- アーキテクチャ/モデル:
- Two-Stage Architecture, Two-Tower Architecture, BERT, TripletLoss
- インフラ/MLOps:
- プロジェクト人数: 5
- 詳細:
- Item to Item推薦の高度化:
- 問題定式化とデータ設計
- 同一セッション内での連続視聴パターンからポジティブペアを抽出
- 高Lift値(閾値以上)のペアを学習データとして選定
- コールドスタート問題への対応としてメタデータも活用
- Two-Tower Architectureによるアイテムエンベッディングの構築
- メトリックラーニングによるジャンル考慮型推薦の実装
- 親ジャンル概念の導入による関連ジャンル間の自然な推薦の実現
- Triplet Lossを用いた効果的な埋め込み空間の学習
- エンベッディング精度の改善(Accuracy: 0.91 → 0.96)
- 特徴量エンジニアリング
- VODジャンル情報とLift値を組み合わせた教師データの設計
- Lift値をラベルとして用いたメトリックラーニングによるベクトル空間の最適化
- 定性評価での顕著な改善
- ジャンル間の自然な類似性の維持
- より多様性のある推薦結果の実現
- 問題定式化とデータ設計
- User to Item推薦:
- ユーザーの閲覧履歴に基づく特徴量エンジニアリング
- アイテムエンベッディングを活用したユーザー嗜好の推薦
- MLOps/パイプライン構築:
- Vertex AI Pipelinesによる推論パイプラインの実装
- GitLab CI/CDによるパイプラインの自動化
- 推論結果のエクスポート処理の DigDagによる定期実行
- 効果検証/改善:
- A/Bテストの設計と実施
- CTR、試聴時間等の重要KPIの統計的検証
- ユーザーフィードバックに基づく継続的な改善サイクルの確立
- UMAPによる埋め込み空間の可視化と品質検証
- Item to Item推薦の高度化:
副業
- RAG導入プロジェクト PoC PM担当
- 期間: 2024/10 - 2024/12
- 役割: プロジェクトマネージャー・設計・実装
- 環境・手法:
- インフラ/基盤:
- AWS (Amazon Bedrock, S3)
- 開発フレームワーク:
- LangChain
- 評価/モニタリング:
- LangFuse(ログ収集・モニタリング)
- Ragas(RAG精度評価)
- インフラ/基盤:
- プロジェクト人数: 6
- 詳細:
- RAG技術を活用した情報検索強化のPoC
- 設計から実装、評価までの全フェーズをリード
- PoCから実導入に向けた課題管理
- 技術検証:
- 各種LLMの性能評価と最適なモデル選定
- チャンク分割手法の比較検証
- ベクトル検索の精度改善
- 評価基盤の構築:
- Ragasを用いた定量的な精度評価の検証
- LangFuseによる評価基盤の検証
- RAG技術を活用した情報検索強化のPoC
2023年06月~2023年12月:株式会社JMDC
-
マイナポデータを用いた保険会社の審査システム構築
- 期間: 2023/06/01
- 概要: マイナポータルデータを用いた審査システムの構築
- 担当: 要件定義・設計・開発
- 環境・手法: AWS
- プロジェクト人数: 12
-
SageMaker 推論パイプラインを利用したレポート機能構築
- 期間: 2023/07/01
- 概要: SageMaker 推論パイプラインを利用した、製薬会社向けの調剤利用数のレポート機能開発
- 担当: 設計・開発・テスト
- 環境・手法: AWS SageMaker
- プロジェクト人数: 5
2022年9月~2023年5月:EYストラテジー・アンド・コンサルティング株式会社
- 業務内容: データ分析プロジェクトの推進、KPIと紐づけた事業改善、クライアントの課題抽出および提案
- 役割: データサイエンティスト / データアナリスト
- 環境/手法: Python、Elasticsearch、Kibana、統計分析、機械学習全般
- 実績:
- データ分析を通じた意思決定プロセスの効率化
- 新規提案に伴う事業価値向上の支援
2019年8月~2022年7月:株式会社日本経済新聞社(嘱託契約 期間3年)
- 業務内容: データ分析基盤の設計・構築、ニュースアプリのパーソナライズ機能高度化
- 役割: データ基盤エンジニア / データサイエンティスト
- 環境/手法: Databricks、AWS、GCP、Python、Scala、Spark、PySpark、Golang
- 実績:
- Databricksを中心としたMLOps基盤を導入し、モデル構築からデプロイまでの効率を大幅に向上
- ニュースアプリでの協調フィルタリングやBERTを活用した推薦アルゴリズムを開発し、CTRを改善
2019年2月~2019年7月:株式会社aifroce solutions
- 業務内容: AI教育プラットフォーム開発、大手商社向けDX事業サポート
- 役割: データサイエンティスト / バックエンド・フロントエンド開発
- 環境/手法: AWS、Bottle、React、Python、R、アソシエーション分析
- 実績:
- 大手商社へのAI活用コンサルティング、購買データ分析の実施
- AI学習プラットフォームの機能実装
2017年4月~2019年1月:株式会社グリッド
- 業務内容: DLライブラリの画像モジュール開発、プラント制御の強化学習基盤構築
- 役割: 機械学習エンジニア / データエンジニア
- 環境/手法: SSG、VAE、VGG、Python、MQTT、Vue.js、Flask
- 実績:
- 自社DLライブラリにおける画像認識モジュールの論文実装
- 強化学習を用いたプラント制御プロジェクトのインフラ担当
2016年1月~2017年3月:株式会社Cuon
- 業務内容: Webエンジニアとしての社内ポータルサイト、スタートアップ向けWebサイトの開発
- 役割: Webエンジニア / PM
- 環境/手法: PHP、Ruby on Rails
- 実績:
- サービスサイトの要件定義・設計・構築を通じ、Web開発全般のスキルを習得
2014年5月~2015年12月:株式会社APコミュニケーションズ
- 業務内容: 社内インフラの運用・保守、運用設計作成
- 役割: 運用・保守 / 設計
- 環境/手法: Windows Server、ITIL
- 実績:
- 運用業務の改善と運用設計の策定により、サービスの安定稼働に貢献
2013年4月~2014年4月:日本通信株式会社
- 業務内容: 自社サービスサイトの設計・構築(LAMP構成)
- 役割: 設計 / 構築
- 環境/手法: Apache、Linux、MySQL、PHP
- 実績:
- 新規サービスサイトをLAMP構成で構築し、安定稼働を実現