【ABEMAとライブ映像】
「ABEMA」では、スポーツやニュースなど多彩なライブ番組を配信しています。リアルタイムに放送されるこれらのコンテンツを、視聴者がより楽しめる形にするためには、重要シーンの検出やハイライトの生成 が不可欠です。
ライブ映像はアーカイブ動画とは異なり、リアルタイムに情報が更新され続けます。例えば、スポーツの試合ではゴールシーンやビッグプレイなどの見どころが突発的に起こり、ニュースでは緊急速報が流れたり、重要な会見が行われたりします。こうした瞬間的に注目度が高まるシーンを取りこぼしなく検出し、必要な文脈を理解しながらハイライト動画にまとめることができれば、視聴体験は大きく向上します。
我々はこれまでクラウド映像編集システムである「VMC」とライブ映像に対する映像解析AI基盤「MediaAnalyzer」を開発し、これらのコンテンツ制作を高速化、効率化してきました。
▼参考記事
ABEMAにおける映像解析AI基盤「MediaAnalyzer」について
https://developers.cyberagent.co.jp/blog/archives/52738/
ABEMA のコンテンツ制作を最適化!生成 AI x クラウド映像編集システム
https://speakerdeck.com/cyberagentdevelopers/abema-ai-editor
【本ポジションのミッション】
1. シーンの自動切り出しとハイライトの自動生成アルゴリズムの開発
・映像や音声、テキスト(実況やテロップなど)を解析し、重要度の高いシーンを自動で検出、イライトを自動生成するロジックの開発します。
・試合の得点シーンやインタビューの核心部分などを高精度に識別するためのモデルを開発します。
2. 映像解析AI基盤「MediaAnalyzer」への実装
・ABEMA独自開発のメディア解析基盤「MediaAnalyzer」上に、機械学習モデルを実装し、大量の映像・画像を並列・分散処理する仕組みを構築します。
・ライブ映像に対して、リアルタイムかつ高精度、スケーラブルに処理を実行し、シーン検出やハイライト生成を素早く提供できる環境を整備します。
【必須スキル】
◎PythonやRを用いた機械学習モデルの開発経験(画像認識やコンピュータビジョンの基礎的知識)
◎統計・機械学習の基本的な理解(回帰や分類、深層学習フレームワーク(TensorFlow/PyTorchなど)の利用経験)
◎大規模データを扱う基盤システムの概念理解(DockerやAWS等のクラウド環境での開発、コンテナ化・デプロイの経験)
◎ビジネス視点の提案力(番組やコンテンツの魅力を伝えるための要件を抽出し、機械学習・アルゴリズム観点で解決策を提示できる)
【歓迎スキル】
◯分散処理やジョブ管理システム(Step Functions、Airflow など)の利用経験
◯HLSなどのストリーミング技術に関する知識・開発経験
◯Deep Learningを用いた画像生成・文生成、マルチモーダル解析技術に関する研究・
【就業条件】
・2ヶ月〜3ヶ月(30営業日以上 / 週3日、6時間稼働 or 週2日、8時間稼働想定)
・期間や稼働時間などは応相談
・PC貸与
【応募の流れ】
・上記で興味がある点が1つでもあれば、「話を聞きに行きたい」からエントリーをお願いします。
・エントリー後、メッセージで面談のご案内をさせていただきます。