大阪大学大学院 修士課程 / 情報科学研究科マルチメディア工学専攻
Twitterデータを用いたコミュニティ検出(チーム開発)
大学院の授業においてTwitterデータを用いた対象アカウントのフォロワーのコミュニティとその属性を検出するアプリケーションを4人のチームで開発しました。 私はTwitterAPIを用いたデータ収集とフロントエンドとバックエンドの接続部分の実装を担当し、使用言語はPythonでフレームワークはDjango、チーム開発にgithubと環境構築にDockerを用いました。
400万人が利用する会社訪問アプリ
ランサーズ株式会社 / Lancers LLM Labs メンバー
大阪大学大学院で自然言語処理の研究をしました。 大学院で研究とは別に技術を形にするアプリ開発にも挑戦しました。 現在はランサーズ株式会社に勤め、生成AI・大規模言語モデル(LLM)の専門チームのメンバーとして業務効率化AIサービスの開発を担当しています。
私は、お腹の空いた人に魚をあげるのではなく、魚の釣り方を教えてあげるわけでもなく、魚の取り方を知っている人と自然に出会うことが出来る世界を作ることを理想としています。 この理想を社会全体で実現するためには
メンバーとして0からWebサービスの立ち上げに従事 OpenAI, Anthropic, Googleが提供するAPIを活用して開発を進める 主にバックエンドを担当し、PythonのフレームワークFastAPIを利用 バックエンド以外にもNext.jsを利用したフロントエンドの開発も一部兼任
自然言語処理、対話システムをテーマに研究しています。 Python, Pytorch, Transformers を研究で使っています。
大学院の授業においてTwitterデータを用いた対象アカウントのフォロワーのコミュニティとその属性を検出するアプリケーションを4人のチームで開発しました。 私はTwitterAPIを用いたデータ収集とフロントエンドとバックエンドの接続部分の実装を担当し、使用言語はPythonでフレームワークはDjango、チーム開発にgithubと環境構築にDockerを用いました。
開発言語にPython、フレームワークにDjango、開発環境にDocker、サーバにHerokuを用いて、自作データから機械学習により対話モデルを構築しました。 制作物は「ラバ―ダッキング」という自問自答による問題解決手法を対話システムによって質問を自動生成するWebアプリケーションです。 苦労した点は、データが特殊で収集が難しく既存のコーパスを使うにも改変禁止の問題から自分で0から作成することになったことです。 工夫した点は、ただ質問を自動で生成してくれるだけではサービスとして弱いと感じたのでラバ―ダッキングにより生じたタスクを記録・自動生成ができる機能を加えましたことです。
PHPのフレームワークであるLaravelを使ったToDoアプリケーションを作りました。 動機は2つです。一つ目は、研究で利用するPython以外の言語を使ったWebアプリケーションの作成をしたかったことで、二つ目は、個人的にアジャイル出来るToDoアプリケーションが欲しかったことです。 工夫した点は、登録したタスクの自動選択を可能にしたことです。多くのタスクを抱えてしまった時にどのタスクから実行するか優先順位をつけることはタスクの実行と同じくらい労力がかかります。したがって、それを軽減するために自動選択機能を実装しました。
学部時代は体育会卓球部に所属し、学業との両立を図りつつ、チームに貢献しました。部内では広報を担当しており、主にTwitterにおける活動の報告、HPの更新を行いました。自分の出場しない試合でも応援に注力して、チームを盛り上げました。
大阪大学大学院 修士課程 / 情報科学研究科マルチメディア工学専攻
大学院の授業においてTwitterデータを用いた対象アカウントのフォロワーのコミュニティとその属性を検出するアプリケーションを4人のチームで開発しました。 私はTwitterAPIを用いたデータ収集とフロントエンドとバックエンドの接続部分の実装を担当し、使用言語はPythonでフレームワークはDjango、チーム開発にgithubと環境構築にDockerを用いました。