AIの判断、企業に説明責任
政府がまとめた人工知能(AI)に関する7つの原則が明らかになった。AIが物事を判断する際、その企業に説明責任を求めるのが柱だ。AIの判断基準(総合2面きょうのことば)を示し、金融機関の融資などで、過
https://www.nikkei.com/article/DGKKZO38186770W8A121C1MM8000/
ハカルスの染田、菊本です。早速ですが、弊社では、テックセールス担当と事業開発担当を絶賛大募集しています。実際に採用活動をしていると、予想以上に「AI」や「人工知能」、「データ解析」という言葉に興味を持っている方は多いようにお見受けします。しかし、実際に製品として扱うとなると、どういったことができるのか?今日はハカルス の製品について、ちょっとだけお伝えしたいと思います!
先日このようなニュースが流れていました。
2018年11月27日(火)日経新聞
政府が、AIを活用する際の7原則を発表した、という内容です。
(1) AIは人間の基本的人権を侵さない
(2) AI教育の充実
(3) 個人情報の慎重な管理
(4) AIのセキュリティー確保
(5) 公正な競争環境の維持
(6) 企業に決定過程の説明責任
(7) 国境を越えたデータ利用の環境整備
ニュースの冒頭にあるように、
AIが物事を判断する際、その企業に説明責任を求めるのが柱
であるということです。
AI、と呼ばれるものは、領域の総称であり、中でも色々な手法や分野があります。中でも近年注目されてきたのは「ディープラーニング / 深層学習」というものです。この領域は、機械的に物事を判断するためにデータをたくさん読み込ませる必要があります。それにより、人間では見つけることができない規則性や特徴を発見し、アウトプットします。
この手法は、様々な分野で活用可能です。Google社が開発した囲碁をするAI「アルファ碁」も、この技術を使って開発されています。
しかし、欠点があります。それは、
この最後の欠点が、今回の政府の指針の中でもクリアが難しい点なのです。
ここで、ハカルスのビジネスについて少しだけ紹介します。ハカルスは、医療・創薬・製造業などに向けたAI・データ分析活用を行なっているスタートアップです。
例えば、医療現場での医師の判断をフォローするようなソフトウェアを開発したり…ということができるようになると思っています。
そういったデータをクライアントから収集させてもらうことは難しいのですが、ハカルス の場合は、VCだけでなく、医療・創薬・製造業界の事業会社からの資金調達も行なっており、密接にタッグを組んで、研究開発を進めていく体制を取っています。
しかし、こういった業界と、AIを結びつけ用とした時、そこに立ちはだかるのは「説明責任」です。
例えば、「カメラをかざしたらそこに写る物体が何かを検知する」といったことを実現したい場合があるとします。それを自動車に搭載した場合、最悪「そこに何かがある」ことがわかれば、事故防止のための活用に、道筋が見えてくる気がしますよね。
しかし、医療の現場では違います。例えば、癌の診断。なぜその結果が出たのか、わからない場合、その診断を信じられるでしょうか?「何となく影があったから」というだけでは、医師も、その診断を受ける患者も納得できないものです。
ハカルスが得意としている技術は「スパースモデリング」と呼ばれている領域です。この領域は、先ほど深層学習で課題となりがちだと紹介した、
この3点が得意な技術です。そのため、医療・創薬・製造業にも応用可能であり、注力しています。
そもそも、企業に所属していて、意思決定をする際、「AIがそう言ってるから」だけで稟議が降りることは少ないですよね。AIの活用が当たり前になってくると、説明責任が問われるのは当たり前なのかもしれません。
ハカルスの技術を活用すると、下記のようなことも可能になってきます(あくまで一例です)。
セールス担当としても、顧客に説明しやすい製品が売れます。製品そのものの応用可能性を顧客の声から開発チームと一緒に創り上げることが可能です。
また、事業開発としては、今までこのような先端技術に活用可能性が見出しづらかった業界への展開も一緒に考えていけます。白地がある領域なので、この領域でのご経験がある方は、業界や現場における課題を思い浮かべながら、事業開発に取り組めると思います。
一緒に新しい未来を作っていきませんか?ご応募をお待ちしております!