【記者のひとこと】学校現場でも説明できるAI

コラム

2020/11/13 10:00

 ディープラーニングはAIの精度を大幅に高めましたが、普及させる際の課題として指摘されるのが判断の根拠を明示できないことでした。

 近年、AIは金融や医療といった分野でも活用されるようになっていますが、それらの領域は莫大な資金や命を扱うだけに、エンドユーザーや患者に対してAIがなぜそういった判断を下したのかを説明する必要があります。

 ディープラーニングは、予測結果を下すまでの過程をブラックボックス化してしまいます。AIが高度な予測をすることは分かっていても、ユーザーがそれに納得がいかなければユーザーは増えません。そのため、数年前から“説明できるAI”の存在が注目されるようになっています。

 現在では、GIGAスクール構想によって学校現場でもデジタル化が進んできました。個人に対して端末が用意され、詳細なデータを収集できるようになり、それらを活用するためにAIの導入も検討されているようです。そんな学校現場でも、生徒がAIの判断に従うには「なぜその判断なのか」を説明できることが重要になるようで、説明できるAIの重要性が高まっています。(銭君毅)

【関連記事はこちら】
京都大学と内田洋行、教育AIエンジンの開発と実証研究
富士通 「Wide Learning」で金融機関のAI活用のハードルを下げる AIスコアリングプラットフォームサービスをリリース
内田洋行、教育コンテンツ配信の「EduMall」無償で配信、新型コロナ対策支援で
会議高速化支援のクラウドシステム──内田洋行が提供開始