【実施報告:DSCafé】皆さんの才能を生かして、自己研鑽し社会に貢献しよう~視覚障がい者支援教材や自立型AIモデル開発を通じて~(12/17開催)

2025年12月17日に開催された「データサイエンスカフェ」では、東京大学・スタンフォード大学名誉教授の釜江常好氏を講師にお迎えし、視覚障がい者の学習を支援するための教材開発と自立型AIモデル技術の研究についてご講演いただきました。

■触覚×点字×音声によるインクルーシブ教材

釜江氏は、視覚障がいのある方が数式やグラフ、地図などの情報を「触って理解できる」環境を実現するため、3Dプリンターを活用した触覚教材の開発に取り組まれています。

講演では、
・LaTeXで記述した数式を点字・触覚化した教材
・触ることで形状を理解できる触覚グラフ・触覚数式表現
・国土地理院の地形データをもとに作成した触って理解できる触覚地図(タクタイルマップ)
などが紹介されました。

これらの教材は、視覚障がいのある学習者だけでなく、視覚のある学習者にとっても「触覚的に理解できる新しい学習方法」として活用できるインクルーシブな教材です。
特に、視覚障がいのある方が将来“教える立場”になった際にも、数式や専門内容を適切に伝えられる教育環境づくりを目指した取り組みであることが強調されました。

■大型触覚地図とAIを組み合わせた移動支援

さらに、津波や災害時の避難行動を想定し、大判の触覚地図とAIを組み合わせた移動支援技術についても紹介されました。
スマートフォンのカメラで指の位置を検出し、触れている地点の情報を音声で読み上げる仕組みにより、大きな触覚地図でも位置情報を把握しながら安全に行動できる支援技術の可能性が示されました。

■ローカル環境で運用する「自立型AI」の構想

釜江氏は、ローカル環境で運用する自立型AIモデルの開発にも取り組まれています。
これは、小型の専用コンピュータに分野特化型のAIモデルを搭載し、
・通信環境に依存しない
・個人情報や機密データを外部に送信しない
・高速な応答で利用できる
という特長を持つAIの実現を目指すものです。

視覚障がい者支援にとどまらず、医療分野や企業の機密データ解析など、高いセキュリティ性が求められる分野への応用についても紹介され、今後の発展が期待される研究として期待されます。

今回は、見逃し配信希望を含めて50名の方からお申込みがあり、当日会場には14名、オンラインには22名(合計36名)が参加しました。

CATEGORY

TAG

もっと見る

ARCHIVE

Translate »