《ソボク ナ ギモン》(3)iPhoneにも使われている触感フィードバック機能って?

皆さんが使っているiPhoneには、触感フィードバック機能が使われている。タイマーの時間を変える時のカタカタや、通知を押し込んだ時のカタッという振動を生み出す機能である。この触感フィードバック機能の研究について、慶大理工学部機械工学科の三木則尚教授に取材した。

 

触感を再現

触感には、つるつるやザラザラといった、文字通りの「触った感じ」のほかに、「力を受けた感覚」も含まれる。例えば工作は、切った感覚がないとやりづらくなってしまう。そこで、力を受けた感覚(力覚という)をフィードバックする機械(haptics)が開発されている。その応用例として、ダ・ヴィンチという手術ロボットが挙げられる。実際に患者の体に触れているのはダ・ヴィンチだが、その触った感覚を、触感フィードバック機能により、ダ・ヴィンチを操作している人も得られる。これだけでは、わざわざダ・ヴィンチを介して手術を行うメリットがないように思える。しかし、ダ・ヴィンチを介することによって、「操作する人が10cm手を動かしたら、ダ・ヴィンチは1cm手を動かす」という設定をすれば、細かな動きが可能になる上、操作する人の手の震えを10分の1に抑えることができるのだ。心臓の手術の際には、心臓の鼓動に合わせた動きをダ・ヴィンチにさせることで、操作する人は鼓動を考慮せずに手術をすることができる。

 

「心地よさ」を生み出す

触感フィードバック機能と心理学を結びつける研究もされている。例えば、心臓の鼓動を与えて、その人を落ち着かせることができる。また、三木教授はサルサというペアダンスを趣味としているのだが、そういったペアダンスやマッサージのように、人に触れられると心地よく感じることを利用して信号を与えることで、治療に生かすという研究もされている。

 

課題と展望

近年、テレイグジステンス(tele + existence)という、自分の行きたいところにいるロボットと通信でつながり、ロボットがものを触った感覚や視覚の情報を伝えることで、実際に自分がそこにいるかのような感覚が得られる技術も開発されている。しかしこれには、一人一台のロボットが必要になってしまうという問題がある。ほかにも、視覚や聴覚は、波長という容易に数値化できる値を用いることで、音の高さや色を簡単に変えることができるのに対し、触覚は、様々な要素から決まる上、数値化が難しい。そこで、求めている触覚をいかに相手に伝えればよいかという研究も行なわれている。例えば、つるつるやザラザラといったオノマトペを、硬さと温度と湿り具合の軸をとって分類したり、求めている触感を持つものを触ってもらった後に、いろいろな刺激を与えて、その触感に近いものを探してもらう、といった研究だ。

 

難しい課題が残っているものの、様々なことに生かされてきている触感フィードバック機能の将来に期待したい。

(赤星颯麻)