光メディアインタフェース研究室 2018

光メディアインタフェース研究室 助教の田中です.前回の投稿は,2015年3月「光メディアインタフェース研究室 本格始動!」でした.あの時は,研究室が発足したばっかりでしたが,いまや学生はM1からD3まで勢揃いの立派な研究室になりました.今回は,これまでの本研究室の成果を振り返ってみます.

光メディアインタフェース研究室は,1.機械がカメラを通して現実を理解する「コンピュータビジョン」 2.あらゆる物体の質感をリアルに再現する「コンピュータグラフィクス」 3.カメラの常識を打ち破る新しい撮影技術「コンピューテーショナルフォトグラフィ」 4.あらゆる研究の基礎となる「光学設計」の4本柱で研究を進めており,人間と機械が光を媒体としてシーンに関する情報を共有できる新しいインタフェースの実現を目指し活動しています.詳しい研究内容は,研究室ホームページ  をご参照ください.

 

今,光メディアインタフェース研究室には,教授・准教授・2名の助教の計4名の教員,事務補佐員,6名の博士後期課程学生,16名の博士前期課程学生,さらに1名のインターン生で活動しています.研究室の学生は,毎年何らかの研究予算を自分で獲得してきてプロジェクトを進めるなど,活発な人が多く在籍しています.CICPと呼ばれる学内予算はもとより,日本学術振興会特別研究員や,JST ACT-I,IPA未踏スーパークリエーター認定などを得ており,自ら未開拓分野を切り拓いていく姿勢には感心します.これまでに,本研究室を修了した学生は,3年間で延べ21人となり,各方面で活躍しています.「光メディアインタフェース研究室出身はすごい」と呼ばれるよう,より一層の活躍を期待したいところです.また,これまで多数の留学生・インターン等を受け入れています.なぜだか分かりませんが,多くがフランス語圏からの留学生です.もしかして,フランス語の案内ページも作ったほうが良いのでしょうか…?

本研究室は,活発に外部の機関と共同研究を実施してきました.複数の国内大手電機メーカーや農業・医療・自動車産業,アニメ産業の企業と連携中あるいは連携してきました.アカデミックでは,東京大学・京都大学・大阪大学・九州大学・国立情報学研究所・筑波大学・広島大学・早稲田大学・東邦大学や,Carnegie Mellon University (CMU・アメリカ)・Arizona State University(アメリカ)・The University of Picardie Joule Verne (フランス)・The University of California Los Angeles (UCLA・アメリカ) の研究者と共同研究を実施してきました.プロジェクトの数が多く,学生が多数の幅広いテーマから自分のやりたいことを選択し取り組めるのも,この研究室の大きな特徴かもしれません.

彼らとともに成し遂げた研究プロジェクトは http://omilab.naist.jp/publications-jp.html から見ることができます.数字で見ていくと,情報電子通信学会論文賞やMIRU長尾賞などの大きな賞を含む24個の受賞,2本のPAMI(最難関国際論文誌)を含む12本の論文誌および5本のCVPR(最難関国際会議)を含む21本の査読付き国際会議論文を発表してきました.どのテーマで研究しても,在学中に1回以上の発表を学会で行うべく,ハイレベルな研究活動を行っています.

 

ここで,大きな賞を受賞した2つの研究を少し紹介したいと思います.一つ目は,電子情報通信学会論文賞やMIRUフロンティア賞を受賞している,一連の新しいコンピュータグラフィクス(CG)の研究です.多くの人は,CGと聞くと,ゲームや映画で使われているようなきれいな画を作る技術だと思われているでしょう.これまでのCG技術の一つに,現実の物体を計測し,それそっくりな見た目の映像を計測データを使って「画面上で」リアルに表現するというものがありました.我々の研究室では,この「画面上」という制限を取っ払って,「リアル空間で」計測した物体そっくりのレプリカをつくろうという新しい表現方法を研究しています.つまり,物体の形状と質感を,3Dプリンタや高度な印刷技術,微細構造の工夫などによって,現実空間にコピーする技術の開発を行っています.図1にこの研究の例を示しています.この実験では,計測したサーモンの質感を,ロウでできた物体にコピーしています.写真ではわかりにくいかもしれませんが,どこからみてもサーモンっぽい質感の再現に成功しました.この技術が発展すれば,本物の美術品や古典籍にそっくりな触れるレプリカの作成,個人個人の肌とそっくりな義手・義足や,エンターテインメントなど,コンピュータグラフィクス技術の新しい社会実装に貢献できるのではないかと考えています.


図1:本物のサーモン(左)とリアルな見た目のレプリカ(右)

 

2つ目の研究は,MIRU長尾賞という,いわゆる日本一と認められた,新しいコンピュータビジョンの研究です.コンピュータビジョンというと,カメラで撮影された視覚情報をコンピュータでどのように理解するか,という風に説明されてきました.我々の研究室では,カメラで撮影された後の2次元画像からスタートしているようでは情報が不十分であり,画像になる前の,現実世界を飛び交う光の状態からシーン理解を行うべきだという信念のもと,より次元を増やした計測からシーン理解を行う研究を行っています.その中でも,時間の次元を増やす,ということに関して,世界のトップレベルとしのぎを削っています.時間の次元と言っても,単にビデオやハイスピードカメラで撮影するということではありません.この研究室で行っているのは,「光」自体が伝わっていく様子を可視化できるくらいの超高速な計測,時間で言うと数ナノ秒(0.000000001秒)から数ピコ秒(0.000000000001秒)です.図2に,実際に 250ピコ秒で撮影した画像を載せています.このレベルになると,光がどのように反射・散乱し,シーン中を伝わっていくのかが分かります.当然ながら,こうした情報を使うと,3次元形状,物体の材質,異常検知などが簡単に行えるようになります.

 
図2:シーン(左)中を光が伝播していく様子(右)

光メディアインタフェース研究室では,現在,向川教授を研究代表とした大型プロジェクト「多元光情報の符号化計測と高次元化処理の協調設計」を実施しています.このプロジェクトでは,計測の次元を「時間」だけでなく,「波長」や「空間」といった次元にも拡張していき,高度な計測技術を確立することを目指しています.博士課程やポスドクとして参画したい方,コンタクトください.

 

最後に,NAISTへの入学を検討している方や,インターン希望の方,ぜひ一度光メディアインタフェース研究室に見学に来てください.文章ではわからない研究のこと,研究室の雰囲気,研究の進め方,などなど,今後の進路に役立つこと間違いありません.NAISTでは,受験生のためのオープンキャンパス を毎年2月と5月に行っています.また,受験を検討している人のために2・3日の研究体験ができるサマーセミナー (8月頃)や スプリングセミナー (2月頃)もやっています.さらに,いつでも見学会 という制度を使うと,研究室が受け入れ可能な日はいつでも見学・相談が可能です.ぜひ,ご検討ください.

Speed Up Machine Learning Through Efforts of Advanced VLSI Circuits

Hello, world. This is from Assistant Professor Renyuan Zhang with Computing Architecture Lab. to share some progresses from our group, which are all about speeding up the machine learnings through efforts of advanced VLSI circuits.

Why do we implement the machine learning in silicon?

The artificial intelligence plays very important roles in the modern/post IoT. A common challenge is how to efficiently implement machine learning algorithms in systems with the cloud-edge prototype. Along with the development of computing processors, one option is to distribute the machine learning at the “edge” of systems as show in the sided figure.

In such a system, both of learning and recognition (for instance) are carried out at the edge instead of central stations, which is helpful to reduce the communications and able to active movable equipment off-connecting any PC (such as vehicles and body-area). Unfortunately, very few on-chip learning processors have been developed for machine learning at edge in silicon.

Both of digital and analog efforts have been done a lot to develop on-chip learning processors. Multi-computational-core is a general digital strategy to process a large number of complex computations in parallel (see machine learning works by GPGPU). Our group members also hold some experiences of implementing machine learning by CGRAs with very high parallelism. For many IoT tasks, the computational accuracy is not extremely required. Therefore, some approximate computing processors were designed by analog circuits. In some of my early works, it is found the chaos of analog signals greatly speeds up the learning process. We have realized ultra-high speed on-chip learning for some specific algorithms such as SVM or K-means. In summary, the CPU or GPGPU is not always applicable for every edge device; analog processors have potentials of high-speed and low-power, but their functions (target algorithms) are always fixed and specific. Therefore, most of current/previous IoT works, which employ machine learning, have to carry out the “learning” centrally, then do the recognitions locally.

What have we done?

On the academia side, the ML and AI research/development is one of the most popular fields. There are many groups and societies are trying to design specific VLSI systems for realizing efficient ML. Most of those works are based on the high performance digital processors. The analog (even physics device) circuit has been a new (or we can say re-born) trend leading to ultra-high speed and efficiency. Our early work was one of world-first pure-analog ML chips with benefits but suffered from poor generalization. Thus, we are going to develop generally and practically feasible technologies in this field. In industry, many software/hardware makers start their competitions on VLSI chips for ML/AI in past five years (see “IBM Scientists Show Blueprints for Brain-like Computing,” “Building a Brain on a Silicon Chip” and “Intel Reveals Neuromorphic Chip Design”). The mobile supplier HUAWEI even actually applied the NPU (Neural Processing Unit) in their newest mobile chip “Kirin970”.  In our early works, world fastest learning (64-D SVM learning within 0.1us, 2012; 64-D K-means within 20ns, 2013; 64-D SVDD within 40ns, 2014) has been achieved (see the sided figure as an example: SVDD algorithm is implemented by VLSI to do the multi-class image classification). However, the algorithms and capacities were fixed. We expect to keep the speed benefit and generalize the target algorithms.

What are we going to do?

As an exploration, we are expecting to develop general purpose on-chip learning processor which accelerates various machine learning processes by analog VLSIs. As consequence, local/on-chip machine learning is feasible and practical for ubiquitous applications.

We are designing ultra-high speed and low-energy hardware (VLSIs) for implementing the so-called on-chip learning (not for specific but various algorithms). The analog approximate computing strategy is adapted. The circuit-, unit-, and architecture-level are explored; several actual VLSI chips are expected to fabricate as demonstrations. For instance, we will demo the visual tracking with ML by a single VLSI chip without any PC.

As shown in the sided figure, three key ideas are included in this project: 1. General purpose Analog Calculation Unit (called ACU); 2. Fully-parallel accelerating strategy; 3. Expanding the learning capacity. It is a cross-field among high-performance-computing, the VLSI designs and machine learning theories.

What are we expecting?

Firstly, we expect our novel learning mode: chaos of continuous signals, to impact the machine learning societies for reasonable applications. Along with the development of IoT, various demands of on-chip machine learning require the well-performance hardware besides CPU or GPGPU. Secondly, a general purpose ML accelerator leads to practical “smart chips”, which are embedded into the edge-devices of IoT. Currently, most of IoT works execute the recognition at the edge, but do the learning process on cloud or central stations. The edge learning offers a potential for industry to build more efficient and intelligent network, in which the machine learning can be done by VLSI chips instead of CPUs.

Most importantly, the road-map of VLSI scaling-down might reach the end soon. Different strategies of high performance computing architecture should be explored. The progress of this project is expected to push the analog approximate computing fashion into practical fields. The developed ACUs can be applied in various architectures even together with digital frameworks. The general purpose and programmable analog computing, as an internal progress, offers a different option of data processing: lighter, but faster.

Thank you very much for your kind reading.

電力変換回路の高効率開発に向けた電熱連成解析

ディペンダブルシステム学研究室助教の新谷です。今日は、我々の研究テーマの1つであるパワーMOSFETのモデル化に関する研究を紹介いたします。

パワーMOSFETと発熱
現在、世界各国で電気自動車の開発が盛んに進められています。電気自動車のモーター出力は120kW以上が要求され、そのためには、電源電圧600Vであれば電流200A以上となります。このような、大電流、大電圧の環境下で使用されるパワーMOSFETの性能は、耐圧1200V以上、100A以上を扱えることが最低条件になります。

このような大電力を扱う回路において、最も重要な設計制約は「熱」です。パワーMOSFETはスイッチング時にスイッチング損失を生じます。ドレイン端子からソース端子に流れる電流に生じる導通損失、ゲート端子に寄生する容量成分で生じるゲート電荷損失などがあり、PCやスマートフォンなどに搭載されるマイクロデバイスとは比べ物にならないほど高い値になります。これらの電力損失は熱として現れ、回路特性およびパワーMOSFET周辺に設置された素子に大きな影響を与えます。したがって、高い信頼性が要求される電力変換回路の設計では、設計早期段階でホットスポット(発熱が大きい箇所)を知り、これを考慮した熱設計が必須といえます。従来は、電気特性は回路シミュレーションを行い、熱特性については電磁界解析シミュレータにより行う、というように電気特性と熱特性を分けて解析する手法が主流であり、同時に解析することは困難とされてきました。

そこで、熱特性と電気特性に類似性があり熱特性においても電気特性の基礎法則であるオームの法則が成り立つことに着目しました。表1のように、熱流量、温度はそれぞれ電流、電圧、電位差に置き換えられることができます。抵抗などはそのまま、熱の伝わりにくさを示す熱抵抗となります。我々の研究グループでは、熱特性を電気回路で模した熱回路を用いることで、回路シミュレーション上で電気特性と熱特性を同時に解析する連成解析手法を可能にしました。

表1: 電気特性と熱特性の類似性

電気特性 温度特性
電圧 (V) 温度 (°C)
抵抗 (Ω) 熱抵抗 (°C/W)
容量 (F) 熱容量 (J/°Cm3)
電流 (A) 熱量 (J)
消費電力 (W) 熱流量 (J/s)

 

電熱回路シミュレーションモデル
電熱連成解析実現のために、図1に示すような回路シミュレーションモデルを構築しました。本モデルでは、電気特性と熱特性が相互に依存し合うようになっています。まず、図1の左部分は、パワーMOSFETの電気特性であり、与えられた温度、電圧条件における電流値を計算します。電圧と計算した電流から、MOSFETで消費される電力が計算可能となります。図2の右側は熱回路になります。MOSFETモデルで計算した消費電力を入力とし、デバイスの発熱温度が計算されます。表1から、電気特性で計算された消費電力は、熱特性モデルにおける熱流量のように扱うことができます。熱回路は、一般的に熱抵抗と熱容量から構成されます。ここでは、フォスター回路型と呼ばれる多段RC回路を採用しました。このRC回路により、MOSFETを包むパッケージ樹脂における熱の通しやすさをモデル化しています。熱回路で計算された温度は、再度MOSFETモデルに戻され、この温度および電圧条件での電流を計算します。これらの計算処理は、全て回路シミュレータで行われます。既存の方法では、2つのシミュレータにまたがって行われていた計算を一度に行うことができます。


図1: 電気特性モデルと熱特性モデル

さて、図1のモデルを用いて、任意のデバイスの特性を表現できるようにするためには、モデルのパラメータをデバイスに合わせる必要があります。具体的には、次の2つの手順が必要です。

  1. 温度を考慮した電気特性モデルパラメータの推定
  2. 熱特性モデルパラメータの推定

 

温度を考慮した電気特性モデルパラメータの推定
まず、電気特性モデルで使用されるパラメータを抽出します。電気特性モデルは、その特性を正確に再現するために、いくつかのパラメータで構成されています。MOSFETモデルの場合、フラットバンド電圧、寄生抵抗成分、移動度があります。電気特性モデルを用いることで、電流の特性を計算することができますが、電流が多く流れるデバイスもあれば、電流量が少ないデバイスもあります。そこで、モデル化対象となるデバイスの実測結果をよく再現するようにパラメータを最適化・抽出する必要があり、この工程をパラメータ抽出と呼びます。

ここでは、図2に示すように、温度毎に電流特性とシミュレーションモデルを一致させました。上述のフラットバンド電圧、移動度などのパラメータは、温度に対して一次の依存性を持つことが知られているため、パラメータを温度の1次関数とみなして抽出を行っています。このように、モデルパラメータに温度依存性を持たせることで、図2のように任意の温度における電流値を計算することができます。


図2: 温度毎の電流特性とそのモデル。点が電流の実測値で、線がシミュレーションによる計算結果を表す。

 

熱特性モデルパラメータの推定
上述のように、熱特性モデルは抵抗と容量から構成される多段RC回路でモデル化されています。これらの抵抗値、容量値はどのように求めれば良いのでしょうか。図1のシミュレーションモデルは、図3に示すようなフィードバック制御回路として表現できます。我々は、この熱特性モデルを熱伝達特性とみなして、熱特性モデルのパラメータ推定手法を開発しました。


図3: フィードバック制御図

具体的には、図4のように、パルス幅変調(PWM)機構を用いてMOSFETに対する電力を一定に保ちながら、チップの熱応答を測定する手法を提案しました。PWM機構を用いて、一定周期で現在の電力を計算し、電力を一定に保つように電流の導通時間を制御することで常に平均消費電力が一定になるよう制御します。これにより、伝達関数のステップ応答を直接測定可能になり、複雑な数値処理を行うことなくパラメータを求めることが可能になります。


図4: パルス幅変調回路による電力保持機構

 

バックコンバータを用いた評価
最後に、代表的な電力変換回路であるバックコンバータを用いた評価結果を示します。バックコンバータの回路図は図5の左図で示され、SiCショットキーバリアダイオード(SBD)とSiCパワーMOSFETを含みます。実際に作成した回路は図5の右図になります。この評価では、実測した電気特性と熱特性の過渡的な変化と回路シミュレーション結果による比較を行いました。回路シミュレーションは、市販のSPICE回路シミュレータに、開発した電気特性モデルおよび熱特性モデルを組み込むことで行っています。


図5: バックコンバータの回路図とプリント基板への実装

図6に電気特性および熱特性の過渡解析結果を示します。まず、電気特性、熱特性ともに実測結果とシミュレーションともに非常によく合っていることがわかります。特に、熱解析においては600秒までの過渡的な変化を正確に模擬しており、その誤差は7.52%以下、と非常に高精度なものとなっております。


図6: 電気特性(左)と熱特性(右)の過渡変化の実測とシミュレーションの比較

 

終わりに
以上が、これまでの研究成果の一部の紹介です。地球資源に依存しないクリーンなエネルギーは全世界が注目する研究分野であり、本研究はその一端を担ったものです。近年のパワーエレクトロニクスの進展はすさまじいものがあり、本研究の成果によりパワーエレクトロニクス企業からお声がけいただくことも多く、科学技術振興機構の産学共創プラットフォーム共同研究推進プログラム(OPERA)に一研究グループとして参加しています。最近では、電力変換回路の最適化に関して機械学習を応用した手法の研究にも取り組んでおり、情報科学と電気電子工学の両方を学びたい学生にはちょうど良い研究テーマです。また、計算機上のプログラムによる確認にとどまらず,自ら考えた回路を試作して動作を確認するため、アイデアを具現化する達成感を味わうことができます。

 

生物に倣うロボットの制御

こんにちは,知能システム制御研究室助教の小林です.

ロボットというのは往々にして生物を手本にその機構や制御を設計します.何故なら,生物というのはその誕生から進化をし続けて現在の環境へと最適化されているからです.そんな生物の機構や制御を紐解けば,ロボットにとっても最適な機構や制御を導くことができます.例えば私の過去の研究では,ヒューマノイドロボットの歩行制御を人の歩行の特徴,モデルを基に設計することで人のような省エネな歩行を実現してきました.最近では,生物の運動制御を司る小脳の神経回路網を模倣したReservoir Computingを利用した継続学習に挑戦しています.
なお,研究室の詳しい情報は研究室HPを,私のその他の研究については個人HPをご覧ください.

これまでの研究

この歩行に関する研究は「マルチロコモーションロボット」というプロジェクトの一環で行ってきました.マルチロコモーションロボットというのは,ロボットが単一の移動形態,例えば2足歩行,だけを利用して環境に適応しようとするのではなく,複数の移動形態から最適なものを直面している状況に応じて適宜選択・切り替えていくことでより複雑な環境に適応する,というコンセプトです.これもやはり生物に倣っていて,人を例に見れば,普段は歩きますが急ぐ時は走りますし,梯子を登ったり,山道では両手にトレッキングポールという杖を持って脚への負担の分散,つまり4足歩行をするはずです.この複数の移動形態というのは,それぞれが得意な環境・苦手な環境がありますので,互いの短所を補い合い長所だけを上手く利用すれば,単一の移動形態だけを駆使するよりも遥かに優れた環境適応能力を得られます.

では,そんな複数の移動形態を扱うにはどうすれば良いのでしょうか?単純に考えれば,各移動形態を実現する制御器を別々に用意すれば良いと思うでしょう.しかしこの移動形態というのは細かく分ければ無数に存在しますので,全てを別の制御器で扱うというのは現実的ではありません.そのため,複数の移動形態を可能な限り統一的に扱うような制御器を設計することが求められます.そんな制御器として,環境との受動的な点接触と全身関節角が接触角に連動して動く仮想拘束の2つの原理を組み込んだPassive Dynamic Autonomous Control (PDAC)という手法を提案してきました.この2つはロボットの全身ダイナミクスを非常に簡単なものにしてくれ,さらには,環境と何処で接触しているのか,どのように連動させるか,の2点だけを考えれば全ての移動形態を制御できるようにしてくれます.

特に連動のルール,すなわち仮想拘束を上手に与えると,似た移動形態をさらに統一的に扱うことができます.2足歩行と走行を例に見れば,両脚が地面から離れる跳躍期の有無という違いはあるものの,その本質は左右の脚を交互に振り出していくという共通点があります.人の歩行と走行の解析をして得られたモデルも倒立振子を基にしており,振子の剛性(歩行では硬く,走行では柔らかい)という差異はあるものの,十分に共通化できるものとなっています.この共通化されたモデルに従って仮想拘束を与えると,ただ歩行と走行を扱えるだけでなく,両者間を共通化されたモデルのパラメータ1つを変えるだけで容易に切り替えることが可能になります.ちなみに,この切り替えタイミングについても生物の特徴を取り入れることができます.生物が歩行と走行を切り替えるのは,移動距離当たりのエネルギー消費を最小化するためということが解明されています.つまり,ロボットでも歩行と走行のエネルギー消費を比較して関係が逆転するタイミングで切り替えれば良いのです.
このように生物の特徴をふんだんに取り入れて設計された制御器は,生物のように低速時には歩行を,高速時には走行を自然と実行することができます.

最近の研究

生物の何処が身体を上手に制御しているかと言えば,それは間違いなく脳だと言えるでしょう.つまり,生物の脳構造を紐解いて模倣することができれば,生物のように巧みな動きが実現できるはずです.脳構造を模倣したもの全般はニューラルネットワークと呼ばれ,最近ではこのネットワークの層構造を何十,何百層とした,いわゆる深層学習が認識技術として大きな成功を収めています.この深層学習は人の視覚野と似た情報処理構造をしているとされていますが,では運動制御を司っている小脳を模倣した情報処理構造はどうなっているのでしょうか?その答えがLiquid State Machine (LSM)やEcho State Network (ESN)に代表されるReservoir Computingになります.

Reservoir Computingは入力層・リザーバ層・出力層の3層で構成され,このリザーバ層が自身の信号を再び取り入れるという,再帰的な結合を持つリカレントニューラルネットワークの一種となります.Reservoir Computingの最たる特徴は,学習するノード間の結合がリザーバ層と出力層を接続しているリードアウトのみ,という点にあります.つまり,一般的なニューラルネットワークと異なり,出力層における誤差を逆伝播させることなく,リザーバ層は初期のランダムな結合のままで固有のダイナミクスを有したままとなります.このリザーバ層の構造が小脳における顆粒層に相当するといわれています.また,リザーバ層を学習しないで良いため,そのノード数は通常のニューラルネットワークより非常に大きくしやすくなっており(1千〜1万個など),顆粒層(1000億個ほど)と比べればまだまだ少ないですが,それでも類似した特徴といえます.

最近は,このReservoir Computingを用いた継続学習について研究しています.一般的なニューラルネットワークというのは,誤差逆伝播によってネットワーク全体の結合荷重を更新して学習したいタスクを獲得するため,タスクAについて学習済みのネットワークでタスクBを学習すると,タスクAを扱えなくなる「破滅的忘却」という問題を抱えています.Reservoir Computingであれば,リードアウトをスパースに学習するだけでタスク間の競合を最小限に抑えられます.また,リザーバ層にあるタスク入力を加えれば,固有のダイナミクスに基づいた入力依存の活性化パターンが期待されますので,タスクごとに異なるノードが活性化しやすいようになります.こういった工夫を取り入れることで従来のように全てのタスクについて同時に学習するのではなく,生物のようにタスクを1つずつ継続的に学習することができます.この継続学習は,生物のように生涯を通じて学習し続けて次々に新しいことができるようになる自律ロボットを開発するにあたって非常に重要な能力になります.

現実感を操作して新しい能力を創る

2017年4月に情報科学研究科に誕生した新しい研究室、サイバネティクス・リアリティ工学研究室(Cybernetics & Reality Engineering Laboratory, CAREラボ)を紹介します。

「サイバネティクス」は人とシステムを統一的に扱う学問のことです。「リアリティ工学」は現実感を操作するあらゆる技術を総称する造語です。サイバネティクス・リアリティ工学研究室では、身につけることで現実感を自由自在に操作し、新たな能力を獲得する、人間に対するプラグインあるいはエクステンションモジュールとしての情報システムについて研究しています。ひとことで言えば、未来の道具や超能力をマジメに創ろうとしています。

私たち人間はコンピュータが登場する遥か以前から、様々な道具を発明し、体の一部になったかのように使いこなすことで新しい能力を獲得してきました。私たちは日差しが眩しければサングラスをかけ、音が聞こえにくければ補聴器をつけます。ローテク/ハイテク、アナログ/デジタルを問わず、私たちは現実世界の見え方、聞こえ方、感じ方を操作・調整する様々な道具を使っているのです。バーチャルリアリティ(VR)、拡張現実感(AR)、複合現実感(MR)、コンピュータビジョン、ウェアラブルコンピュータ、コンテキストアウェアネス、機械学習、生体情報処理などといった様々な先端技術を駆使することで、より自由自在に現実感を操作する、未来の道具を創ることができます。

例えば、幾つかのビデオカメラを取り付けたヘッドマウントディスプレイを用いると、遠くの文字が見づらいなあと眼を凝らしたことに反応して、注目した箇所が自動的にズームするゴーグルを構成できます。同様に、捜し物をしているなど首を大きく振ることで視野が180度よりも拡がり横や後ろまで見えるようになるゴーグルも構成できます。

また、距離センサを取り付けたヘッドマウントディスプレイを用いると、実際には動くことなく滑らかに視点を動かして、今いる部屋を上から眺めるといったことが可能になります。周囲の情景の三次元モデルをリアルタイムに獲得して位置をずらしながら目の前に実物大で表示することで、自分の立ち位置が変化したかのような視覚効果を作るわけです。

また、視界全体ではなく特定の物の見え方を操作することも考えられます。例えば、顔表情の変化を捉えて大げさに誇張すれば、表情表出の苦手な人や表情を読み取るのが苦手な人でも、お互いの気持が伝わりやすくなるかも知れません。

視覚に関わる研究ばかりではありません。例えば、自由に向きを変えられる強力なファンを用いれば、目を閉じていても目的地まで引っ張って連れて行ってくれるナビゲーションシステムを実現できます。

過去には、働く人の疲労度や集中度を推定して、照明色やBGMを自動で切り替えたり、居眠りしている人をモーションチェアで揺り起こすようなスマートオフィスを開発したこともあります。

このようなシステムを実現するには、人や環境の状態を知るセンシング技術、感覚を操るディスプレイ技術、道具と人の関わり方を考えるインタラクション技術の3つの柱が重要になります。次の図は、私たちの研究室で主に取り組んでいる研究分野の関係を示したものです。

生まれながらに備わった私たちの様々な能力や自然界の物理法則などは簡単には変えることができません。しかし、こうした未来の道具を用いることで、障害を補ったり、新たな能力を獲得したり、人間の可能性を無限に拡げることができるのです。瞳の色が違えば世界の見え方が違うように、私たちの感じる現実感はそもそもひとりひとり異なります。情報技術を用いて、より積極的に現実感を操作することで、ひとりひとりに寄り添った「パーソナライズドリアリティ」を提供し、より便利に、より快適に、あるいはより安心して生活できることを目指しています。こうした情報システムを通じて、すべての人々がそれぞれの能力を最大限に発揮して助け合う、インクルーシブな社会の実現に寄与したいと考えています。研究室の略称であるCAREには、人をケアして寄り添うという意味も込められています。

私たちの研究室では、本記事で紹介した以外の様々な研究を実施しています。ご興味のある方はぜひサイバネティクス・リアリティ工学研究室のホームページをご覧ください。
http://carelab.info/