光メディアインタフェース研究室 2018

光メディアインタフェース研究室 助教の田中です.前回の投稿は,2015年3月「光メディアインタフェース研究室 本格始動!」でした.あの時は,研究室が発足したばっかりでしたが,いまや学生はM1からD3まで勢揃いの立派な研究室になりました.今回は,これまでの本研究室の成果を振り返ってみます.

光メディアインタフェース研究室は,1.機械がカメラを通して現実を理解する「コンピュータビジョン」 2.あらゆる物体の質感をリアルに再現する「コンピュータグラフィクス」 3.カメラの常識を打ち破る新しい撮影技術「コンピューテーショナルフォトグラフィ」 4.あらゆる研究の基礎となる「光学設計」の4本柱で研究を進めており,人間と機械が光を媒体としてシーンに関する情報を共有できる新しいインタフェースの実現を目指し活動しています.詳しい研究内容は,研究室ホームページ  をご参照ください.

 

今,光メディアインタフェース研究室には,教授・准教授・2名の助教の計4名の教員,事務補佐員,6名の博士後期課程学生,16名の博士前期課程学生,さらに1名のインターン生で活動しています.研究室の学生は,毎年何らかの研究予算を自分で獲得してきてプロジェクトを進めるなど,活発な人が多く在籍しています.CICPと呼ばれる学内予算はもとより,日本学術振興会特別研究員や,JST ACT-I,IPA未踏スーパークリエーター認定などを得ており,自ら未開拓分野を切り拓いていく姿勢には感心します.これまでに,本研究室を修了した学生は,3年間で延べ21人となり,各方面で活躍しています.「光メディアインタフェース研究室出身はすごい」と呼ばれるよう,より一層の活躍を期待したいところです.また,これまで多数の留学生・インターン等を受け入れています.なぜだか分かりませんが,多くがフランス語圏からの留学生です.もしかして,フランス語の案内ページも作ったほうが良いのでしょうか…?

本研究室は,活発に外部の機関と共同研究を実施してきました.複数の国内大手電機メーカーや農業・医療・自動車産業,アニメ産業の企業と連携中あるいは連携してきました.アカデミックでは,東京大学・京都大学・大阪大学・九州大学・国立情報学研究所・筑波大学・広島大学・早稲田大学・東邦大学や,Carnegie Mellon University (CMU・アメリカ)・Arizona State University(アメリカ)・The University of Picardie Joule Verne (フランス)・The University of California Los Angeles (UCLA・アメリカ) の研究者と共同研究を実施してきました.プロジェクトの数が多く,学生が多数の幅広いテーマから自分のやりたいことを選択し取り組めるのも,この研究室の大きな特徴かもしれません.

彼らとともに成し遂げた研究プロジェクトは http://omilab.naist.jp/publications-jp.html から見ることができます.数字で見ていくと,情報電子通信学会論文賞やMIRU長尾賞などの大きな賞を含む24個の受賞,2本のPAMI(最難関国際論文誌)を含む12本の論文誌および5本のCVPR(最難関国際会議)を含む21本の査読付き国際会議論文を発表してきました.どのテーマで研究しても,在学中に1回以上の発表を学会で行うべく,ハイレベルな研究活動を行っています.

 

ここで,大きな賞を受賞した2つの研究を少し紹介したいと思います.一つ目は,電子情報通信学会論文賞やMIRUフロンティア賞を受賞している,一連の新しいコンピュータグラフィクス(CG)の研究です.多くの人は,CGと聞くと,ゲームや映画で使われているようなきれいな画を作る技術だと思われているでしょう.これまでのCG技術の一つに,現実の物体を計測し,それそっくりな見た目の映像を計測データを使って「画面上で」リアルに表現するというものがありました.我々の研究室では,この「画面上」という制限を取っ払って,「リアル空間で」計測した物体そっくりのレプリカをつくろうという新しい表現方法を研究しています.つまり,物体の形状と質感を,3Dプリンタや高度な印刷技術,微細構造の工夫などによって,現実空間にコピーする技術の開発を行っています.図1にこの研究の例を示しています.この実験では,計測したサーモンの質感を,ロウでできた物体にコピーしています.写真ではわかりにくいかもしれませんが,どこからみてもサーモンっぽい質感の再現に成功しました.この技術が発展すれば,本物の美術品や古典籍にそっくりな触れるレプリカの作成,個人個人の肌とそっくりな義手・義足や,エンターテインメントなど,コンピュータグラフィクス技術の新しい社会実装に貢献できるのではないかと考えています.


図1:本物のサーモン(左)とリアルな見た目のレプリカ(右)

 

2つ目の研究は,MIRU長尾賞という,いわゆる日本一と認められた,新しいコンピュータビジョンの研究です.コンピュータビジョンというと,カメラで撮影された視覚情報をコンピュータでどのように理解するか,という風に説明されてきました.我々の研究室では,カメラで撮影された後の2次元画像からスタートしているようでは情報が不十分であり,画像になる前の,現実世界を飛び交う光の状態からシーン理解を行うべきだという信念のもと,より次元を増やした計測からシーン理解を行う研究を行っています.その中でも,時間の次元を増やす,ということに関して,世界のトップレベルとしのぎを削っています.時間の次元と言っても,単にビデオやハイスピードカメラで撮影するということではありません.この研究室で行っているのは,「光」自体が伝わっていく様子を可視化できるくらいの超高速な計測,時間で言うと数ナノ秒(0.000000001秒)から数ピコ秒(0.000000000001秒)です.図2に,実際に 250ピコ秒で撮影した画像を載せています.このレベルになると,光がどのように反射・散乱し,シーン中を伝わっていくのかが分かります.当然ながら,こうした情報を使うと,3次元形状,物体の材質,異常検知などが簡単に行えるようになります.

 
図2:シーン(左)中を光が伝播していく様子(右)

光メディアインタフェース研究室では,現在,向川教授を研究代表とした大型プロジェクト「多元光情報の符号化計測と高次元化処理の協調設計」を実施しています.このプロジェクトでは,計測の次元を「時間」だけでなく,「波長」や「空間」といった次元にも拡張していき,高度な計測技術を確立することを目指しています.博士課程やポスドクとして参画したい方,コンタクトください.

 

最後に,NAISTへの入学を検討している方や,インターン希望の方,ぜひ一度光メディアインタフェース研究室に見学に来てください.文章ではわからない研究のこと,研究室の雰囲気,研究の進め方,などなど,今後の進路に役立つこと間違いありません.NAISTでは,受験生のためのオープンキャンパス を毎年2月と5月に行っています.また,受験を検討している人のために2・3日の研究体験ができるサマーセミナー (8月頃)や スプリングセミナー (2月頃)もやっています.さらに,いつでも見学会 という制度を使うと,研究室が受け入れ可能な日はいつでも見学・相談が可能です.ぜひ,ご検討ください.

Speed Up Machine Learning Through Efforts of Advanced VLSI Circuits

Hello, world. This is from Assistant Professor Renyuan Zhang with Computing Architecture Lab. to share some progresses from our group, which are all about speeding up the machine learnings through efforts of advanced VLSI circuits.

Why do we implement the machine learning in silicon?

The artificial intelligence plays very important roles in the modern/post IoT. A common challenge is how to efficiently implement machine learning algorithms in systems with the cloud-edge prototype. Along with the development of computing processors, one option is to distribute the machine learning at the “edge” of systems as show in the sided figure.

In such a system, both of learning and recognition (for instance) are carried out at the edge instead of central stations, which is helpful to reduce the communications and able to active movable equipment off-connecting any PC (such as vehicles and body-area). Unfortunately, very few on-chip learning processors have been developed for machine learning at edge in silicon.

Both of digital and analog efforts have been done a lot to develop on-chip learning processors. Multi-computational-core is a general digital strategy to process a large number of complex computations in parallel (see machine learning works by GPGPU). Our group members also hold some experiences of implementing machine learning by CGRAs with very high parallelism. For many IoT tasks, the computational accuracy is not extremely required. Therefore, some approximate computing processors were designed by analog circuits. In some of my early works, it is found the chaos of analog signals greatly speeds up the learning process. We have realized ultra-high speed on-chip learning for some specific algorithms such as SVM or K-means. In summary, the CPU or GPGPU is not always applicable for every edge device; analog processors have potentials of high-speed and low-power, but their functions (target algorithms) are always fixed and specific. Therefore, most of current/previous IoT works, which employ machine learning, have to carry out the “learning” centrally, then do the recognitions locally.

What have we done?

On the academia side, the ML and AI research/development is one of the most popular fields. There are many groups and societies are trying to design specific VLSI systems for realizing efficient ML. Most of those works are based on the high performance digital processors. The analog (even physics device) circuit has been a new (or we can say re-born) trend leading to ultra-high speed and efficiency. Our early work was one of world-first pure-analog ML chips with benefits but suffered from poor generalization. Thus, we are going to develop generally and practically feasible technologies in this field. In industry, many software/hardware makers start their competitions on VLSI chips for ML/AI in past five years (see “IBM Scientists Show Blueprints for Brain-like Computing,” “Building a Brain on a Silicon Chip” and “Intel Reveals Neuromorphic Chip Design”). The mobile supplier HUAWEI even actually applied the NPU (Neural Processing Unit) in their newest mobile chip “Kirin970”.  In our early works, world fastest learning (64-D SVM learning within 0.1us, 2012; 64-D K-means within 20ns, 2013; 64-D SVDD within 40ns, 2014) has been achieved (see the sided figure as an example: SVDD algorithm is implemented by VLSI to do the multi-class image classification). However, the algorithms and capacities were fixed. We expect to keep the speed benefit and generalize the target algorithms.

What are we going to do?

As an exploration, we are expecting to develop general purpose on-chip learning processor which accelerates various machine learning processes by analog VLSIs. As consequence, local/on-chip machine learning is feasible and practical for ubiquitous applications.

We are designing ultra-high speed and low-energy hardware (VLSIs) for implementing the so-called on-chip learning (not for specific but various algorithms). The analog approximate computing strategy is adapted. The circuit-, unit-, and architecture-level are explored; several actual VLSI chips are expected to fabricate as demonstrations. For instance, we will demo the visual tracking with ML by a single VLSI chip without any PC.

As shown in the sided figure, three key ideas are included in this project: 1. General purpose Analog Calculation Unit (called ACU); 2. Fully-parallel accelerating strategy; 3. Expanding the learning capacity. It is a cross-field among high-performance-computing, the VLSI designs and machine learning theories.

What are we expecting?

Firstly, we expect our novel learning mode: chaos of continuous signals, to impact the machine learning societies for reasonable applications. Along with the development of IoT, various demands of on-chip machine learning require the well-performance hardware besides CPU or GPGPU. Secondly, a general purpose ML accelerator leads to practical “smart chips”, which are embedded into the edge-devices of IoT. Currently, most of IoT works execute the recognition at the edge, but do the learning process on cloud or central stations. The edge learning offers a potential for industry to build more efficient and intelligent network, in which the machine learning can be done by VLSI chips instead of CPUs.

Most importantly, the road-map of VLSI scaling-down might reach the end soon. Different strategies of high performance computing architecture should be explored. The progress of this project is expected to push the analog approximate computing fashion into practical fields. The developed ACUs can be applied in various architectures even together with digital frameworks. The general purpose and programmable analog computing, as an internal progress, offers a different option of data processing: lighter, but faster.

Thank you very much for your kind reading.

電力変換回路の高効率開発に向けた電熱連成解析

ディペンダブルシステム学研究室助教の新谷です。今日は、我々の研究テーマの1つであるパワーMOSFETのモデル化に関する研究を紹介いたします。

パワーMOSFETと発熱
現在、世界各国で電気自動車の開発が盛んに進められています。電気自動車のモーター出力は120kW以上が要求され、そのためには、電源電圧600Vであれば電流200A以上となります。このような、大電流、大電圧の環境下で使用されるパワーMOSFETの性能は、耐圧1200V以上、100A以上を扱えることが最低条件になります。

このような大電力を扱う回路において、最も重要な設計制約は「熱」です。パワーMOSFETはスイッチング時にスイッチング損失を生じます。ドレイン端子からソース端子に流れる電流に生じる導通損失、ゲート端子に寄生する容量成分で生じるゲート電荷損失などがあり、PCやスマートフォンなどに搭載されるマイクロデバイスとは比べ物にならないほど高い値になります。これらの電力損失は熱として現れ、回路特性およびパワーMOSFET周辺に設置された素子に大きな影響を与えます。したがって、高い信頼性が要求される電力変換回路の設計では、設計早期段階でホットスポット(発熱が大きい箇所)を知り、これを考慮した熱設計が必須といえます。従来は、電気特性は回路シミュレーションを行い、熱特性については電磁界解析シミュレータにより行う、というように電気特性と熱特性を分けて解析する手法が主流であり、同時に解析することは困難とされてきました。

そこで、熱特性と電気特性に類似性があり熱特性においても電気特性の基礎法則であるオームの法則が成り立つことに着目しました。表1のように、熱流量、温度はそれぞれ電流、電圧、電位差に置き換えられることができます。抵抗などはそのまま、熱の伝わりにくさを示す熱抵抗となります。我々の研究グループでは、熱特性を電気回路で模した熱回路を用いることで、回路シミュレーション上で電気特性と熱特性を同時に解析する連成解析手法を可能にしました。

表1: 電気特性と熱特性の類似性

電気特性 温度特性
電圧 (V) 温度 (°C)
抵抗 (Ω) 熱抵抗 (°C/W)
容量 (F) 熱容量 (J/°Cm3)
電流 (A) 熱量 (J)
消費電力 (W) 熱流量 (J/s)

 

電熱回路シミュレーションモデル
電熱連成解析実現のために、図1に示すような回路シミュレーションモデルを構築しました。本モデルでは、電気特性と熱特性が相互に依存し合うようになっています。まず、図1の左部分は、パワーMOSFETの電気特性であり、与えられた温度、電圧条件における電流値を計算します。電圧と計算した電流から、MOSFETで消費される電力が計算可能となります。図2の右側は熱回路になります。MOSFETモデルで計算した消費電力を入力とし、デバイスの発熱温度が計算されます。表1から、電気特性で計算された消費電力は、熱特性モデルにおける熱流量のように扱うことができます。熱回路は、一般的に熱抵抗と熱容量から構成されます。ここでは、フォスター回路型と呼ばれる多段RC回路を採用しました。このRC回路により、MOSFETを包むパッケージ樹脂における熱の通しやすさをモデル化しています。熱回路で計算された温度は、再度MOSFETモデルに戻され、この温度および電圧条件での電流を計算します。これらの計算処理は、全て回路シミュレータで行われます。既存の方法では、2つのシミュレータにまたがって行われていた計算を一度に行うことができます。


図1: 電気特性モデルと熱特性モデル

さて、図1のモデルを用いて、任意のデバイスの特性を表現できるようにするためには、モデルのパラメータをデバイスに合わせる必要があります。具体的には、次の2つの手順が必要です。

  1. 温度を考慮した電気特性モデルパラメータの推定
  2. 熱特性モデルパラメータの推定

 

温度を考慮した電気特性モデルパラメータの推定
まず、電気特性モデルで使用されるパラメータを抽出します。電気特性モデルは、その特性を正確に再現するために、いくつかのパラメータで構成されています。MOSFETモデルの場合、フラットバンド電圧、寄生抵抗成分、移動度があります。電気特性モデルを用いることで、電流の特性を計算することができますが、電流が多く流れるデバイスもあれば、電流量が少ないデバイスもあります。そこで、モデル化対象となるデバイスの実測結果をよく再現するようにパラメータを最適化・抽出する必要があり、この工程をパラメータ抽出と呼びます。

ここでは、図2に示すように、温度毎に電流特性とシミュレーションモデルを一致させました。上述のフラットバンド電圧、移動度などのパラメータは、温度に対して一次の依存性を持つことが知られているため、パラメータを温度の1次関数とみなして抽出を行っています。このように、モデルパラメータに温度依存性を持たせることで、図2のように任意の温度における電流値を計算することができます。


図2: 温度毎の電流特性とそのモデル。点が電流の実測値で、線がシミュレーションによる計算結果を表す。

 

熱特性モデルパラメータの推定
上述のように、熱特性モデルは抵抗と容量から構成される多段RC回路でモデル化されています。これらの抵抗値、容量値はどのように求めれば良いのでしょうか。図1のシミュレーションモデルは、図3に示すようなフィードバック制御回路として表現できます。我々は、この熱特性モデルを熱伝達特性とみなして、熱特性モデルのパラメータ推定手法を開発しました。


図3: フィードバック制御図

具体的には、図4のように、パルス幅変調(PWM)機構を用いてMOSFETに対する電力を一定に保ちながら、チップの熱応答を測定する手法を提案しました。PWM機構を用いて、一定周期で現在の電力を計算し、電力を一定に保つように電流の導通時間を制御することで常に平均消費電力が一定になるよう制御します。これにより、伝達関数のステップ応答を直接測定可能になり、複雑な数値処理を行うことなくパラメータを求めることが可能になります。


図4: パルス幅変調回路による電力保持機構

 

バックコンバータを用いた評価
最後に、代表的な電力変換回路であるバックコンバータを用いた評価結果を示します。バックコンバータの回路図は図5の左図で示され、SiCショットキーバリアダイオード(SBD)とSiCパワーMOSFETを含みます。実際に作成した回路は図5の右図になります。この評価では、実測した電気特性と熱特性の過渡的な変化と回路シミュレーション結果による比較を行いました。回路シミュレーションは、市販のSPICE回路シミュレータに、開発した電気特性モデルおよび熱特性モデルを組み込むことで行っています。


図5: バックコンバータの回路図とプリント基板への実装

図6に電気特性および熱特性の過渡解析結果を示します。まず、電気特性、熱特性ともに実測結果とシミュレーションともに非常によく合っていることがわかります。特に、熱解析においては600秒までの過渡的な変化を正確に模擬しており、その誤差は7.52%以下、と非常に高精度なものとなっております。


図6: 電気特性(左)と熱特性(右)の過渡変化の実測とシミュレーションの比較

 

終わりに
以上が、これまでの研究成果の一部の紹介です。地球資源に依存しないクリーンなエネルギーは全世界が注目する研究分野であり、本研究はその一端を担ったものです。近年のパワーエレクトロニクスの進展はすさまじいものがあり、本研究の成果によりパワーエレクトロニクス企業からお声がけいただくことも多く、科学技術振興機構の産学共創プラットフォーム共同研究推進プログラム(OPERA)に一研究グループとして参加しています。最近では、電力変換回路の最適化に関して機械学習を応用した手法の研究にも取り組んでおり、情報科学と電気電子工学の両方を学びたい学生にはちょうど良い研究テーマです。また、計算機上のプログラムによる確認にとどまらず,自ら考えた回路を試作して動作を確認するため、アイデアを具現化する達成感を味わうことができます。