生物に倣うロボットの制御

こんにちは,知能システム制御研究室助教の小林です.

ロボットというのは往々にして生物を手本にその機構や制御を設計します.何故なら,生物というのはその誕生から進化をし続けて現在の環境へと最適化されているからです.そんな生物の機構や制御を紐解けば,ロボットにとっても最適な機構や制御を導くことができます.例えば私の過去の研究では,ヒューマノイドロボットの歩行制御を人の歩行の特徴,モデルを基に設計することで人のような省エネな歩行を実現してきました.最近では,生物の運動制御を司る小脳の神経回路網を模倣したReservoir Computingを利用した継続学習に挑戦しています.
なお,研究室の詳しい情報は研究室HPを,私のその他の研究については個人HPをご覧ください.

これまでの研究

この歩行に関する研究は「マルチロコモーションロボット」というプロジェクトの一環で行ってきました.マルチロコモーションロボットというのは,ロボットが単一の移動形態,例えば2足歩行,だけを利用して環境に適応しようとするのではなく,複数の移動形態から最適なものを直面している状況に応じて適宜選択・切り替えていくことでより複雑な環境に適応する,というコンセプトです.これもやはり生物に倣っていて,人を例に見れば,普段は歩きますが急ぐ時は走りますし,梯子を登ったり,山道では両手にトレッキングポールという杖を持って脚への負担の分散,つまり4足歩行をするはずです.この複数の移動形態というのは,それぞれが得意な環境・苦手な環境がありますので,互いの短所を補い合い長所だけを上手く利用すれば,単一の移動形態だけを駆使するよりも遥かに優れた環境適応能力を得られます.

では,そんな複数の移動形態を扱うにはどうすれば良いのでしょうか?単純に考えれば,各移動形態を実現する制御器を別々に用意すれば良いと思うでしょう.しかしこの移動形態というのは細かく分ければ無数に存在しますので,全てを別の制御器で扱うというのは現実的ではありません.そのため,複数の移動形態を可能な限り統一的に扱うような制御器を設計することが求められます.そんな制御器として,環境との受動的な点接触と全身関節角が接触角に連動して動く仮想拘束の2つの原理を組み込んだPassive Dynamic Autonomous Control (PDAC)という手法を提案してきました.この2つはロボットの全身ダイナミクスを非常に簡単なものにしてくれ,さらには,環境と何処で接触しているのか,どのように連動させるか,の2点だけを考えれば全ての移動形態を制御できるようにしてくれます.

特に連動のルール,すなわち仮想拘束を上手に与えると,似た移動形態をさらに統一的に扱うことができます.2足歩行と走行を例に見れば,両脚が地面から離れる跳躍期の有無という違いはあるものの,その本質は左右の脚を交互に振り出していくという共通点があります.人の歩行と走行の解析をして得られたモデルも倒立振子を基にしており,振子の剛性(歩行では硬く,走行では柔らかい)という差異はあるものの,十分に共通化できるものとなっています.この共通化されたモデルに従って仮想拘束を与えると,ただ歩行と走行を扱えるだけでなく,両者間を共通化されたモデルのパラメータ1つを変えるだけで容易に切り替えることが可能になります.ちなみに,この切り替えタイミングについても生物の特徴を取り入れることができます.生物が歩行と走行を切り替えるのは,移動距離当たりのエネルギー消費を最小化するためということが解明されています.つまり,ロボットでも歩行と走行のエネルギー消費を比較して関係が逆転するタイミングで切り替えれば良いのです.
このように生物の特徴をふんだんに取り入れて設計された制御器は,生物のように低速時には歩行を,高速時には走行を自然と実行することができます.

最近の研究

生物の何処が身体を上手に制御しているかと言えば,それは間違いなく脳だと言えるでしょう.つまり,生物の脳構造を紐解いて模倣することができれば,生物のように巧みな動きが実現できるはずです.脳構造を模倣したもの全般はニューラルネットワークと呼ばれ,最近ではこのネットワークの層構造を何十,何百層とした,いわゆる深層学習が認識技術として大きな成功を収めています.この深層学習は人の視覚野と似た情報処理構造をしているとされていますが,では運動制御を司っている小脳を模倣した情報処理構造はどうなっているのでしょうか?その答えがLiquid State Machine (LSM)やEcho State Network (ESN)に代表されるReservoir Computingになります.

Reservoir Computingは入力層・リザーバ層・出力層の3層で構成され,このリザーバ層が自身の信号を再び取り入れるという,再帰的な結合を持つリカレントニューラルネットワークの一種となります.Reservoir Computingの最たる特徴は,学習するノード間の結合がリザーバ層と出力層を接続しているリードアウトのみ,という点にあります.つまり,一般的なニューラルネットワークと異なり,出力層における誤差を逆伝播させることなく,リザーバ層は初期のランダムな結合のままで固有のダイナミクスを有したままとなります.このリザーバ層の構造が小脳における顆粒層に相当するといわれています.また,リザーバ層を学習しないで良いため,そのノード数は通常のニューラルネットワークより非常に大きくしやすくなっており(1千〜1万個など),顆粒層(1000億個ほど)と比べればまだまだ少ないですが,それでも類似した特徴といえます.

最近は,このReservoir Computingを用いた継続学習について研究しています.一般的なニューラルネットワークというのは,誤差逆伝播によってネットワーク全体の結合荷重を更新して学習したいタスクを獲得するため,タスクAについて学習済みのネットワークでタスクBを学習すると,タスクAを扱えなくなる「破滅的忘却」という問題を抱えています.Reservoir Computingであれば,リードアウトをスパースに学習するだけでタスク間の競合を最小限に抑えられます.また,リザーバ層にあるタスク入力を加えれば,固有のダイナミクスに基づいた入力依存の活性化パターンが期待されますので,タスクごとに異なるノードが活性化しやすいようになります.こういった工夫を取り入れることで従来のように全てのタスクについて同時に学習するのではなく,生物のようにタスクを1つずつ継続的に学習することができます.この継続学習は,生物のように生涯を通じて学習し続けて次々に新しいことができるようになる自律ロボットを開発するにあたって非常に重要な能力になります.

Posted in 未分類 | 生物に倣うロボットの制御 はコメントを受け付けていません。

現実感を操作して新しい能力を創る

2017年4月に情報科学研究科に誕生した新しい研究室、サイバネティクス・リアリティ工学研究室(Cybernetics & Reality Engineering Laboratory, CAREラボ)を紹介します。

「サイバネティクス」は人とシステムを統一的に扱う学問のことです。「リアリティ工学」は現実感を操作するあらゆる技術を総称する造語です。サイバネティクス・リアリティ工学研究室では、身につけることで現実感を自由自在に操作し、新たな能力を獲得する、人間に対するプラグインあるいはエクステンションモジュールとしての情報システムについて研究しています。ひとことで言えば、未来の道具や超能力をマジメに創ろうとしています。

私たち人間はコンピュータが登場する遥か以前から、様々な道具を発明し、体の一部になったかのように使いこなすことで新しい能力を獲得してきました。私たちは日差しが眩しければサングラスをかけ、音が聞こえにくければ補聴器をつけます。ローテク/ハイテク、アナログ/デジタルを問わず、私たちは現実世界の見え方、聞こえ方、感じ方を操作・調整する様々な道具を使っているのです。バーチャルリアリティ(VR)、拡張現実感(AR)、複合現実感(MR)、コンピュータビジョン、ウェアラブルコンピュータ、コンテキストアウェアネス、機械学習、生体情報処理などといった様々な先端技術を駆使することで、より自由自在に現実感を操作する、未来の道具を創ることができます。

例えば、幾つかのビデオカメラを取り付けたヘッドマウントディスプレイを用いると、遠くの文字が見づらいなあと眼を凝らしたことに反応して、注目した箇所が自動的にズームするゴーグルを構成できます。同様に、捜し物をしているなど首を大きく振ることで視野が180度よりも拡がり横や後ろまで見えるようになるゴーグルも構成できます。

また、距離センサを取り付けたヘッドマウントディスプレイを用いると、実際には動くことなく滑らかに視点を動かして、今いる部屋を上から眺めるといったことが可能になります。周囲の情景の三次元モデルをリアルタイムに獲得して位置をずらしながら目の前に実物大で表示することで、自分の立ち位置が変化したかのような視覚効果を作るわけです。

また、視界全体ではなく特定の物の見え方を操作することも考えられます。例えば、顔表情の変化を捉えて大げさに誇張すれば、表情表出の苦手な人や表情を読み取るのが苦手な人でも、お互いの気持が伝わりやすくなるかも知れません。

視覚に関わる研究ばかりではありません。例えば、自由に向きを変えられる強力なファンを用いれば、目を閉じていても目的地まで引っ張って連れて行ってくれるナビゲーションシステムを実現できます。

過去には、働く人の疲労度や集中度を推定して、照明色やBGMを自動で切り替えたり、居眠りしている人をモーションチェアで揺り起こすようなスマートオフィスを開発したこともあります。

このようなシステムを実現するには、人や環境の状態を知るセンシング技術、感覚を操るディスプレイ技術、道具と人の関わり方を考えるインタラクション技術の3つの柱が重要になります。次の図は、私たちの研究室で主に取り組んでいる研究分野の関係を示したものです。

生まれながらに備わった私たちの様々な能力や自然界の物理法則などは簡単には変えることができません。しかし、こうした未来の道具を用いることで、障害を補ったり、新たな能力を獲得したり、人間の可能性を無限に拡げることができるのです。瞳の色が違えば世界の見え方が違うように、私たちの感じる現実感はそもそもひとりひとり異なります。情報技術を用いて、より積極的に現実感を操作することで、ひとりひとりに寄り添った「パーソナライズドリアリティ」を提供し、より便利に、より快適に、あるいはより安心して生活できることを目指しています。こうした情報システムを通じて、すべての人々がそれぞれの能力を最大限に発揮して助け合う、インクルーシブな社会の実現に寄与したいと考えています。研究室の略称であるCAREには、人をケアして寄り添うという意味も込められています。

私たちの研究室では、本記事で紹介した以外の様々な研究を実施しています。ご興味のある方はぜひサイバネティクス・リアリティ工学研究室のホームページをご覧ください。
http://carelab.info/

 

Posted in 未分類 | 現実感を操作して新しい能力を創る はコメントを受け付けていません。

スマホ時代の情報セキュリティ –電磁波による情報漏えいと対策—

情報セキュリティ工学研究室の林と藤本です。今回は2017年4月からスタートした本研究室で行っている研究の一部を紹介したいと思います。

情報化社会の深化により、スマートフォンやタブレットに代表される個人利用による情報端末が爆発的に普及しています。こうした社会システムが十分機能するための重要な要件の一つが、個人のプライバシーの保護や安全安心な電子商取引といった情報セキュリティの確保です。情報セキュリティは大きく分けて機密性・完全性・可用性の3つの要素からなり、これらの要素をアプリケーション層から物理層に至るまで、個々のレイヤにおいて縦断的に実施する必要があります。今回は、こうしたレイヤの中でも、物理層の情報セキュリティ、特に電磁波を通じた情報漏えいに関する情報セキュリティ(電磁情報セキュリティ)に着目します。

電磁放射により情報漏えいが引き起こされる問題は、コードネームTEMPESTとして1950年代後半から主に米国を中心に軍事・外交分野において検討されてきました。そうした経緯から、電磁放射を用いた情報のモニタリングは高価かつ入手困難な機器を用いた政府レベルでのみ実現可能な攻撃であると広く信じられ、一般的な製品への脅威としてはみなされてきませんでした。

これに対し、近年、計測器の高精度化・低価格化、計算機の高速化と記憶装置の大容量化に伴って、電磁波を安価に長期間計測し、その計測データに統計処理等の加工を施すことが容易になったことから、こうした脅威は軍事分野から一般的な製品へと拡大しています。具体的には、デスクトップ及びノートブックパーソナルコンピュータ (PC : Personal Computer) 等のモニタ画面情報、タブレットやスマートフォンの画面情報及び打鍵情報、PC内部における商用Central Processing Unit (CPU)の演算情報、プリンタの印字情報、キーボードの入力キー情報、暗号処理を行うデバイス内の秘密鍵情報の電磁波を通じた漏えいなどに関する脅威が報告されています。

本記事では、商用機器にも拡大している電磁波を通じた情報漏えいのメカニズムとその脅威を抑止するための対策手法について紹介します。

電磁波を通じた情報漏えいのメカニズム

電磁波を通じた情報漏えいは、主として電子機器が処理するデータに応じて、機器内部で生成・伝送される電気的な信号の時間変化に起因して発生する電磁放射によって引き起こされます。一般的に、情報通信機器から生じる電磁放射は、電磁両立性 (EMC :Electromagnetic Compatibility) の観点から、そのレベルが規制されています。しかし、電磁波を通じた情報漏えいは、データに応じて時間的に変化する放射電磁波に起因することから、電磁波の強度が規格規制値以下の微弱な信号であっても引き起こされる可能性があります。

図1は電磁波を通じて情報が漏えいする様子を模式的に示しています。漏えい源となる集積回路 (IC: Integrated Circuit) がデータに応じて処理を行う際、情報を含む信号はその時間変化速度に対応した周波数成分を持ちます。そして、そのうちの高周波数成分が機器内部でアンテナとして振る舞う部位まで電磁結合を通じて伝搬し、アンテナの周波数特性に応じて空間へ放出されます。

上述したアンテナとして振る舞う部位としては、プリント基板上の配線パターンや、機器筐体を構成する導体、機器に接続された線路などが挙げられます。これらが非意図的なアンテナとして振る舞うことで、放射及び伝導といった電磁放射が発生します。

図1 電磁波を通じて情報が機器外部へ漏えいするメカニズム

図2にタブレットPCから放射されたディスプレイ描画信号の電磁波の時間変化から画面情報を再現した例を示します。これは一画面分の情報から再現した結果ですが、画面情報を一定時間取得して平均化を行うことで、より鮮明な画面を再現することも可能になります。タブレットやスマートフォンの様なタッチスクリーン型端末においては、画面に表示されたソフトウェアキーボード画像の時間変化を取得することにより、情報の入力先と入力内容の双方の情報が漏えいする可能性もあります。

また、ネットショッピングなどで決済時などに利用される暗号モジュールからの秘密鍵情報の漏えいも、上述と同様に、データに依存して変化する放射電磁波を通じて引き起こされる可能性があります。図3は、公開鍵暗号で最もよく利用されているRSA暗号が動作中の機器から放射される電磁波の計測例です。機器内部で行われる演算の違いによって異なる振幅が観測され、この計測情報とRSA暗号回路の実装法に関する事前知識を用いることで秘密鍵の取得が可能となります。こうした攻撃は、機器動作時に副次的に放出される物理量(ここでは放射電磁波)を利用することから、サイドチャネル攻撃と呼ばれています。

図2 漏えい電磁波を用いて再現されたディスプレイ情報

図3 電磁波を通じて漏えいする秘密鍵情報

電磁波を通じた情報漏えい対策手法

情報を漏えいさせる電磁波の抑制には、漏えい源に対する対策や、漏えい源から受信アンテナまでの伝搬経路への対策、電磁放射を引き起こすアンテナへの対策が考えられます。ここでは、そうした対策について紹介します。

漏えい源への対策

電磁波を通じた情報漏えい源とは、情報処理を実行する電子回路を指します。情報漏えいは、その内部の電流・電圧変化のデータ(情報)依存性が放射電磁波に含まれることに起因します。そのため、漏えいする電磁波強度を一定の強度に保つ、放射される電磁界強度を内部の処理と無相関にするといった工夫を施し、内部信号の時間的変動を外部から観測困難にすることで情報漏えいを抑止することが可能となります。

例えば、ディスプレイに対する文字画像の再現手法への対策の一つとしては、ディスプレイに表示される画像の背景色と文字色の電気的なON/OFF信号の電位差を制御し、文字表示に起因する電磁放射を一定にする手法が挙げられます。また、乱数を用いてディスプレイに表示する文字画像を雑音のある複数の画像に加工し、それを高速に表示することにより、電磁放射からディスプレイの再現した画像を攪乱する方法も提案されています。上記ではディスプレイに関する具体例を取り上げましたが、暗号モジュールなどの他のデバイスにおいても、同様の概念で対策がとられています。

伝搬経路への対策

漏えい源から攻撃者が所有する受信アンテナまでの伝搬経路の漏えい電磁波レベルを低減することで、漏えい電磁波を通じた情報取得の脅威に対抗する手法も考えられます。従来のEMC対策は主にこうした手法を採用しています。

伝搬経路には、漏えい源からアンテナまで電磁信号を誘導するカップリングパス、機器を構成するプリント基板上の配線パターンや接続線路など機器の幾何的構造により構成されるアンテナ、さらに電磁波が放射されてから受信されるまでの空間が含まれます。それぞれに対し、適切な対策を施すことで、電磁波の減衰が見込まれます。

カップリングパスやアンテナへの対策としては、(1)漏えい源から発生する電磁信号に対し、発生源近傍に電源デカップリング回路を形成する手法、(2)プリント基板からの漏えい、放射を低減する基板構造に関する手法、(3)機器の筐体やケーブルから漏えいを抑制する電磁シールド手法などの組み合わせが有効であることが知られています。

図4および図5に具体的な対策事例を示します。図4(a)は、暗号モジュールから基板の配線パターンを通じて機器に接続された電源線に漏えい電磁波が伝搬している様子を示しています。これに対し、図4(b)は、伝搬を抑止するためにデカップリングキャパシタを実装することで漏えい電磁波の伝搬を抑止できることを示しています。また、ディスプレイの縁がアンテナとして放射を引き起こしている場合、情報漏えいを引き起こしている周波数を効果的に遮断するシールド構造を、図5の様にアンテナ近傍に貼付することにより、機器外部でのディスプレイ画面の再構築を防ぐことができます。

一方、オフィスなどで利用する情報機器は、リース品などでまかなわれることも多く、上記の対策法を適用できるとは限りません。そのような場合、建物敷地レベル、建物レベル、居室レベルで電磁波を減衰させることで、すべての機器に十分な対策を施さなくとも、電磁波による外部への情報漏えいを軽減できる可能性があります。こうした空間における電磁波減衰の手法としては電磁波シールドが一般的です。こうしたシールドの要件はMIL (Military Standard) 規格で定義されており、規格を満たした電磁シールドを採用することで、情報を含む電磁波が攻撃者に到達する前に背景雑音レベルにまで減衰させることが可能となります。

図4 電気的な対策による情報漏えいの抑制

図5 放射を引き起こしているアンテナ部への電気的な対策の適用

まとめ

電磁波を通じた情報漏えいの脅威は、計測器や計算機の低価格化・高性能化および解析技術の発展とともに多様化していくことが予想されます。漏えい電磁波を介する情報漏えいを効果的かつ汎用的に抑制するためには、これまでのハードウェア及びソフトウェアによる対策手法に加え、EMC分野で用いられる電磁放射抑制技術を適宜利用することも有効と考えられます。

情報通信機器の設計者は、システム全体および利用形態を俯瞰し、電磁波を通じた情報漏えいの危険性がどの程度あるのかを検討し、必要に応じて適切な対策を施すことが重要になると考えられます。理論的には情報が漏えいし得る対策であっても、現実的には十分な場合もあり得ます。また、利用者側でも、そうした対策がきちんと取られている製品であるかどうかを意識していくことが今後大切となると考えられます。

 

Posted in 未分類 | スマホ時代の情報セキュリティ –電磁波による情報漏えいと対策— はコメントを受け付けていません。

Towards the personal healthcare

My name is Ming Huang, an assistant professor in Computational Systems Biology Laboratory. After I graduated from the University of Aizu in 2012, I was a postdoc fellow of NAIST for three and a half years. In this essay, I would like to share some of my thinking related to my study filed with you all.

The technologies featured with ‘wearable’, ‘nonconscious’ characteristics have been being popular in the past few years. It is one of the major domains that will output tremendous amount of data about personal health, and it is a major part of health informatics. Health informatics also involves the information of personal medical data in the form of electronic medical records (EMRs). On the other side, the blueprint of life−the genomic information, is the fundamental factor that bears great amount of information about the origin of life. These two domains together, with the personal health being its focus, are supposed to be able to describe how people adjust themselves to adapt to the external environment and stimulation. I had a great opportunity to engage in studies of the health informatics and now extend into bioinformatics in Computational Systems Biology Lab. Therefore, I would like to introduce parts of ours studies on health informatics and then my opinions about integrating the health informatics with bioinformatics for a novel understanding about human health.

Health informatics involves the aspects of acquiring, storing, retrieving and using of the healthcare information and I would only talk about the acquiring and using aspects here.

Acquiring healthcare information

There are two major sources of the healthcare information, one is generated in hospital describing personal medical, treatment histories and biopsy results. This information will become more useful and versatile when it is organized in the form of EMR. The other major source is the daily healthcare devices, which present in various forms such as wrist band, finger rings or even chair and bed. These real-time biomedical or health monitors allow for the characterization of intra-individual physiological variation and the inter-individual impact of circadian fluctuations on physiological measures. Further, they provide the clinicians and scientists with temporal resolutions to examine physiology and therefore a new way to study human diseases. Two studies about how to acquire vital signs (heart rate, respiration rate, blood pressure and temperature) by noninvasive/wearable modalities will be shown below.

Wearable deep body thermometer

Deep body temperature (DBT) is the temperature of the natural cavities, such as abdomen and thorax. It is conventionally measured by the invasive methods using catheter inserted into rectum or esophagus. Alternative measurements inside the mouth or ear canal are also adopted for intermittent measurement. However, the fluctuation of DBT bears more information in its temporal variation, e.g., the circadian rhythm, therefore a wearable DBT thermometer being able to keep track of the DBT will provide more information about the fluctuation of physiology.

To develop a wearable Deep Body thermometer, the dual heat-flux method (DHFM) has been used. It calculates the DBT based on the heat flux inside a probe as shown in Fig. 1 (a).  The double heat paths inside the probe shown by red arrows enable calculation of the DBT by the embedded temperature sensors. A substrate material with four embedded temperature sensors form the core of the probe. The substrate material has physical properties similar to those of skin and, when attached to the skin, most of the heat flow from the core body due to the difference between the DBT and the skin temperature will flow into the substrate material. After the initial period for heat equilibrium establishment, the DBT can be calculated with the four embedded temperature sensors. With this wearable modality, this DBT thermometer should be able to answer to the needs of realistic applications such as the prevention of heat stroke and the estimation/adjustment of disorder of circadian rhythm.

Fig1

Fig. 1. Illustration (a) and the prototypes (b) of the wearable DBT thermometer.

Validations of device performance is on-going, what we can show is the studies about its accuracy and use in circadian rhythm estimation. We carried out a fast-changing CBT measurement (55 min, 12 subjects) inside a thermostatic chamber. When compared with a reference, the CoreTemp CM-210 by Terumo, the experiment shows 0.07 °C average difference of the prototype.

As for the circadian rhythm estimation, we performed long-term monitoring of CBT (24 h, 6 subjects), whose result shows no significant difference in parameters for the inference of circadian rhythm. A whole-length record of a subject is shown in Fig.2. It shows a very standard fluctuation of core body temperature that subjects to circadian rhythm. Red line denotes the measurement by the reference and blue line denotes the measurement by the DBT thermometer prototype. The cosine fitting curve was generated with the measurement by DHFM-based probe and shown in the broken black line.

Fig2

Fig. 2. Instance of measurements of long-term monitoring of CBT and their fitting results by cosinor.

[1] M. Huang et al, “A Wearable thermometry for core body temperature measurement and Its Experimental Verification,” IEEE J. Biomed. Health Inform., 2016, Feb. for Epub 


Non-occlusive blood pressure measurement

Blood pressure (BP) is another important physiological parameter that can’t be measured in an easy way. The standard occlusive method is for intermittent measurement and needs an inflatable cuff to occlude the arterial supply to the distal limb, so as to estimate the systolic and diastolic BP. But actually, the temporal variation of the BP provides important information about the cardiovascular physiology. A non-occlusive way, the so-called cuffless method, that can measure BP continuously can fully retain the temporal information.

we therefore tried to develop an unobtrusive cuffless BP monitoring system. This system is based on pulse transit time (PTT), which is defined as the time taken for an artery pulse to travel between two arterial sites, to facilitate long-term home BP monitoring.

PTT can be simplified as the time delay between the peak of the R wave in the electrocardiogram (ECG) and the corresponding point in photoplethysmogram (PPG) signals as shown in Fig. 3.

Fig3

Fig. 3. Definition of PTT. PTT is the time between the R-wave of ECG signal and the point in the ascending phase of PPG with maximum first derivative.

Theoretically, we can consider that the pulse wave velocity (PWV), the velocity at which the blood travels along the vessel, is proportional to the square root of elastic module (EM) of the vessel. Further, the EM of the vessel increases exponentially with BP. Therefore, we may be able to estimate the BP based on the PWV.

The proposed system mainly includes an ECG module, a PPG module and the control unit and was implemented into a chair as shown in Fig. 4.

Fig4

Fig. 4. proposed chair-based cuffless blood pressure monitoring system for home healthcare. ECG electrodes and PPG sensor are mounted on the two armrests of the chair, respectively. The estimated BP results can be displayed on a tablet PC or a smartphone via Bluetooth communication.

This method can estimate the BP fluctuation around the basic point, and therefore, needs calibration periodically. The duration, the longer the better, is closely related to the way of the calibration, such as the user should calibrate under peaceful condition, the gesture should be consistent in both calibration and measurement. Our system takes advantage from the setup in the form of the chair and we carried out the experiment to monitor the BP for 60 days with only one calibration at the very first day. Fig. 5 shows the result in whole length, where most differences are within the range of ± 10 mmHg for the former 42 days. Data from more subjects should be collected, but it shows the possibility that this system is capable to provide a stable BP measurement within one month.

Fig5

Fig. 5. Comparison of the reference BP and estimated BP for 60 days with only one calibration.

[2] Z. Tang et al, “A Chair-based Unobtrusive Cuffless Blood Pressure Monitoring System Based on Pulse Transit Time.,” IEEE J. Biomed. Health Inform., Accepted for publication Oct. 2016.

Using the healthcare information

With the great amount of data, we could do more than just plotting the raw data, in other words, using this data for modeling and prediction for the personal physiology will make full use of the data.  We should also bear in mind that the wearable and nonconscious devices are vulnerable to external influences, an appropriate way to remove the noisy signal so as to fully reveal its physiological significance initially, the so-called pre-processing, would be indispensable for the successive analyses.

As an example, a widely-acknowledged procedure for the pre-processing of electrocardiograph is the removal of high frequency noise and baseline wandering by corresponding filters. A low-pass finite impulse response (FIR) filter with its cut-off frequency around 40 Hz is suitable to remove high frequency noise, while a high-pass FIR filter with its cut-off frequency around 0.8 Hz is appropriate to remove the baseline wandering. For the signal acquired by wearable modality of relatively low quality, techniques such as biorthogonal wavelets would have a better performance.

With carefully processed healthcare information, we will be able to develop more sophisticated and elegant models for individual normal physiology, and enable identification of subtle or event-induced changes toward pathophysiology early in the course of disease progression.

Integration of health informatics with bioinformatics

Translating the finding from data-intensive biological studies to effective therapies, diagnostic acids and clinical interventions is common nowadays. Temporal profiling of a subject over 14 days using biological (genomics, proteomics, metabolomics and transcriptomics) and clinical phenotypes have revealed how longitudinal measurements of multiscale biological data showed the dynamics of biological pathway during illness and wellness [3].

This kind of works can be attributed to the relatively new domain of translational bioinformatics. Translational Bioinformatics is the development of storage, analytic, and interpretive methods to optimize the transformation of increasingly voluminous biomedical data, and genomic data, into proactive, predictive, preventive, and participatory health.

In the context of translational bioinformatics, individualized risk model being able to discern innocuous deviation from the average population from pathologic changes is of paramount importance.

It certainly is a fast-evolving and exciting domain, for there are a broad space to be explored. For example, how to choose the data streams and determine their clinical significances; how to embed these streams into EHR so as to integrate with biomedical data should be addressed before it can exert great impact on human health.

This domain will finally compose the intact image about personal health. And I do believe it will change the conventional clinical thinking about health in a way.

[3] R. Chen, et al. “Personal omics profiling reveals dynamic molecular and medical phenotypes.” Cell 148.6 (2012): 1293-1307.

Posted in 未分類 | Towards the personal healthcare はコメントを受け付けていません。

「ソフトウェア開発・保守の支援」に関する私の研究のご紹介

私はソフトウェア設計学研究室の助教の崔恩瀞(チェ ウンジョン)です.私はソフトウェア設計学研究室で「ソフトウェア開発・保守の支援」に関する研究に取り組んでいます.私がこの「ソフトウェア開発・保守の支援」を自分の研究テーマとして選択した理由は,自分のIT会社で仕事をした経験からです.私は一度,韓国の大学を卒業した後にIT会社でソフトウェア開発者として仕事をしていました.ソフトウェアの開発や保守の仕事は楽しかった反面,仕事で様々な問題で苦労もありました.そして,その苦労を解決する技術に関して研究したいと思い,大学院に進学しました.

「ソフトウェア開発・保守の支援」のための研究では,私は主に,ソフトウェアメトリクスおよびソースコードの静的解析情報に基づいて「コードクローン」や「リファクタリング」の検出および管理に関する研究に取り組んでいます.

「コードクローン」とはソースコード中に存在する一致または類似したコード片であり,コピーアンドペーストなどのさまざまな理由により生成されます.ソースコードの中に修正されるコード片のコードクローンが存在すれば,その全てのコードクローンに対して修正の是非を検討する必要があり,一般的にコードクローンの存在が保守作業を困難にさせると言われています.下の図はapache ant 1.6.3から検出されたコードクローンの例です.互いにコードクローンになってるコード片に色がつけられています.

codeclone

「リファクタリング」は外部から見た時の振る舞いを保ちつつ,ソフトウェアの保守性や理解性を向上させるために,ソフトウェアの内部構造を整理することです.現在まで,多くのリファクタリングパターンが提案されており,Fowler氏は著書「リファクタリング―既存のコードを安全に改善する―」の中で各リファクタリングパターンが実施されるべき状況や手順などをまとめました.
今回は現在,私の指導しているNAISTの学生が取り組んでいる「リファクタリング」に関する研究と私の学生時代に行った「コードクローン」に関してそれぞれ紹介します.


「プロセスメトリクスを用いたメソッド抽出事例の特徴調査」関する研究
メソッド抽出」リファクタリングとは,既存のメソッドの一部を新規メソッドとして抽出することです.長すぎるメソッドや,複数の機能が実装されたメソッドを「メソッド抽出」リファクタリングによって適切に分割することで,ソースコードの可読性や保守性を向上させることが出来ます.

「メソッド抽出」は頻繁に実施されるリファクタリングの一つです.多くの支援ツールや技術が提案されてきましたが,一般には広く使われてないません.多く使用される支援ツールを開発するために,この研究では開発者が過去に実施した「メソッド抽出」事例を調査しました.特に,この研究ではソースコードの品質に影響を与えることが知られている開発プロセスの情報を新しく用いることにより,プロダクトメトリクスを用いて調査した従来の研究と異なり、新しい発見ができると思います.

この研究では,javaで開発されたテキストエディタであるJEditのリポジトリを7,707個のリビジョンから選択し,メソッド抽出リファクタリングの対象になっていたメソッド・クラスと対象になってなかったメメソッド・クラスの以下のプロセスメトリクス値を計測しました.

図5

また,メソッド抽出対象メソッド・クラスと対象ではないメソッド・クラスの間で,各プロセスメトリクスに有意差があるか確認するため,マンホイットニーのU検定を実施しました.以下の表は,各プロセスメトリクスの中央値,検定の結果得られたp値を表しています.

図7

これらの結果より,今回対象としたソフトウェアにおいては,メソッド抽出の対象となるメソッドが属するクラスは,対象ではないメソッドが属するクラスと比べ,変更回数が多く,また,関わった開発者も多いということが判明しました.特に,クラスの変更回数は,抽出の対象となるメソッドと対象ではないメソッドの間で顕著な差が確認できました.本研究はソフトウェアエンジニアリングシンポジウム2016で発表しました.興味のある人はこの論文を参考にしてください.


「ソースファイルの前処理によるクローン検出手法の提案と評価」に関する研究
近年,大規模ソフトウェアの開発が進んでいますが,大規模のソースコードからコードクローンを検出するためには膨大な時間がかかります.同一ファイル群を検出することにより,クローン検出時間を減らすために,ソースコードの前処理によるコードクローン検出をする手法を提案しました.提案手法は、以下の3つのパイプラインフェーズで構成されています.

  1. 前処理:入力ソースコードに異なる正規化(空白の除外,識別子の正規化等)を適用し, MD5ハッシュ値に変換します.また,そのハッシュ値に基づいて同値類(同一ファイル群)に分割し,次にコーパス(同値類の代表であるファイルのセット)を生成します.
  2. クローン検出:コードクローン検出ツールCCFinderを使用してコーパス上のコードクローンを検出します.
  3. 後処理:CCFinderの出力,同値類などの情報に基づいてマッピングし,すべてのクローンセットを生成します.

評価実験では,3つのオープンソースソフトウェアに対して,提案手法とCCFinderのみを使ってコードクローンを検出する方法を適用しました.その結果,CCFinderのみを使ってコードクローンを検出する方法より提案手法の方が約2倍早く検出できることがわかりました.また,提案手法の中では,入力ファイルに何の正規化を適用せずに,完全一致ファイルに基づいてコードクローンを検出する手法が,より早くコードクローンを検出できることが分かりました.

ここで,私の研究に関して紹介しました.私の研究の詳細は、私のウェブサイトをご覧ください.

Posted in 未分類 | 「ソフトウェア開発・保守の支援」に関する私の研究のご紹介 はコメントを受け付けていません。