固有表現を解析する | 自然言語処理学研究室

自然言語処理学研究室 教授の渡辺です。自然言語処理学研究室では、自然言語の構文構造や意味を解析し、知識を自動的に抽出するといった研究をしています。また、機械翻訳や画像キャプション、要約など、文章や画像を入力として別の文章を生成したり、文法誤りの訂正など言語習得の支援などの研究を行っています。

NAIST Edgeでは最先端の研究を紹介する、ということですので、今回は固有表現を含む、名詞句の抽出技術について紹介したいと思います。固有表現は、人名や地名などの固有名詞や日付、時間などでして、このような表現をテキストから自動的に抽出するタスクは検索や質問応答などさまざまな自然言語処理のアプリケーションに利用されています。辞書があれば簡単にできるのでは、と思われますが、知識は日々更新されていますので、新しいニュースや科学技術論文が出るたびに辞書を更新するのは現実的ではありません。また、単純に名詞句を並べただけでは、と思われがちですが、GENIAコーパスと呼ばれる、生命科学の分野を対象とした論文のアブストラクトのデータを眺めますと「Employing the [EBV – transformed [human B cell line] ] SKW6.4 , we demonstrate …」のように入れ子構造になったものや「prostate cancer and brest cancer cells」などのように、並列構造になったものがあります。特に並列構造では、この例のように「prostate cancer cells」から「cells」が省略され、解析を難しくしています。単純に「and」があれば並列にすれば良い、というものではなく、「Nara Inatitute of Science and Technology」のように、「Science」と「Technology」が並列ですが「NAIST」全体で一つの固有表現になります。

この問題に対してよく使われているのが「系列ラベリング」という手法です。例えばある入力文「… an increase in Ca2+ -dependent PKC isoforms in monocytes」に対して、下図のように、各単語にBおよびI、E、Oといったラベルを割り当てる、というものでして、各ラベルがそれぞれ「開始」「内部」「終了」「固有表現以外」のラベルになります。この例の場合「Ca2+ -dependent PKC isoforms」が固有表現になります。深層学習の技術を用いることで、テキストの各単語に対してラベルを予測する問題、として考え、このようなラベルが付けられた学習データからモデルを学習できます。ところがこの手法では、学習データが存在することを前提としていまして、科学技術の全ての分野でそのようなデータが存在するとは限りません。また、並列構造を発見するためには複雑なラベルを割り当てる必要があります。

計算言語学の国際会議COLING 2020で本研究室の澤田が発表した、名詞句の並列構造を解析する手法では、特定の分野の学習データがなくとも、高精度に解析できることを示しました。本研究では、並列構造を取る名詞句は意味的に近いだろうと仮定し、まず、文の中で並列構造を取りそうな単語列を全て列挙します。その後でfastTextELMoBERTなどを利用して、各単語のベクトル表現を求め、単語単位のペアに対して、意味的に近いかどうかをベクトル間の距離により計算します。さらに単語列単位の近さは動的計画法に基づいた編集距離で求めます。右の図の例では、「the retinoid-induced differentiation program」と「not the RARE-medicated signal」との近さを計算しています。この例では、「the ↔ the」および「retinoid-induced ↔ RARE-medicated」「program ↔ signal」が近いと計算され、対応付けられていますが、「differentiation」および「not」が対応付けられていません。この手法により、ラベル付き学習データにより訓練されたモデルに匹敵する性能で並列構造を解析できます。

計算機でも処理しやすい論文は人間でも読みやすい論文でもあります。たとえ冗長になったとしても、専門用語を複雑に組み合わせるような構造をなるべく避けるよう心がけてください。複雑な構造が増えると私達の仕事が増えてしまい、困ってしまいます。

大学院の授業を翻訳する 〜 自ら使う音声自動翻訳技術へ | 知能コミュニケーション研究室

奈良先端大知能コミュニケーション研究室准教授の須藤です.今回は当研究室で開発している授業アーカイブ自動翻訳システムと,そこで用いられている深層学習の技術について簡単に紹介します.

プレスリリース:日本語授業映像に付ける英語字幕をAIで自動作成 深層学習技術活用のシステムを開発 ~留学生らの自習支援など国際化に期待~

大学教育の国際化の進展と留学生の増加により,情報科学領域でも約半数の授業は英語で行われています.日本語で行われる授業については英語のスライド資料を利用するなどしていますが,日本語が分からない学生は資料だけで授業内容を理解しなければなりません.他方,本学では講義室の授業映像を録画・保存し,学内で閲覧できる「授業アーカイブシステム」を運用しています.私たちは,知能コミュニケーション研究室で取り組んでいる技術によって日本語の授業を英語に翻訳し,授業アーカイブシステムで字幕として見せることで日本語が分からなくても授業アーカイブシステムを用いて復習・自習できるような仕組みを作っています.日本語および英語の字幕が表示された授業アーカイブはこのような画面で表示されます.

このシステムは,授業で話される日本語を文字起こしする「音声認識」と,日本語を英語に自動的に翻訳する「機械翻訳」の二つの技術で実現されています.それぞれ長い歴史を持つ技術ですが,最近の深層学習(ディープラーニング)技術によって大きく性能が向上しました.今回は須藤の専門である機械翻訳(コンピュータを用いて自動的に翻訳を行う技術をこう呼びます)の技術を紹介します.

深層学習技術で用いられる計算の仕組みをニューラルネットワークと呼びます。詳細な説明は省きますが、ニューラルネットワークでは単語や音声、画像といった処理の対象をすべて数値を使って表します。数値といっても一つの数ではなく、数百個の数を使ったベクトルという形で表します。模式的な例として、X軸・Y軸を用いた2次元の平面で単語を表した例を次の図に示します。

この図では、man、woman、king、queenという単語が、2次元の平面上の別々の点として書かれています。それぞれの点には対応するX,Yの2つの数があり、この例では2つの数を使って単語を表現していると言えます(実際の研究では500次元、1000次元等より複雑な空間を使います)。さらにこの図では、manとwomanを結ぶ矢印つきの線とkingとqueenを結ぶ線がとてもよく似ています。このmanとwomanを結ぶ線は、manの座標をv(man)、womanの座標をv(woman)と表すとv(woman) – v(man)と書くことができます。それを使うとqueenの座標 v(queen) がkingの座標 v(king)を使ってv(king) – v(man) + v(woman)と表すことができるのです。実際には多少誤差があって完全に等しくなることはないのですが、単語をベクトル(座標)で表すときの例としてよく用いられます。

ニューラルネットワークを使った機械翻訳のことをニューラル機械翻訳と呼びます。単語を数で表現する考え方を上で説明しましたが、ニューラル機械翻訳では一つの単語だけでなく、複数の単語の並びや文もベクトルで表現します。ニューラル機械翻訳の処理を非常に単純に表現した図を以下に示します。

日本語を英語に翻訳しようとするときに、まず日本語の単語をベクトルに変換して、そのベクトルを一つずつコンピュータに読み込ませます。読み込ませるときには、今持っているベクトル(左下の青い四角)と新しく読み込むベクトル(「入力単語のベクトル表現」と書かれたもの)にある決まった計算をして、新しいベクトルを求めます。例えば、「機械」という単語を読み込み終わった時点では、そのベクトルは「これ」「は」「機械」という3つの単語を読み込んで記憶できると考えてください。すべての単語を読み込み終えると、今度は英語に翻訳した文を出すために、英語の単語を一つずつ読み出します。読み出す仕組みもベクトルを用いた計算によるもので、ベクトルにある決まった計算をして、英語の単語に対応するベクトルと、これから出力する単語の情報を持つベクトルの二つを得ます。この処理を繰り返して、単語に対応するベクトルを一つ一つ単語に変換することで、最終的に英語の文が得られるというわけです。

上の説明で「決まった計算をして」と書きましたが、当然正しい結果が得られるように計算をする必要があります。ベクトルの中の数に対する掛け算や足し算を組み合わせて、ベクトルから別のベクトルを得るような計算をするのですが、ここでどういう数(パラメータ,と呼びます)を掛けたり足したりすれば正しい結果が得られるのか、を対訳(異なる言語の同じ意味の文の組,例えば日本語と英語)を使って調整するのです。その方法の詳細はここでは説明しませんが、最初はランダムな値から始め、正しい翻訳結果が出てくるようにするにはこのパラメータの値を大きくすればよいのか、小さくすればよいのか、を調べながら、少しずつ調整をしていくのです。

このようにして、機械翻訳や音声認識は大量のデータを使って、正しい結果が得られるパラメータの値を「学習」することで実現されています。このようにデータから何かの問題の解き方をコンピュータが身につけるための技術を「機械学習」と呼びます。機械翻訳や音声認識はその一例ですが、最近のコンピュータはそうした技術によって様々なことができるようになってきているのです。

Secure the Internet of Things (IoT) using Physical Layer Security and Blockchain

Hi, everyone! This is Yuanyu Zhang from the Large-Scale Systems Management Laboratory.  It is a great opportunity for me to share my research with you. Broadly speaking, my research focuses on the security of Internet of Things (IoT) systems, with special interests in securing IoT wireless communications based on physical layer security (PLS) technology and designing access control schemes based on the emerging blockchain technology. Now, I am going to briefly introduce my research from these two aspects.

  • PLS-based Secure IoT Wireless Communications 

When it comes to the IoT, I believe anyone can give an concrete application, such as smart home, e-health, intelligent transportation, etc. In these applications, a huge number of smart devices, like sensors, actuators, tablets, will be connected into the Internet via a variety of wireless communication technologies, like WiFi, Zigbee and Bluetooth.  As we all know, wireless medium is open such that anyone close to a transmitter can receive its signals. Suppose the information conveyed by the signal is not encrypted, so what would happen if the signal is received by an eavesdropper? Obviously, the information is in danger! In IoT applications, these information may be your health data perceived by sensors around you and your financial transfer records sent from smart phones. Once these information are leaked to eavesdroppers, your life and property will be in danger.

Of course, we can encrypt these information using secret key-based cryptographic approaches like what we do in wired communications. However, managing and distributing secret keys in wireless environment is challenging, especially for large-scale IoT systems. Besides, the cryptographic approaches usually require high computing power, which is unavailable for most resource-constrained IoT devices. This motivates the advent of the so-called physical layer security (PLS) technology, which uses the inherent randomness of wireless channels (e.g., fading, noise, interference) instead of costly cryptographic approaches to ensure no information leaked to eavesdroppers. As long as we can guarantee that the received signal of the eavesdropper is an degraded version of that of the intended receiver, the eavesdropper can abstract nothing from the signal. This conclusion has been proved from the perspective of information theory. The figures below shows the basic differences between cryptographic approaches and PLS technology.

What my research does is to apply commonly-used PLS techniques in IoT systems and theoretically evaluate the security performances of these systems using some mathematical tools, like Probability Theory, Markov Chain Theory, Queuing Theory and Stochastic Geometry.  Well, okay, I know it’s boring, but trust me, it is vitally important for understanding the PLS performance limits of IoT systems and contributing to the successful application of PLS techniques in these systems. If it does not sound boring to you, I would be very glad to share this research with you in greater details.

  • Blockchain-based IoT Access Control

Okay, ready for another research? You know what, this research may be more interesting, at least for me. The previous research focuses on the security of the information during its transmission, while this research focuses on the security of the information when it is stored somewhere as resource and accessed by some users or devices. Of course, resources are not limited to information, but also include actuators that may perform some critical tasks, like brake control and drug delivery.  But one common thing is that, once these resources are accessed by malicious users, your life and property will be in danger. This research aims to design effective access control schemes to prevent illegal access to IoT resources.

Traditional access control schemes are centralized, which means that they use a central server to control all access requests in the system. So what if this server is destroyed in disasters, or what if this server is compromised by some malicious guy? Yes, the whole access control scheme collapses.  Now, question is how to tackle these challenging issues. Fortunately, the emerging blockchain technology provides us with a promising solution, because it is highly distributed and ensures reliable financial transactions among trustless peers all over the world. In this research, I use the Ethereum blockchain, which evolves into a distributed and reliable computing platform thanks to the introduction of smart contract. A smart contract can be thought of as a piece of code that is stored on the blockchain and distributed to all nodes in the system. All nodes can execute this code and verify the correctness of the results. This ensures the correct execution of the smart contract as long as no one possesses more than 51% of the system computing power.

The basic idea of this research is to ensure  distributed and reliable access control by expressing the access control policies and logic as smart contracts. The access control framework is illustrated in the figure below.

This framework consists of multiple access control contracts (ACCs), one judge contract (JC) and one register contract (RC). Each ACC is responsible for the access control of a subject-object pair, and implements both static access right validation based on predefined policies and dynamic access right validation by checking the behavior of the subject. Here, a subject is the node accessing the resources possessed by an object. The JC implements the misbehavior-judging method to facilitate the dynamic validation of the ACCs by receiving misbehavior reports from the ACCs, judging the misbehavior and returning the corresponding penalty. The RC registers the information of ACCs and JC, and also provides functions (e.g., register, update and delete) to manage these methods. Suppose a server wants to access the resource of a camera in a smart home. The workflow of the access control is shown in the figure below.

  • Step 1: The server calls the RC to retrieve the ACC (e.g., the ACC 2) for access control.
  • Step 2: The RC returns the address and ABI (similar to API) of the ACC to the server.
  • Step 3: The server sends a transaction to the ACC, which contains the required information for access control. This transaction will be encapsulated in a new block and the ACC will not be executed until the new block is mined and included in the blockchain by some miner.
  • Step 4: During the access control process, the ACC will send a message to call the JC, if some potential misbehavior of the subject is detected.
  • Step 5: Once the JC  judges the misbehavior and determines the penalty, it will return the penalty to the ACC.
  • Step 6: Finally, the access result will be returned to both the subject and object, after the access control process finishes.

To demonstrate the feasibility of the framework, we provide a case study in an IoT system with one desktop computer, one laptop and two Raspberry Pi single-board computers, as shown in the figure below.

And the results of access control at both the subject and object sides are illustrated in the figures below.

光メディアインタフェース研究室 2018

光メディアインタフェース研究室 助教の田中です.前回の投稿は,2015年3月「光メディアインタフェース研究室 本格始動!」でした.あの時は,研究室が発足したばっかりでしたが,いまや学生はM1からD3まで勢揃いの立派な研究室になりました.今回は,これまでの本研究室の成果を振り返ってみます.

光メディアインタフェース研究室は,1.機械がカメラを通して現実を理解する「コンピュータビジョン」 2.あらゆる物体の質感をリアルに再現する「コンピュータグラフィクス」 3.カメラの常識を打ち破る新しい撮影技術「コンピューテーショナルフォトグラフィ」 4.あらゆる研究の基礎となる「光学設計」の4本柱で研究を進めており,人間と機械が光を媒体としてシーンに関する情報を共有できる新しいインタフェースの実現を目指し活動しています.詳しい研究内容は,研究室ホームページ  をご参照ください.

 

今,光メディアインタフェース研究室には,教授・准教授・2名の助教の計4名の教員,事務補佐員,6名の博士後期課程学生,16名の博士前期課程学生,さらに1名のインターン生で活動しています.研究室の学生は,毎年何らかの研究予算を自分で獲得してきてプロジェクトを進めるなど,活発な人が多く在籍しています.CICPと呼ばれる学内予算はもとより,日本学術振興会特別研究員や,JST ACT-I,IPA未踏スーパークリエーター認定などを得ており,自ら未開拓分野を切り拓いていく姿勢には感心します.これまでに,本研究室を修了した学生は,3年間で延べ21人となり,各方面で活躍しています.「光メディアインタフェース研究室出身はすごい」と呼ばれるよう,より一層の活躍を期待したいところです.また,これまで多数の留学生・インターン等を受け入れています.なぜだか分かりませんが,多くがフランス語圏からの留学生です.もしかして,フランス語の案内ページも作ったほうが良いのでしょうか…?

本研究室は,活発に外部の機関と共同研究を実施してきました.複数の国内大手電機メーカーや農業・医療・自動車産業,アニメ産業の企業と連携中あるいは連携してきました.アカデミックでは,東京大学・京都大学・大阪大学・九州大学・国立情報学研究所・筑波大学・広島大学・早稲田大学・東邦大学や,Carnegie Mellon University (CMU・アメリカ)・Arizona State University(アメリカ)・The University of Picardie Joule Verne (フランス)・The University of California Los Angeles (UCLA・アメリカ) の研究者と共同研究を実施してきました.プロジェクトの数が多く,学生が多数の幅広いテーマから自分のやりたいことを選択し取り組めるのも,この研究室の大きな特徴かもしれません.

彼らとともに成し遂げた研究プロジェクトは http://omilab.naist.jp/publications-jp.html から見ることができます.数字で見ていくと,情報電子通信学会論文賞やMIRU長尾賞などの大きな賞を含む24個の受賞,2本のPAMI(最難関国際論文誌)を含む12本の論文誌および5本のCVPR(最難関国際会議)を含む21本の査読付き国際会議論文を発表してきました.どのテーマで研究しても,在学中に1回以上の発表を学会で行うべく,ハイレベルな研究活動を行っています.

 

ここで,大きな賞を受賞した2つの研究を少し紹介したいと思います.一つ目は,電子情報通信学会論文賞やMIRUフロンティア賞を受賞している,一連の新しいコンピュータグラフィクス(CG)の研究です.多くの人は,CGと聞くと,ゲームや映画で使われているようなきれいな画を作る技術だと思われているでしょう.これまでのCG技術の一つに,現実の物体を計測し,それそっくりな見た目の映像を計測データを使って「画面上で」リアルに表現するというものがありました.我々の研究室では,この「画面上」という制限を取っ払って,「リアル空間で」計測した物体そっくりのレプリカをつくろうという新しい表現方法を研究しています.つまり,物体の形状と質感を,3Dプリンタや高度な印刷技術,微細構造の工夫などによって,現実空間にコピーする技術の開発を行っています.図1にこの研究の例を示しています.この実験では,計測したサーモンの質感を,ロウでできた物体にコピーしています.写真ではわかりにくいかもしれませんが,どこからみてもサーモンっぽい質感の再現に成功しました.この技術が発展すれば,本物の美術品や古典籍にそっくりな触れるレプリカの作成,個人個人の肌とそっくりな義手・義足や,エンターテインメントなど,コンピュータグラフィクス技術の新しい社会実装に貢献できるのではないかと考えています.


図1:本物のサーモン(左)とリアルな見た目のレプリカ(右)

 

2つ目の研究は,MIRU長尾賞という,いわゆる日本一と認められた,新しいコンピュータビジョンの研究です.コンピュータビジョンというと,カメラで撮影された視覚情報をコンピュータでどのように理解するか,という風に説明されてきました.我々の研究室では,カメラで撮影された後の2次元画像からスタートしているようでは情報が不十分であり,画像になる前の,現実世界を飛び交う光の状態からシーン理解を行うべきだという信念のもと,より次元を増やした計測からシーン理解を行う研究を行っています.その中でも,時間の次元を増やす,ということに関して,世界のトップレベルとしのぎを削っています.時間の次元と言っても,単にビデオやハイスピードカメラで撮影するということではありません.この研究室で行っているのは,「光」自体が伝わっていく様子を可視化できるくらいの超高速な計測,時間で言うと数ナノ秒(0.000000001秒)から数ピコ秒(0.000000000001秒)です.図2に,実際に 250ピコ秒で撮影した画像を載せています.このレベルになると,光がどのように反射・散乱し,シーン中を伝わっていくのかが分かります.当然ながら,こうした情報を使うと,3次元形状,物体の材質,異常検知などが簡単に行えるようになります.

 
図2:シーン(左)中を光が伝播していく様子(右)

光メディアインタフェース研究室では,現在,向川教授を研究代表とした大型プロジェクト「多元光情報の符号化計測と高次元化処理の協調設計」を実施しています.このプロジェクトでは,計測の次元を「時間」だけでなく,「波長」や「空間」といった次元にも拡張していき,高度な計測技術を確立することを目指しています.博士課程やポスドクとして参画したい方,コンタクトください.

 

最後に,NAISTへの入学を検討している方や,インターン希望の方,ぜひ一度光メディアインタフェース研究室に見学に来てください.文章ではわからない研究のこと,研究室の雰囲気,研究の進め方,などなど,今後の進路に役立つこと間違いありません.NAISTでは,受験生のためのオープンキャンパス を毎年2月と5月に行っています.また,受験を検討している人のために2・3日の研究体験ができるサマーセミナー (8月頃)や スプリングセミナー (2月頃)もやっています.さらに,いつでも見学会 という制度を使うと,研究室が受け入れ可能な日はいつでも見学・相談が可能です.ぜひ,ご検討ください.

Speed Up Machine Learning Through Efforts of Advanced VLSI Circuits

Hello, world. This is from Assistant Professor Renyuan Zhang with Computing Architecture Lab. to share some progresses from our group, which are all about speeding up the machine learnings through efforts of advanced VLSI circuits.

Why do we implement the machine learning in silicon?

The artificial intelligence plays very important roles in the modern/post IoT. A common challenge is how to efficiently implement machine learning algorithms in systems with the cloud-edge prototype. Along with the development of computing processors, one option is to distribute the machine learning at the “edge” of systems as show in the sided figure.

In such a system, both of learning and recognition (for instance) are carried out at the edge instead of central stations, which is helpful to reduce the communications and able to active movable equipment off-connecting any PC (such as vehicles and body-area). Unfortunately, very few on-chip learning processors have been developed for machine learning at edge in silicon.

Both of digital and analog efforts have been done a lot to develop on-chip learning processors. Multi-computational-core is a general digital strategy to process a large number of complex computations in parallel (see machine learning works by GPGPU). Our group members also hold some experiences of implementing machine learning by CGRAs with very high parallelism. For many IoT tasks, the computational accuracy is not extremely required. Therefore, some approximate computing processors were designed by analog circuits. In some of my early works, it is found the chaos of analog signals greatly speeds up the learning process. We have realized ultra-high speed on-chip learning for some specific algorithms such as SVM or K-means. In summary, the CPU or GPGPU is not always applicable for every edge device; analog processors have potentials of high-speed and low-power, but their functions (target algorithms) are always fixed and specific. Therefore, most of current/previous IoT works, which employ machine learning, have to carry out the “learning” centrally, then do the recognitions locally.

What have we done?

On the academia side, the ML and AI research/development is one of the most popular fields. There are many groups and societies are trying to design specific VLSI systems for realizing efficient ML. Most of those works are based on the high performance digital processors. The analog (even physics device) circuit has been a new (or we can say re-born) trend leading to ultra-high speed and efficiency. Our early work was one of world-first pure-analog ML chips with benefits but suffered from poor generalization. Thus, we are going to develop generally and practically feasible technologies in this field. In industry, many software/hardware makers start their competitions on VLSI chips for ML/AI in past five years (see “IBM Scientists Show Blueprints for Brain-like Computing,” “Building a Brain on a Silicon Chip” and “Intel Reveals Neuromorphic Chip Design”). The mobile supplier HUAWEI even actually applied the NPU (Neural Processing Unit) in their newest mobile chip “Kirin970”.  In our early works, world fastest learning (64-D SVM learning within 0.1us, 2012; 64-D K-means within 20ns, 2013; 64-D SVDD within 40ns, 2014) has been achieved (see the sided figure as an example: SVDD algorithm is implemented by VLSI to do the multi-class image classification). However, the algorithms and capacities were fixed. We expect to keep the speed benefit and generalize the target algorithms.

What are we going to do?

As an exploration, we are expecting to develop general purpose on-chip learning processor which accelerates various machine learning processes by analog VLSIs. As consequence, local/on-chip machine learning is feasible and practical for ubiquitous applications.

We are designing ultra-high speed and low-energy hardware (VLSIs) for implementing the so-called on-chip learning (not for specific but various algorithms). The analog approximate computing strategy is adapted. The circuit-, unit-, and architecture-level are explored; several actual VLSI chips are expected to fabricate as demonstrations. For instance, we will demo the visual tracking with ML by a single VLSI chip without any PC.

As shown in the sided figure, three key ideas are included in this project: 1. General purpose Analog Calculation Unit (called ACU); 2. Fully-parallel accelerating strategy; 3. Expanding the learning capacity. It is a cross-field among high-performance-computing, the VLSI designs and machine learning theories.

What are we expecting?

Firstly, we expect our novel learning mode: chaos of continuous signals, to impact the machine learning societies for reasonable applications. Along with the development of IoT, various demands of on-chip machine learning require the well-performance hardware besides CPU or GPGPU. Secondly, a general purpose ML accelerator leads to practical “smart chips”, which are embedded into the edge-devices of IoT. Currently, most of IoT works execute the recognition at the edge, but do the learning process on cloud or central stations. The edge learning offers a potential for industry to build more efficient and intelligent network, in which the machine learning can be done by VLSI chips instead of CPUs.

Most importantly, the road-map of VLSI scaling-down might reach the end soon. Different strategies of high performance computing architecture should be explored. The progress of this project is expected to push the analog approximate computing fashion into practical fields. The developed ACUs can be applied in various architectures even together with digital frameworks. The general purpose and programmable analog computing, as an internal progress, offers a different option of data processing: lighter, but faster.

Thank you very much for your kind reading.