What is Awe, why is it good for well-being, and how can Virtual Reality help to experience it?

My name is Monica Perusquia-Hernandez, and Assistant Professor at the Nara Institute of Science and Technology (NAIST). I specialize in Affective Computing, the science of identifying, eliciting, and regulating emotions with technology. 

We experience many emotions from birth, and they shape how we perceive ourselves, make decisions, and interact with others. This time, I will introduce the emotion of “awe” (Fig. 1).

Fig. 1. Awe is a complex emotion that aids well-being and pro-social behavior

What is Awe?

Awe is a self-transcendent emotion characterized by the perception of vastness and the need to accommodate it within one’s existing mental frameworks (Keltner, 2023). It is often triggered by stimuli that challenge our understanding of the world, such as natural landscapes (Joye & Bolderdijk, 2015), architectural structures, or powerful music (Maruskin et al., 2012). 

Why is Awe good for well-being?

Profound psychological states, such as the emotion of awe, are often characterized by a modulation of self-perception, specifically a feeling of the “small self” — a diminished sense of personal scale and significance relative to something perceived as vast (Piff et al., 2015). Awe is increasingly recognized for its beneficial links to well-being, prosociality, and enhanced life satisfaction (Kitson et al., 2018). The experience of “small self” makes people less defensive, less ego-protective, and more receptive to new information and to seeking new experiences (Piff et al., 2015). 

Awe has potential as a tool for mental health interventions. It has been described as a transformative emotion that can shift attention away from the self and open individuals to new perspectives (Chirico & Gaggioli, 2021), and it has been used to treat conditions such as depression and acute physical pain (Schony & Mischkowski, 2024). However, the use of awe in clinical or therapeutic contexts is still in its early stages, and more empirical research is needed to understand how it can be reliably elicited and applied. 

How can Virtual Reality help to experience Awe?

Virtual Reality (VR) has emerged as a promising tool to study awe in controlled experimental settings. VR enables the creation of immersive, interactive, and highly realistic environments that are well-suited to create awe-inducing scenes. Compared to traditional media, VR can enhance emotional engagement by offering a greater fidelity and a stronger sense of presence (Chirico et al., 2017). Moreover, VR enables researchers to create content that would be difficult or impossible to access in the real world.

In a joint project with Bohn-Rhein-Sieg University of Applied Sciences, funded by the DAAD and JSPS, we created eight virtual environments that represent scenes designed to induce awe in virtual reality. The scenes are multimodal and include audio (Fig. 2). 

Fig. 2. Awe scenes implemented in Virtual Reality

In a study published in ISMAR last year (Steininger et al., 2025), these scenes were presented in VR to participants, and physiological signals were recorded along with self-reports. We collected data from nationals of Germany, Japan, and Jordan. Self-reported awe varied significantly across countries and scene types. In particular, a scene depicting outer space evoked the strongest sense of awe. Scenes that elicited high self-reported awe also induced a stronger sense of presence. However, we found no evidence that awe ratings are correlated with physiological responses.

We also investigated which perspective would best induce Awe in VR (Fig. 3) (Otsubo et al., 2024). We compared first-person and third-person perspectives. Forty-two participants explored the VR scenes, with their physiological responses captured by electrocardiogram (ECG) and face tracking (FT). Subsequently, participants self-reported their experience of awe (AWE-S) and presence (IPQ) within VR. The results revealed that the first-person perspective induced stronger feelings of awe and presence than the third-person perspective.

Fig. 3. Perspectives in VR for Awe elicitation

In another study, we explored whether self-reported Awe could be predicted using skin conductance measurements (Steininger et al., 2024). Sixty-two participants took part in a study comparing an awe-eliciting space scene with a neutral scene. The space scene was found to be more awe-inspiring. A k-nearest neighbors algorithm confirmed the presence of high- and low-awe score clusters used to label the data. A Random Forest algorithm achieved 65% accuracy in predicting the self-reported low and high awe categories from continuous skin-conductance data. 

The previous study suggested that there is some relationship between embodied responses and Awe experience (Marquardt et al., 2025). Therefore, we tried the opposite direction. To modify the body state, i.e., the temperature of the body, to see if the awe experience changes. We developed a custom thermal feedback system integrated into a VR headset that delivers temperature sensations to the user’s face while viewing vast scenes of snow-covered mountains and desert canyons (Fig. 4). Our results show that thermal feedback significantly enhanced presence measures and influenced specific components of awe experiences, particularly those related to physical sensations.

Fig. 4. Changing the body temperature to increase the affective experience of Awe

Finally, we iteratively developed a Head-Mounted Display to display our stimuli underwater (Fig.5) (Otsubo et al., 2023) and explored how to interact with the environment underwater using computer vision technology (Fig. 6) (Marquardt et al., 2024). An underwater virtual reality (UVR) system with gesture-based controls was developed to facilitate submerged navigation and interaction. The system uses a waterproof head-mounted display and camera-based gesture recognition, trained initially for above-water conditions, employing three gestures: grab for navigation, pinch for single interactions, and point for continuous interactions. In an experimental study, we tested gesture recognition both above and underwater, and evaluated participant interaction within an immersive underwater scene. Results showed that underwater conditions slightly affected gesture accuracy, but the system maintained high performance. Participants reported a strong sense of presence and found the gestures intuitive while highlighting the need for further refinement to address usability challenges.

Fig. 5. Underwater Head-Mounted Display to present images underwater
Fig. 6. Underwater gesture recognition for interaction with the Virtual Environment

Into the future of AWEsome experiences

Using the technology we developed, we are currently running a study to compare awe and immersive experiences above and below water. Pilot results suggest that experiencing our scenes underwater improves immersion and, therefore, Awe experiences. 

We are also further exploring the possibility of hacking the body to improve our emotional experiences and regulation.  All in all, I dream of being able to quantify user experiences and create experiences that we could not before. All thanks to technology.

About the author

Monica Perusquia-Hernandez received her BSc in electronic systems engineering (2009) from the Instituto Tecnologico y de Estudios Superiores de Monterrey, Mexico; her MSc in human-technology interaction (2012) and the professional doctorate in engineering in user-system interaction (2014) from the Eindhoven University of Technology, the Netherlands. In 2018, she obtained her Ph.D. in Human Informatics from the University of Tsukuba, Japan. She is an Assistant Professor at the Nara Institute of Science and Technology. Her research interests include affective computing, biosignal processing, augmented human technology, and human-AI interaction.

References

Chirico, A., Cipresso, P., Yaden, D. B., Biassoni, F., Riva, G., & Gaggioli, A. (2017). Effectiveness of Immersive Videos in Inducing Awe: An Experimental Study. Scientific Reports, 7(1), 1218. https://doi.org/10.1038/s41598-017-01242-0 

Chirico, A., & Gaggioli, A. (2021). The Potential Role of Awe for Depression: Reassembling the Puzzle. Frontiers in Psychology, 12. https://doi.org/10.3389/fpsyg.2021.617715 

Joye, Y., & Bolderdijk, J. W. (2015). An exploratory study into the effects of extraordinary nature on emotions, mood, and prosociality. Frontiers in Psychology, 5. https://doi.org/10.3389/fpsyg.2014.01577 

Keltner, D. (2023). Awe: The New Science of Everyday Wonder and How It Can Transform Your Life. Penguin. 

Kitson, A., Prpa, M., & Riecke, B. E. (2018). Immersive Interactive Technologies for Positive Change: A Scoping Review and Design Considerations. Frontiers in Psychology, 9. https://doi.org/10.3389/fpsyg.2018.01354 

Marquardt, A., Lehnort, M., Otsubo, H., Perusquia-Hernandez, M., Steininger, M., Dollack, F., Uchiyama, H., Kiyokawa, K., & Kruijff, E. (2024). Exploring Gesture Interaction in Underwater Virtual Reality. Proceedings of the 2024 ACM Symposium on Spatial User Interaction, SUI ’24, 1–2. https://doi.org/10.1145/3677386.3688890 

Marquardt, A., Lehnort, M., Steininger, M., Kruijff, E., Kiyokawa, K., & Perusquia-Hernandez, M. (2025). Temperature Matters: Thermal Feedback for Awe Experiences in VR. 2025 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW), 1352–1353. https://doi.org/10.1109/VRW66409.2025.00322 

Maruskin, L. A., Thrash, T. M., & Elliot, A. J. (2012). The chills as a psychological construct: Content universe, factor structure, affective composition, elicitors, trait antecedents, and consequences. Journal of Personality and Social Psychology, 103(1), 135–157. https://doi.org/10.1037/a0028117 

Otsubo, H., Marquardt, A., Steininger, M., Lehnort, M., Dollack, F., Hirao, Y., Perusquia-Hernandez, M., Uchiyama, H., Kruijff, E., Riecke, B. E., & Kiyokawa, K. (2024). First-Person Perspective Induces Stronger Feelings of Awe and Presence Compared to Third-Person Perspective in Virtual Reality. Proceedings of the 26th International Conference on Multimodal Interaction, ICMI ’24, 439–448. https://doi.org/10.1145/3678957.3685753 

Otsubo, H., Schirm, J., Bachmann, D., Marquardt, A., Dollack, F., Perusquıa-Hernandez, M., Uchiyama, H., Kruijff, E., & Kiyokawa, K. (2023). Development of a Waterproof Virtual Reality Head-Mounted Display: An Iterative Design Approach

Piff, P. K., Dietze, P., Feinberg, M., Stancato, D. M., & Keltner, D. (2015). Awe, the small self, and prosocial behavior. Journal of Personality and Social Psychology, 108(6), 883–899. https://doi.org/10.1037/pspi0000018 

Schony, M., & Mischkowski, D. (2024). The Role of Awe in Acute Physical Pain. The Journal of Pain, The 2024 USASP Annual Scientific Meeting, 25(4, Supplement), 64. https://doi.org/10.1016/j.jpain.2024.01.294 

Steininger, M., Marquardt, A., Perusquia-Hernandez, M., Lehnort, M., Otsubo, H., Dollack, F., Kruijff, E., Krüger, B., Kiyokawa, K., & Riecke, B. E. (2025). The Awe-Some Spectrum: Self-Reported Awe Varies by Eliciting Scenery and Presence in Virtual Reality, and the User’s Nationality. 2025 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), 1267–1277. https://doi.org/10.1109/ISMAR67309.2025.00132 

Steininger, M., Perusquía-Hernández, M., Marquardt, A., Otsubo, H., Lehnort, M., Dollack, F., Kiyokawa, K., Kruijff, E., & Riecke, B. (2024). Using Skin Conductance to Predict Awe and Perceived Vastness in Virtual Reality. 2024 12th International Conference on Affective Computing and Intelligent Interaction Workshops and Demos (ACIIW), 202–205. https://doi.org/10.1109/ACIIW63320.2024.00042 

遠隔操縦型水中ビークルを活用した水中作業の効率化に向けて

導入

情報科学領域ヒューマンロボティクス研究室助教の織田です.私は,屋外や自然環境で動作するロボットのための技術―フィールドロボティクス―に関する研究を行っている.現在は,水中ビークル,四足歩行ロボット,1人乗り用電動車椅子型ビークルといった実際のロボット/ビークルプラットフォームの自動化によって,リソース不足で困っている人や危険で負担の大きい作業に従事している人々の助けになりたいという想いで研究している.本稿では,水中ビークルに関する研究について紹介する.

1.社会的背景

湾港施設をはじめとする多様な水中構造物は劣化が激しく,定期的な検査を必要としている.現状は点検作業の多くを潜水士に頼っているが,水中での作業は潜水士にとって危険を伴うものであり,肉体的・精神的負荷が高い.

近年,ROV(Remotely Operated underwater Vehicle)と呼ばれる小型・軽量で遠隔操縦型の水中ビークルが市販されるようになった.比較的安価でありながら一定の拡張性を併せ持ち,様々な水中での作業に活用できる可能性があるため,潜水士の代替としても期待されている.我々が実際に研究で使用している機体を紹介する(図1,図2).市販のROVをベースに特定の作業に対応できるように改造・拡張が施されているが,この程度であれば当時素人であった著者自身でもなんとかなった.ROVの特徴として,テザーケーブルと呼ばれる100m~数100m級の操縦者とROV間の通信用ケーブルが装備される.実際には,さらにグリッパやマニピュレータが装着される例も多い.ROVを活用することで,水中インフラの検査だけでなく,海底遺跡の調査や海洋資源の採取,生態系のモニタリング,さらには養殖管理に至るまで,学術的な探究にとどまらず社会課題の解決にも貢献が期待できる.

図1.BlueROV2 Heavyをベースにいくつかの改造が施された1号機の外観.水平方向に推力を得るためのスラスタが4機,垂直方向に推力を得るためのスラスタが4機装備されている.ROVの前方には操縦用のカメラと距離計測用のソナーセンサが左右に1機ずつ追加搭載されている.13kg程度の重さのため1人で持ち運ぶことが可能.
図2.2号機の耐圧容器周辺の様子.多数の機器・配線が耐圧容器内部にところ狭しと並んでいる.耐圧容器外部には深度(水深)を計測するための圧力センサも搭載されている.

2.水中ロボット/小型・軽量ROVの難しさ

潜水士に代わりROVを導入すれば問題が解決されるわけではない.効率的に作業を進めるには,ROV遠隔操縦の難しさを克服する必要がある.一般的な操縦時の難しさとして以下の2点挙げる.

  1. 操縦の複雑さ
    ROVは3次元空間での運動になるので,並進3自由度(x, y, z)と回転3自由度(roll, pitch, yaw)の合計6自由度を同時に制御する必要があり,操縦が非常に複雑である.その上で,操縦者の入力どおりにROVが動作するとは限らない.軽量・軽量の機体は外力・外乱の影響を受けやすく,機体の表面形状によっては水流(潮流,乱流を含む)の影響が大きく増大する.加えて,浮心と重心のずれに起因する復原力や,テザーケーブルからの張力もROVの運動に大きな影響を及ぼす.これらすべての外力・外乱の影響を操縦中に正確に把握することは不可能に近く,それらを打ち消すように操縦することもまた困難である.テザーケーブルに関しては、水中構造物との絡まり問題も頭の片隅に置いておく必要がある.
  2. 酔い
    特に船上からの操縦では,船酔い・操縦酔いと闘う必要がある.著者の印象・経験上ではあるが,グリッパで物体を掴むといった数センチ単位の操縦精度を要する作業や,濁った映像から特定の物体を探し出すように画面を注視する作業では,酔いの症状の進行が非常に早い(図3).熟練操縦者であっても決して簡単な仕事ではない.

    上記の操縦時の難しさ・負担を軽減させるために,自動化技術を活用した支援策が議論されている.続いて,小型・軽量ROVの自動化技術活用に関連する難しさを4つの項目に分けて整理する.

  3. 自己位置推定問題
    一番の問題は,信頼できる自己位置推定手法が確立されていない.水中ではGNSS(Global Navigate Satellite System)が利用できない.IMU(Inertial Measurement Unit)やDVL(Doppler Velocity Log)を用いた手法は,一般的に位置・姿勢の推定値がドリフトする.大域的な位置・姿勢推定が現状困難であり,ROV自身が,自分がどこにいてどういう状態なのか正確に推定することが難しい.
  4. センサ種類・センサ数制限
    ROVに搭載できる環境計測用のセンサの選択肢が大きく制限される.水中では電磁波が著しく減衰するためである.近距離計測では光学的手法も利用されるが,主流はソナーセンサに代表される音響計測である.
    また,コスト上昇,機体の大型化につながるセンサ数の増加は望ましくない.小型・軽量ROVの運用上の手軽さという大きな利点を失うからである.各センサには視野角,計測可能レンジ,分解能,解像度といった制約がある中で,センサ数も制限される.さらにセンサ系は,水中の濁りの程度やROVの急な姿勢変化の影響も受けるため,設計段階でうまく制約を補っていたとしても,期待された性能を常に発揮するとは限らない.
  5. モデルの不確実性
    環境変化や機体改造によるモデルパラメータの変動,浮力調整のための浮力材・バラスト着脱による浮心・重心位置の微妙な移動,スラスタの経年劣化による推力バランスの乱れは,正確なモデル化・パラメータ同定が困難である.さらに,テザーケーブルの運動モデリングの表現力の向上も必要である(図4,図5からも分かるが捩れや巻き癖などかなり不規則).
  6. 計算機の問題
    機体そのものが小さいため搭載できる計算機が低性能になる.図2で示したように,耐圧容器の体積の関係でRaspberry pi,Jetson nano程度の計算機となる.たとえ多数のセンサを装着することができても,それらを処理できる性能の計算機を載せることが難しい.

以上のように,本稿で取り上げられるだけでも,水中環境や機体に由来する,シミュレーションでは再現が難しい,あるいは無視されがちな実際的な問題や制約が存在することが分かるだろう.

図3.駿河湾での実験中,船室からの遠隔操縦の様子.ROVが海流の影響で揺れるため転送されてくる映像も不規則に揺れる.さらに,操縦者が搭乗している船そのものも揺れるため,船酔い・操縦酔いがかなり厳しい.

3.自動化

ここでは,センサ系が期待通りに機能する環境下での,制御精度そのものを向上させるための研究を紹介する.

1つ目が,対象物の前で位置・姿勢を維持し,対象物をカメラに捉え続ける定点保持と呼ばれるシナリオである.しかし,前述のように,モデル,パラメータは不確実性が大きく,外乱も予測できない.そこで,入力に関するあるクラスの不確定性にロバスト性を有する逆最適制御を実装した.そして,proving groundでの実験として,NAISTの情報科学領域棟の屋外に設置されているプール設備で実験を行った(図4).静水中であれば前後・左右方向にそれぞれに目標点から誤差5cm以内,深度方向に10cm以内,角度誤差10deg以内で制御可能であることを確認した.この精度は,人間による遠隔操縦では達成が難しい精度である.

2つ目が,水流下での定点保持である.NAISTのプール設備は流水を発生させることが可能であり,学内でより実践的な検証が可能である(図5).BlueROV2をベースにした機体では,一定方向からのわずかな水流でさえも制御性能を大きく低下させることが実験により分かった.現在,流水下でも制御精度を維持できるROVの新たな制御手法を研究中である.

最後に,和歌山県広川町の湾港で実験を行った経路追従制御を紹介する(図6).これは,防波堤や船体に沿うように移動し,表面の検査を行うことを想定したシナリオである.図1に示したように,2個の1Dソナーセンサと深度(圧力)センサのみで,実環境で4自由度(x, y, z, yaw)の制御が可能である.湾港内の穏やかな海面状況ではあったが,テザー張力を受けながらも防波堤との間隔を目標値から誤差5cm以内,深度方向に誤差5cm以内,角度誤差10deg以内の精度を維持して,3分間程度壁に沿って自動航行できることを確認した.

現在は水中構造物の目視検査を想定したシナリオ設定・精度設定であるが,近い将来,物体把持等の環境との接触を伴う作業が可能な精度まで高めていきたい.

図4.NAISTプール設備での定点保持制御実験の様子(静水中).検査対象の前で停止するように制御し,対象物をカメラに映し続ける.
図5.流水下での定点保持制御実験の様子.画像右から左へ向けて流水が発生している.NAIST内でより実践的な試験が可能.
図6.和歌山県広川町の湾港での実験の様子.経路追従制御を用いて検査対象の防波堤と一定間隔を維持しつつ防波堤に沿って移動する.海水で実験した後はすぐに真水で洗い流さないとスラスタが錆びついてしまう.

4.自動化技術を用いた操縦支援

理想的な環境下では,自動化によって前節で示した精度が得られる.しかし実際には,センサ系に大きな制約があり,自動化システムが機能する状況は限定的であるため,現時点での完全自動化は困難である.操縦負担の軽減や制御精度の向上を図るためには,自動化システムが機能する状況ではそれに任せ,機能しない状況で人間が介入・引き継ぐようなシステム設計が適切だと考えている.

 このような自動化システムと人間の引き継ぎを滑らかに実現する枠組みとして,Shared Controlがある.中でも我々は,HSC(Haptic Shared Control)に注目している.我々のHSCの適用例を示す(図7). HSCにおいては,操縦者が手や腕を介して,ロボットの制御支援・意図・状態を触覚的に感じ取ることができる.したがって,ジョイスティックを単なる操作入力端末としてだけでなく,情報伝達の媒体としても扱うことが可能である.

我々は,これを人間が操縦を引き継ぐべきタイミングの伝達に応用した.具体的には,人間による介入が不要な状況では,ジョイスティックを人の力では動きにくく設定し,介入が必要な状況では動かしやすく設定した.これは,操縦者がセンサ系や自動化システムの挙動を深く理解していない場合でも,センサ系の限界を直感的に把握でき,適切なタイミングでの引き継ぎを可能とすることを目的としている.また,人間とシステムが制御入力端末を共有するHSCでは,人間が意図せず制御精度を損ねたり,自動化システムの動作を妨げたりするリスクがある.自動化システムが機能している間,入力端末そのものを人間の力では動かしにくくし,人間に邪魔をさせないという設計意図も含まれる.20名の実験参加者による評価をNAISTプール施設で行った.本稿の読者の中にも,ROV操縦の難しさを体験した人が含まれているでしょう.

図7.Haptic Shared Controlの枠組みを活用した操縦支援手法の実験の様子.ジョイスティックは,自動化システムによって計算された制御入力を反映するように自ら動作する(右写真).そのジョイスティックに対し,操縦者も力を加えることで,両者の入力が統合され,最終的なジョイスティックの位置(角度)が定まり,それがROVへの制御入力となる.操縦者は,自動化システムの操縦意図に同意する場合,手を添えておくだけでよい(左写真).

5.研究に対するアプローチ

私の研究チームでは,実際のものに触れ,可能な限り実践的な環境で実験することを意識している.1つの要素技術だけでなく,我々が向き合っている課題全体を俯瞰的に見るためである.これにより,自身の研究が最終的なアプリケーション,目的に対してどれほど貢献できるかの評価,および実際のプラットフォーム,実環境でしか見つけられない問題の発見につながる.実環境で起こる現象を見て・体感して,どんな問題があり,何を解くべきか目的から逆算して考える.これはまだAIには難しいと思っている.

一方で,便利なシミュレータが登場し,人がそちらへ流れている.ただし,シミュレーションは実世界すべてを表現できないのは先述の通りで,特に水中ロボティクスでは,使用するシミュレータと実環境の一致性に言及する必要があるだろう.シミュレータ上で得られた進展が実世界での進展としてどの程度に相当するのか,実世界での問題解決にどれほど近づいたかしっかり議論する必要があるだろう.私たちの目的は常に実世界にあるからだ.また,シミュレーションは,MCP(Model Context Protocol)の発展などにより,近い将来すべてAIでできてしまう可能性が高いだろう.

最後に少しROVの話に戻ると,市販の小型・軽量ROVは,多くの制約の中での運用となるので,1つの機体に多くの機能は搭載せず,1機体1機能のような考え方が現実的ではないかと思う.また,現存の環境にそのままROVを導入しようとすると難しい局面も多く,ROVの活用を前提として,環境にも手を加えていく必要があるのではと考えている.

著者紹介

織田 泰彰

立命館大学大学院 博士(工学).2022年4月より奈良先端科学技術大学院大学 先端科学技術研究科 情報科学領域 助教.学生時代は,消防隊員を自動追従し資機材運搬の支援を行う半自律クローラ型移動ロボットに関する研究に従事.専門はフィールドロボティクス.非線形制御理論,ロボットビジョン,それらの実機・実践的環境での応用を主軸として,現在はHuman-Automation collaborationの研究にも従事.イングランドのフットボールクラブLiverpool FCのファン.
Webサイト:https://researchmap.jp/yskorita