KAISTは31日、バイオ脳工学科のチャン・ムソク教授とAI大学院のイェ・ジョンチョル教授の研究チームは、「ビデオ拡散(ディフュージョン)基盤の映像復元技術」を開発したと明らかにした。この技術は、時間軸の連続性を活用して、ぼやけたり損傷した映像を復元する仕組みだという。
従来のAI映像復元は訓練データの範囲を超えると性能が落ちるという限界があったが、研究チームは光学モデルとビデオ拡散モデルを組み合わせることでこの問題を克服した。特に、時間の経過に伴って変化する散乱環境にも対応できるよう、連続映像の時間的相関関係を学習するモデルを導入し、さまざまな距離・厚さ・ノイズの条件で既存の最先端モデルを上回る成果を得た。
実験では、動く散乱物質(霧や霞など)の向こう側で精子の動きを観察することに成功。追加の学習を行わなくても、霧の除去、映像の高解像度化、ブラインド・デブラーリング(ぼやけた映像の鮮明化)など、多様な状況に適用できる可能性があることを確認した。
クォン・テソン研究員は「時間相関を学習した拡散モデルは、散乱体の背後に隠れた映像を復元する光学的逆問題の解決に有効であることを確認した」とし、「今後は霧の除去や映像の高画質化にとどまらず、光の時間的変化の逆追跡を必要とする光学問題へと研究を広げていく」と述べた。
この研究成果は、人工知能分野の国際学術誌「IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI)」に、今月13日付で掲載された。
Copyrights(C) Edaily wowkorea.jp 91